Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales

Introducción-Al conducir, la persona se encuentra expuesta a diferentes estímulos que pueden llevar a que se ocasione accidentes. Aunque Numerosas propuestas tecnológicas se han presentado para mantener monitoreado al conductor, estas han pasado por alto el estado anímico en el que este se encuentra...

Full description

Autores:
Cordoba Fuzga, Juan Felipe
Vasquez Salazar, Ruben Dario
Sarmiento Maldonado, Henry Omar
Tipo de recurso:
Article of journal
Fecha de publicación:
2020
Institución:
Corporación Universidad de la Costa
Repositorio:
REDICUC - Repositorio CUC
Idioma:
spa
OAI Identifier:
oai:repositorio.cuc.edu.co:11323/12296
Acceso en línea:
https://hdl.handle.net/11323/12296
https://doi.org/10.17981/ingecuc.16.2.2020.14
Palabra clave:
artificial intelligence
machine learning
deep learning
computer vision
facial expressions
inteligencia artificial
aprendizaje de máquina
aprendizaje profundo
visión artificial
expresiones faciales
Rights
openAccess
License
INGE CUC - 2020
id RCUC2_32a004eb5bdfeffbd6161789ed850f06
oai_identifier_str oai:repositorio.cuc.edu.co:11323/12296
network_acronym_str RCUC2
network_name_str REDICUC - Repositorio CUC
repository_id_str
dc.title.spa.fl_str_mv Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales
dc.title.translated.eng.fl_str_mv Vehicle driver monitoring system based on facial expression analysis.
title Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales
spellingShingle Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales
artificial intelligence
machine learning
deep learning
computer vision
facial expressions
inteligencia artificial
aprendizaje de máquina
aprendizaje profundo
visión artificial
expresiones faciales
title_short Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales
title_full Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales
title_fullStr Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales
title_full_unstemmed Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales
title_sort Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales
dc.creator.fl_str_mv Cordoba Fuzga, Juan Felipe
Vasquez Salazar, Ruben Dario
Sarmiento Maldonado, Henry Omar
dc.contributor.author.spa.fl_str_mv Cordoba Fuzga, Juan Felipe
Vasquez Salazar, Ruben Dario
Sarmiento Maldonado, Henry Omar
dc.subject.eng.fl_str_mv artificial intelligence
machine learning
deep learning
computer vision
facial expressions
topic artificial intelligence
machine learning
deep learning
computer vision
facial expressions
inteligencia artificial
aprendizaje de máquina
aprendizaje profundo
visión artificial
expresiones faciales
dc.subject.spa.fl_str_mv inteligencia artificial
aprendizaje de máquina
aprendizaje profundo
visión artificial
expresiones faciales
description Introducción-Al conducir, la persona se encuentra expuesta a diferentes estímulos que pueden llevar a que se ocasione accidentes. Aunque Numerosas propuestas tecnológicas se han presentado para mantener monitoreado al conductor, estas han pasado por alto el estado anímico en el que este se encuentra, el cual podría generar efectos negativos en la capacidad de reacción al conducir. Objetivo- Buscar diferentes alternativas de inteligencia artificial para el análisis permanente de rostros de conductores, con el fin de encontrar un buen modelo de clasificación de expresión facial (feliz, enojo, sorpresa, neutral). Metodología- La metodología utilizada consiste en la selección de una base de datos que es preprocesada, para posteriormente entrenar diferentes modelos y realizar comparaciones de precisión entre ellos. Resultados- Se logra encontrar una precisión mayor al 80% en la detección del estado anímico del usuario. Y se logra migrar el modelo a un sistema de monitoreo portátil. Conclusiones- En este caso particular los métodos de aprendizaje de maquina tradicionales (machine learning) consumen menos tiempo a la hora de clasificar, sin embargo, estos son superados en precisión por un aprendizaje profundo.
publishDate 2020
dc.date.accessioned.none.fl_str_mv 2020-04-30 00:00:00
2024-04-09T20:21:18Z
dc.date.available.none.fl_str_mv 2020-04-30 00:00:00
2024-04-09T20:21:18Z
dc.date.issued.none.fl_str_mv 2020-04-30
dc.type.spa.fl_str_mv Artículo de revista
dc.type.coar.spa.fl_str_mv http://purl.org/coar/resource_type/c_6501
http://purl.org/coar/resource_type/c_2df8fbb1
dc.type.content.spa.fl_str_mv Text
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/article
dc.type.local.eng.fl_str_mv Journal article
dc.type.redcol.spa.fl_str_mv http://purl.org/redcol/resource_type/ART
dc.type.version.spa.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.coarversion.spa.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
format http://purl.org/coar/resource_type/c_6501
status_str publishedVersion
dc.identifier.issn.none.fl_str_mv 0122-6517
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/11323/12296
dc.identifier.url.none.fl_str_mv https://doi.org/10.17981/ingecuc.16.2.2020.14
dc.identifier.doi.none.fl_str_mv 10.17981/ingecuc.16.2.2020.14
dc.identifier.eissn.none.fl_str_mv 2382-4700
identifier_str_mv 0122-6517
10.17981/ingecuc.16.2.2020.14
2382-4700
url https://hdl.handle.net/11323/12296
https://doi.org/10.17981/ingecuc.16.2.2020.14
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.ispartofjournal.spa.fl_str_mv Inge Cuc
dc.relation.references.spa.fl_str_mv A. González, F. J. Martínez, A. V. Pernía, F. A. Elías, M. Castejón, J. Ordieres & E. Vergara, Técnicas y Algoritmos Básicos de Visión Artificial. RI, Es.: U de la Rioja, 2006.
F. Chollet, “Deep Learning With Python” Vol. 1, GMT, USA: Manning Publications Co, 2017.
V. Torres & J. Alejandra, “Las Compañías más Grandes en Seguros Generales en Colombia: Un Análisis Comparativo en el Período 2015-2017,” Trabajo de grado, UC, Bog., Co., 2017.
W. Arias & S. B. Chaves, “Analysis Of Fatalities For Crash Accidents in Colombia Between 2011-2015,” Redes de Ingenieria-Rompiendo las Barreras del Conocimiento, vol. Especial, pp. 226–239, 2017. Available: http://revistas.udistrital.edu.co/ojs/index.php/REDES/index
E. G. Fernández-Abascal & M. Chóliz, Expresión Facial de la Emoción, Mad., Esp.: UNED, 2001.
A. Freitas-Magalhães, Facial Action Coding System-Manual of Scientific Codification of the Human Face. RJ. Br.: Escrytos, 2018.
R. Amini, C. Lisetti & G. Ruiz , “Hapfacs 3.0: Facs-Based Facial Expression Generator for 3d Speaking Virtual Characters,”IEEE Trans Affect Comput, vol. 6, no 4, pp. 348–360, 2015. https://doi.org/10.1109/TAFFC.2015.2432794
E. A. Morris & J. A. Hirsch, “Does Rush Hour See A Rush Of Emotions? Driver Mood in Conditions Likely To Exhibit Congestion,” Travel Behav Soc, vol. 5, pp. 5–13, Sep. 2016. https://doi.org/10.1016/j.tbs.2015.07.002
A. Carneiro, P. Cortez & R. Costa, Reconhecimento de Gestos da Libras com Classificadores Neurais a Partir dos Momentos Invariantes de Hu, in Interaction Sudamerica/09SP. Br.: IXTA-SP, pp. 193–198, 2009.
 M. G. Kamachi, J. Gyoba & M. J. Lyoons, “The Japanese Female Facial Expression (Jaffe) Database, in “Proceedings of Third International Conference on Automatic Face and Gesture Recognition,” Data Set, Zenodo, pp. 14–16, 14 Abr. 1998. https://doi.org/10.5281/zenodo.3451524
 C. E. Thomaz, “Fei Face Database,” Fei Face Databaseavailable, 2012. Available: https://fei.edu.br/~cet/facedatabase.html
 S. Li, W. Deng & J. P. Du, “Reliable Crowdsourcing And Deep Locality-Preserving Learning For Expression Recognition In The Wild,” presented at Proceedings of the Ieee Conference on Computer Vision and Pattern Recognition, CVPR, Hnl., Hi., USA, pp. 2852–2861, 21-26 Jul. 2017. https://doi.org/10.1109/CVPR.2017.277
 N. Pellejero, G. L. Grinblat & U. Lucas, “Análisis Semántico en Rostros Utilizando Redes Neuronales Profundas,” presentado al XVIII Simposio Argentino de Inteligencia Artificial, ASAI-JAIIO 46, Cord., Arg., pp. 62–71, Sept. 2017. Disponible en http://sedici.unlp.edu.ar/handle/10915/65945
 M. Köstinger, P. Wohlhart, P. M. Roth & H. Bischof, “Annotated Facial Landmarks In The Wild: A Large-Scale, Real-World Database for Facial Landmark Localization,” en 2011 IEEE International Conference on Computer Vision Workshops, ICCV Workshops, Bcn., Es., pp. 2144–2151, 6-13 Nov, 2011. https://doi.org/10.1109/ICCVW.2011.6130513
 S. Marsland, Machine Learning: An Algorithmic Perspective, 2. Ed., CRC Press, Br. Fl. USA, 2015. https://doi.org/10.1201/b17476
 K. Simonyan & A. Zisserman, “Very Deep Convolutional Networks For Large-Scale Image Recognition,” Arxiv Preprint, ICLR, Baff., Ca., pp. 1409–1556, 2014. Available: https://arxiv.org/pdf/1409.1556.pdf
 R. S. Jurecki, T. L. Stańczyk & M. J. Jaśkiewicz, “Driver’s Reaction Time In A Simulated, Complex Road Incident,” Transport, vol. 32, no. 1, pp. 44–54, 2017. https://doi.org/10.3846/16484142.2014.913535
 B. C. C. Cerezo & E. I. Ortega, “Diseño de un prototipo de casilleros inteligentes, utilizando el carnet universitario y clave de seguridad para el control de acceso a través de una red inalámbrica, mediante la administración de página web y base de datos aplicando tecnología de bajo costo (raspberry y arduino), para beneficio de los estudiantes de la carrera de ingeniería en networking y telecomunicaciones de la Universidad de Guayaquil,” tesis grado, dpto. FCFM, UG, Gquil., Ec., 2018. Disponible en http://repositorio.ug.edu.ec/handle/redug/32565
dc.relation.citationendpage.none.fl_str_mv 201
dc.relation.citationstartpage.none.fl_str_mv 192
dc.relation.citationissue.spa.fl_str_mv 2
dc.relation.citationvolume.spa.fl_str_mv 16
dc.relation.bitstream.none.fl_str_mv https://revistascientificas.cuc.edu.co/ingecuc/article/download/3212/3003
https://revistascientificas.cuc.edu.co/ingecuc/article/download/3212/3540
https://revistascientificas.cuc.edu.co/ingecuc/article/download/3212/3569
dc.relation.citationedition.spa.fl_str_mv Núm. 2 , Año 2020 : (Julio-Diciembre)
dc.rights.spa.fl_str_mv INGE CUC - 2020
dc.rights.uri.spa.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.coar.spa.fl_str_mv http://purl.org/coar/access_right/c_abf2
rights_invalid_str_mv INGE CUC - 2020
http://creativecommons.org/licenses/by-nc-nd/4.0
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.mimetype.spa.fl_str_mv application/pdf
text/html
application/xml
dc.publisher.spa.fl_str_mv Universidad de la Costa
dc.source.spa.fl_str_mv https://revistascientificas.cuc.edu.co/ingecuc/article/view/3212
institution Corporación Universidad de la Costa
bitstream.url.fl_str_mv https://repositorio.cuc.edu.co/bitstreams/1035dd01-aa97-4e70-87be-31095fb287a2/download
bitstream.checksum.fl_str_mv d0260fd7fb2827f6c99e6c68e86ea87c
bitstream.checksumAlgorithm.fl_str_mv MD5
repository.name.fl_str_mv Repositorio de la Universidad de la Costa CUC
repository.mail.fl_str_mv repdigital@cuc.edu.co
_version_ 1811760779890786304
spelling Cordoba Fuzga, Juan FelipeVasquez Salazar, Ruben DarioSarmiento Maldonado, Henry Omar2020-04-30 00:00:002024-04-09T20:21:18Z2020-04-30 00:00:002024-04-09T20:21:18Z2020-04-300122-6517https://hdl.handle.net/11323/12296https://doi.org/10.17981/ingecuc.16.2.2020.1410.17981/ingecuc.16.2.2020.142382-4700Introducción-Al conducir, la persona se encuentra expuesta a diferentes estímulos que pueden llevar a que se ocasione accidentes. Aunque Numerosas propuestas tecnológicas se han presentado para mantener monitoreado al conductor, estas han pasado por alto el estado anímico en el que este se encuentra, el cual podría generar efectos negativos en la capacidad de reacción al conducir. Objetivo- Buscar diferentes alternativas de inteligencia artificial para el análisis permanente de rostros de conductores, con el fin de encontrar un buen modelo de clasificación de expresión facial (feliz, enojo, sorpresa, neutral). Metodología- La metodología utilizada consiste en la selección de una base de datos que es preprocesada, para posteriormente entrenar diferentes modelos y realizar comparaciones de precisión entre ellos. Resultados- Se logra encontrar una precisión mayor al 80% en la detección del estado anímico del usuario. Y se logra migrar el modelo a un sistema de monitoreo portátil. Conclusiones- En este caso particular los métodos de aprendizaje de maquina tradicionales (machine learning) consumen menos tiempo a la hora de clasificar, sin embargo, estos son superados en precisión por un aprendizaje profundo.Introduction-When driving, any person is exposed to different stimuli that can lead to accidents. Although numerous technological proposals have been presented to keep the driver monitored, these have overlooked the state of mind in which they driver is, which could have negative effects on the ability to react when driving. Objective- Find different artificial intelligence alternatives for the permanent analysis of drivers' faces, in order to find a good model for classifying facial expression (happy, angry, surprise, neutral). Methodology- The methodology proposed consists in the selection of a database that is pre-processed, in orden to later train different models and make precision comparisons between them. Results- It is possible to find a precision greater than 80% in the detection of the user's mood and then the model is migrated to a portable monitoring system. Conclusions- In this particular case, traditional machine learning methods consume less processing time when classifying, however, they are exceeded in precision by deep learning.application/pdftext/htmlapplication/xmlspaUniversidad de la CostaINGE CUC - 2020http://creativecommons.org/licenses/by-nc-nd/4.0info:eu-repo/semantics/openAccessEsta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-SinDerivadas 4.0.http://purl.org/coar/access_right/c_abf2https://revistascientificas.cuc.edu.co/ingecuc/article/view/3212artificial intelligencemachine learningdeep learningcomputer visionfacial expressionsinteligencia artificialaprendizaje de máquinaaprendizaje profundovisión artificialexpresiones facialesSistema de monitoreo de conductores de vehículos a partir de análisis de expresiones facialesVehicle driver monitoring system based on facial expression analysis.Artículo de revistahttp://purl.org/coar/resource_type/c_6501http://purl.org/coar/resource_type/c_2df8fbb1Textinfo:eu-repo/semantics/articleJournal articlehttp://purl.org/redcol/resource_type/ARTinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85Inge CucA. González, F. J. Martínez, A. V. Pernía, F. A. Elías, M. Castejón, J. Ordieres & E. Vergara, Técnicas y Algoritmos Básicos de Visión Artificial. RI, Es.: U de la Rioja, 2006.F. Chollet, “Deep Learning With Python” Vol. 1, GMT, USA: Manning Publications Co, 2017.V. Torres & J. Alejandra, “Las Compañías más Grandes en Seguros Generales en Colombia: Un Análisis Comparativo en el Período 2015-2017,” Trabajo de grado, UC, Bog., Co., 2017.W. Arias & S. B. Chaves, “Analysis Of Fatalities For Crash Accidents in Colombia Between 2011-2015,” Redes de Ingenieria-Rompiendo las Barreras del Conocimiento, vol. Especial, pp. 226–239, 2017. Available: http://revistas.udistrital.edu.co/ojs/index.php/REDES/indexE. G. Fernández-Abascal & M. Chóliz, Expresión Facial de la Emoción, Mad., Esp.: UNED, 2001.A. Freitas-Magalhães, Facial Action Coding System-Manual of Scientific Codification of the Human Face. RJ. Br.: Escrytos, 2018.R. Amini, C. Lisetti & G. Ruiz , “Hapfacs 3.0: Facs-Based Facial Expression Generator for 3d Speaking Virtual Characters,”IEEE Trans Affect Comput, vol. 6, no 4, pp. 348–360, 2015. https://doi.org/10.1109/TAFFC.2015.2432794E. A. Morris & J. A. Hirsch, “Does Rush Hour See A Rush Of Emotions? Driver Mood in Conditions Likely To Exhibit Congestion,” Travel Behav Soc, vol. 5, pp. 5–13, Sep. 2016. https://doi.org/10.1016/j.tbs.2015.07.002A. Carneiro, P. Cortez & R. Costa, Reconhecimento de Gestos da Libras com Classificadores Neurais a Partir dos Momentos Invariantes de Hu, in Interaction Sudamerica/09SP. Br.: IXTA-SP, pp. 193–198, 2009. M. G. Kamachi, J. Gyoba & M. J. Lyoons, “The Japanese Female Facial Expression (Jaffe) Database, in “Proceedings of Third International Conference on Automatic Face and Gesture Recognition,” Data Set, Zenodo, pp. 14–16, 14 Abr. 1998. https://doi.org/10.5281/zenodo.3451524 C. E. Thomaz, “Fei Face Database,” Fei Face Databaseavailable, 2012. Available: https://fei.edu.br/~cet/facedatabase.html S. Li, W. Deng & J. P. Du, “Reliable Crowdsourcing And Deep Locality-Preserving Learning For Expression Recognition In The Wild,” presented at Proceedings of the Ieee Conference on Computer Vision and Pattern Recognition, CVPR, Hnl., Hi., USA, pp. 2852–2861, 21-26 Jul. 2017. https://doi.org/10.1109/CVPR.2017.277 N. Pellejero, G. L. Grinblat & U. Lucas, “Análisis Semántico en Rostros Utilizando Redes Neuronales Profundas,” presentado al XVIII Simposio Argentino de Inteligencia Artificial, ASAI-JAIIO 46, Cord., Arg., pp. 62–71, Sept. 2017. Disponible en http://sedici.unlp.edu.ar/handle/10915/65945 M. Köstinger, P. Wohlhart, P. M. Roth & H. Bischof, “Annotated Facial Landmarks In The Wild: A Large-Scale, Real-World Database for Facial Landmark Localization,” en 2011 IEEE International Conference on Computer Vision Workshops, ICCV Workshops, Bcn., Es., pp. 2144–2151, 6-13 Nov, 2011. https://doi.org/10.1109/ICCVW.2011.6130513 S. Marsland, Machine Learning: An Algorithmic Perspective, 2. Ed., CRC Press, Br. Fl. USA, 2015. https://doi.org/10.1201/b17476 K. Simonyan & A. Zisserman, “Very Deep Convolutional Networks For Large-Scale Image Recognition,” Arxiv Preprint, ICLR, Baff., Ca., pp. 1409–1556, 2014. Available: https://arxiv.org/pdf/1409.1556.pdf R. S. Jurecki, T. L. Stańczyk & M. J. Jaśkiewicz, “Driver’s Reaction Time In A Simulated, Complex Road Incident,” Transport, vol. 32, no. 1, pp. 44–54, 2017. https://doi.org/10.3846/16484142.2014.913535 B. C. C. Cerezo & E. I. Ortega, “Diseño de un prototipo de casilleros inteligentes, utilizando el carnet universitario y clave de seguridad para el control de acceso a través de una red inalámbrica, mediante la administración de página web y base de datos aplicando tecnología de bajo costo (raspberry y arduino), para beneficio de los estudiantes de la carrera de ingeniería en networking y telecomunicaciones de la Universidad de Guayaquil,” tesis grado, dpto. FCFM, UG, Gquil., Ec., 2018. Disponible en http://repositorio.ug.edu.ec/handle/redug/32565201192216https://revistascientificas.cuc.edu.co/ingecuc/article/download/3212/3003https://revistascientificas.cuc.edu.co/ingecuc/article/download/3212/3540https://revistascientificas.cuc.edu.co/ingecuc/article/download/3212/3569Núm. 2 , Año 2020 : (Julio-Diciembre)PublicationOREORE.xmltext/xml2687https://repositorio.cuc.edu.co/bitstreams/1035dd01-aa97-4e70-87be-31095fb287a2/downloadd0260fd7fb2827f6c99e6c68e86ea87cMD5111323/12296oai:repositorio.cuc.edu.co:11323/122962024-09-17 11:06:52.574http://creativecommons.org/licenses/by-nc-nd/4.0INGE CUC - 2020metadata.onlyhttps://repositorio.cuc.edu.coRepositorio de la Universidad de la Costa CUCrepdigital@cuc.edu.co