Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales
Introducción-Al conducir, la persona se encuentra expuesta a diferentes estímulos que pueden llevar a que se ocasione accidentes. Aunque Numerosas propuestas tecnológicas se han presentado para mantener monitoreado al conductor, estas han pasado por alto el estado anímico en el que este se encuentra...
- Autores:
-
Cordoba Fuzga, Juan Felipe
Vasquez Salazar, Ruben Dario
Sarmiento Maldonado, Henry Omar
- Tipo de recurso:
- Article of journal
- Fecha de publicación:
- 2020
- Institución:
- Corporación Universidad de la Costa
- Repositorio:
- REDICUC - Repositorio CUC
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.cuc.edu.co:11323/12296
- Palabra clave:
- artificial intelligence
machine learning
deep learning
computer vision
facial expressions
inteligencia artificial
aprendizaje de máquina
aprendizaje profundo
visión artificial
expresiones faciales
- Rights
- openAccess
- License
- INGE CUC - 2020
id |
RCUC2_32a004eb5bdfeffbd6161789ed850f06 |
---|---|
oai_identifier_str |
oai:repositorio.cuc.edu.co:11323/12296 |
network_acronym_str |
RCUC2 |
network_name_str |
REDICUC - Repositorio CUC |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales |
dc.title.translated.eng.fl_str_mv |
Vehicle driver monitoring system based on facial expression analysis. |
title |
Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales |
spellingShingle |
Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales artificial intelligence machine learning deep learning computer vision facial expressions inteligencia artificial aprendizaje de máquina aprendizaje profundo visión artificial expresiones faciales |
title_short |
Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales |
title_full |
Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales |
title_fullStr |
Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales |
title_full_unstemmed |
Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales |
title_sort |
Sistema de monitoreo de conductores de vehículos a partir de análisis de expresiones faciales |
dc.creator.fl_str_mv |
Cordoba Fuzga, Juan Felipe Vasquez Salazar, Ruben Dario Sarmiento Maldonado, Henry Omar |
dc.contributor.author.spa.fl_str_mv |
Cordoba Fuzga, Juan Felipe Vasquez Salazar, Ruben Dario Sarmiento Maldonado, Henry Omar |
dc.subject.eng.fl_str_mv |
artificial intelligence machine learning deep learning computer vision facial expressions |
topic |
artificial intelligence machine learning deep learning computer vision facial expressions inteligencia artificial aprendizaje de máquina aprendizaje profundo visión artificial expresiones faciales |
dc.subject.spa.fl_str_mv |
inteligencia artificial aprendizaje de máquina aprendizaje profundo visión artificial expresiones faciales |
description |
Introducción-Al conducir, la persona se encuentra expuesta a diferentes estímulos que pueden llevar a que se ocasione accidentes. Aunque Numerosas propuestas tecnológicas se han presentado para mantener monitoreado al conductor, estas han pasado por alto el estado anímico en el que este se encuentra, el cual podría generar efectos negativos en la capacidad de reacción al conducir. Objetivo- Buscar diferentes alternativas de inteligencia artificial para el análisis permanente de rostros de conductores, con el fin de encontrar un buen modelo de clasificación de expresión facial (feliz, enojo, sorpresa, neutral). Metodología- La metodología utilizada consiste en la selección de una base de datos que es preprocesada, para posteriormente entrenar diferentes modelos y realizar comparaciones de precisión entre ellos. Resultados- Se logra encontrar una precisión mayor al 80% en la detección del estado anímico del usuario. Y se logra migrar el modelo a un sistema de monitoreo portátil. Conclusiones- En este caso particular los métodos de aprendizaje de maquina tradicionales (machine learning) consumen menos tiempo a la hora de clasificar, sin embargo, estos son superados en precisión por un aprendizaje profundo. |
publishDate |
2020 |
dc.date.accessioned.none.fl_str_mv |
2020-04-30 00:00:00 2024-04-09T20:21:18Z |
dc.date.available.none.fl_str_mv |
2020-04-30 00:00:00 2024-04-09T20:21:18Z |
dc.date.issued.none.fl_str_mv |
2020-04-30 |
dc.type.spa.fl_str_mv |
Artículo de revista |
dc.type.coar.spa.fl_str_mv |
http://purl.org/coar/resource_type/c_6501 http://purl.org/coar/resource_type/c_2df8fbb1 |
dc.type.content.spa.fl_str_mv |
Text |
dc.type.driver.spa.fl_str_mv |
info:eu-repo/semantics/article |
dc.type.local.eng.fl_str_mv |
Journal article |
dc.type.redcol.spa.fl_str_mv |
http://purl.org/redcol/resource_type/ART |
dc.type.version.spa.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.coarversion.spa.fl_str_mv |
http://purl.org/coar/version/c_970fb48d4fbd8a85 |
format |
http://purl.org/coar/resource_type/c_6501 |
status_str |
publishedVersion |
dc.identifier.issn.none.fl_str_mv |
0122-6517 |
dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/11323/12296 |
dc.identifier.url.none.fl_str_mv |
https://doi.org/10.17981/ingecuc.16.2.2020.14 |
dc.identifier.doi.none.fl_str_mv |
10.17981/ingecuc.16.2.2020.14 |
dc.identifier.eissn.none.fl_str_mv |
2382-4700 |
identifier_str_mv |
0122-6517 10.17981/ingecuc.16.2.2020.14 2382-4700 |
url |
https://hdl.handle.net/11323/12296 https://doi.org/10.17981/ingecuc.16.2.2020.14 |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.ispartofjournal.spa.fl_str_mv |
Inge Cuc |
dc.relation.references.spa.fl_str_mv |
A. González, F. J. Martínez, A. V. Pernía, F. A. Elías, M. Castejón, J. Ordieres & E. Vergara, Técnicas y Algoritmos Básicos de Visión Artificial. RI, Es.: U de la Rioja, 2006. F. Chollet, “Deep Learning With Python” Vol. 1, GMT, USA: Manning Publications Co, 2017. V. Torres & J. Alejandra, “Las Compañías más Grandes en Seguros Generales en Colombia: Un Análisis Comparativo en el Período 2015-2017,” Trabajo de grado, UC, Bog., Co., 2017. W. Arias & S. B. Chaves, “Analysis Of Fatalities For Crash Accidents in Colombia Between 2011-2015,” Redes de Ingenieria-Rompiendo las Barreras del Conocimiento, vol. Especial, pp. 226–239, 2017. Available: http://revistas.udistrital.edu.co/ojs/index.php/REDES/index E. G. Fernández-Abascal & M. Chóliz, Expresión Facial de la Emoción, Mad., Esp.: UNED, 2001. A. Freitas-Magalhães, Facial Action Coding System-Manual of Scientific Codification of the Human Face. RJ. Br.: Escrytos, 2018. R. Amini, C. Lisetti & G. Ruiz , “Hapfacs 3.0: Facs-Based Facial Expression Generator for 3d Speaking Virtual Characters,”IEEE Trans Affect Comput, vol. 6, no 4, pp. 348–360, 2015. https://doi.org/10.1109/TAFFC.2015.2432794 E. A. Morris & J. A. Hirsch, “Does Rush Hour See A Rush Of Emotions? Driver Mood in Conditions Likely To Exhibit Congestion,” Travel Behav Soc, vol. 5, pp. 5–13, Sep. 2016. https://doi.org/10.1016/j.tbs.2015.07.002 A. Carneiro, P. Cortez & R. Costa, Reconhecimento de Gestos da Libras com Classificadores Neurais a Partir dos Momentos Invariantes de Hu, in Interaction Sudamerica/09SP. Br.: IXTA-SP, pp. 193–198, 2009. M. G. Kamachi, J. Gyoba & M. J. Lyoons, “The Japanese Female Facial Expression (Jaffe) Database, in “Proceedings of Third International Conference on Automatic Face and Gesture Recognition,” Data Set, Zenodo, pp. 14–16, 14 Abr. 1998. https://doi.org/10.5281/zenodo.3451524 C. E. Thomaz, “Fei Face Database,” Fei Face Databaseavailable, 2012. Available: https://fei.edu.br/~cet/facedatabase.html S. Li, W. Deng & J. P. Du, “Reliable Crowdsourcing And Deep Locality-Preserving Learning For Expression Recognition In The Wild,” presented at Proceedings of the Ieee Conference on Computer Vision and Pattern Recognition, CVPR, Hnl., Hi., USA, pp. 2852–2861, 21-26 Jul. 2017. https://doi.org/10.1109/CVPR.2017.277 N. Pellejero, G. L. Grinblat & U. Lucas, “Análisis Semántico en Rostros Utilizando Redes Neuronales Profundas,” presentado al XVIII Simposio Argentino de Inteligencia Artificial, ASAI-JAIIO 46, Cord., Arg., pp. 62–71, Sept. 2017. Disponible en http://sedici.unlp.edu.ar/handle/10915/65945 M. Köstinger, P. Wohlhart, P. M. Roth & H. Bischof, “Annotated Facial Landmarks In The Wild: A Large-Scale, Real-World Database for Facial Landmark Localization,” en 2011 IEEE International Conference on Computer Vision Workshops, ICCV Workshops, Bcn., Es., pp. 2144–2151, 6-13 Nov, 2011. https://doi.org/10.1109/ICCVW.2011.6130513 S. Marsland, Machine Learning: An Algorithmic Perspective, 2. Ed., CRC Press, Br. Fl. USA, 2015. https://doi.org/10.1201/b17476 K. Simonyan & A. Zisserman, “Very Deep Convolutional Networks For Large-Scale Image Recognition,” Arxiv Preprint, ICLR, Baff., Ca., pp. 1409–1556, 2014. Available: https://arxiv.org/pdf/1409.1556.pdf R. S. Jurecki, T. L. Stańczyk & M. J. Jaśkiewicz, “Driver’s Reaction Time In A Simulated, Complex Road Incident,” Transport, vol. 32, no. 1, pp. 44–54, 2017. https://doi.org/10.3846/16484142.2014.913535 B. C. C. Cerezo & E. I. Ortega, “Diseño de un prototipo de casilleros inteligentes, utilizando el carnet universitario y clave de seguridad para el control de acceso a través de una red inalámbrica, mediante la administración de página web y base de datos aplicando tecnología de bajo costo (raspberry y arduino), para beneficio de los estudiantes de la carrera de ingeniería en networking y telecomunicaciones de la Universidad de Guayaquil,” tesis grado, dpto. FCFM, UG, Gquil., Ec., 2018. Disponible en http://repositorio.ug.edu.ec/handle/redug/32565 |
dc.relation.citationendpage.none.fl_str_mv |
201 |
dc.relation.citationstartpage.none.fl_str_mv |
192 |
dc.relation.citationissue.spa.fl_str_mv |
2 |
dc.relation.citationvolume.spa.fl_str_mv |
16 |
dc.relation.bitstream.none.fl_str_mv |
https://revistascientificas.cuc.edu.co/ingecuc/article/download/3212/3003 https://revistascientificas.cuc.edu.co/ingecuc/article/download/3212/3540 https://revistascientificas.cuc.edu.co/ingecuc/article/download/3212/3569 |
dc.relation.citationedition.spa.fl_str_mv |
Núm. 2 , Año 2020 : (Julio-Diciembre) |
dc.rights.spa.fl_str_mv |
INGE CUC - 2020 |
dc.rights.uri.spa.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0 |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.spa.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
INGE CUC - 2020 http://creativecommons.org/licenses/by-nc-nd/4.0 http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.mimetype.spa.fl_str_mv |
application/pdf text/html application/xml |
dc.publisher.spa.fl_str_mv |
Universidad de la Costa |
dc.source.spa.fl_str_mv |
https://revistascientificas.cuc.edu.co/ingecuc/article/view/3212 |
institution |
Corporación Universidad de la Costa |
bitstream.url.fl_str_mv |
https://repositorio.cuc.edu.co/bitstreams/1035dd01-aa97-4e70-87be-31095fb287a2/download |
bitstream.checksum.fl_str_mv |
d0260fd7fb2827f6c99e6c68e86ea87c |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 |
repository.name.fl_str_mv |
Repositorio de la Universidad de la Costa CUC |
repository.mail.fl_str_mv |
repdigital@cuc.edu.co |
_version_ |
1811760779890786304 |
spelling |
Cordoba Fuzga, Juan FelipeVasquez Salazar, Ruben DarioSarmiento Maldonado, Henry Omar2020-04-30 00:00:002024-04-09T20:21:18Z2020-04-30 00:00:002024-04-09T20:21:18Z2020-04-300122-6517https://hdl.handle.net/11323/12296https://doi.org/10.17981/ingecuc.16.2.2020.1410.17981/ingecuc.16.2.2020.142382-4700Introducción-Al conducir, la persona se encuentra expuesta a diferentes estímulos que pueden llevar a que se ocasione accidentes. Aunque Numerosas propuestas tecnológicas se han presentado para mantener monitoreado al conductor, estas han pasado por alto el estado anímico en el que este se encuentra, el cual podría generar efectos negativos en la capacidad de reacción al conducir. Objetivo- Buscar diferentes alternativas de inteligencia artificial para el análisis permanente de rostros de conductores, con el fin de encontrar un buen modelo de clasificación de expresión facial (feliz, enojo, sorpresa, neutral). Metodología- La metodología utilizada consiste en la selección de una base de datos que es preprocesada, para posteriormente entrenar diferentes modelos y realizar comparaciones de precisión entre ellos. Resultados- Se logra encontrar una precisión mayor al 80% en la detección del estado anímico del usuario. Y se logra migrar el modelo a un sistema de monitoreo portátil. Conclusiones- En este caso particular los métodos de aprendizaje de maquina tradicionales (machine learning) consumen menos tiempo a la hora de clasificar, sin embargo, estos son superados en precisión por un aprendizaje profundo.Introduction-When driving, any person is exposed to different stimuli that can lead to accidents. Although numerous technological proposals have been presented to keep the driver monitored, these have overlooked the state of mind in which they driver is, which could have negative effects on the ability to react when driving. Objective- Find different artificial intelligence alternatives for the permanent analysis of drivers' faces, in order to find a good model for classifying facial expression (happy, angry, surprise, neutral). Methodology- The methodology proposed consists in the selection of a database that is pre-processed, in orden to later train different models and make precision comparisons between them. Results- It is possible to find a precision greater than 80% in the detection of the user's mood and then the model is migrated to a portable monitoring system. Conclusions- In this particular case, traditional machine learning methods consume less processing time when classifying, however, they are exceeded in precision by deep learning.application/pdftext/htmlapplication/xmlspaUniversidad de la CostaINGE CUC - 2020http://creativecommons.org/licenses/by-nc-nd/4.0info:eu-repo/semantics/openAccessEsta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-SinDerivadas 4.0.http://purl.org/coar/access_right/c_abf2https://revistascientificas.cuc.edu.co/ingecuc/article/view/3212artificial intelligencemachine learningdeep learningcomputer visionfacial expressionsinteligencia artificialaprendizaje de máquinaaprendizaje profundovisión artificialexpresiones facialesSistema de monitoreo de conductores de vehículos a partir de análisis de expresiones facialesVehicle driver monitoring system based on facial expression analysis.Artículo de revistahttp://purl.org/coar/resource_type/c_6501http://purl.org/coar/resource_type/c_2df8fbb1Textinfo:eu-repo/semantics/articleJournal articlehttp://purl.org/redcol/resource_type/ARTinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85Inge CucA. González, F. J. Martínez, A. V. Pernía, F. A. Elías, M. Castejón, J. Ordieres & E. Vergara, Técnicas y Algoritmos Básicos de Visión Artificial. RI, Es.: U de la Rioja, 2006.F. Chollet, “Deep Learning With Python” Vol. 1, GMT, USA: Manning Publications Co, 2017.V. Torres & J. Alejandra, “Las Compañías más Grandes en Seguros Generales en Colombia: Un Análisis Comparativo en el Período 2015-2017,” Trabajo de grado, UC, Bog., Co., 2017.W. Arias & S. B. Chaves, “Analysis Of Fatalities For Crash Accidents in Colombia Between 2011-2015,” Redes de Ingenieria-Rompiendo las Barreras del Conocimiento, vol. Especial, pp. 226–239, 2017. Available: http://revistas.udistrital.edu.co/ojs/index.php/REDES/indexE. G. Fernández-Abascal & M. Chóliz, Expresión Facial de la Emoción, Mad., Esp.: UNED, 2001.A. Freitas-Magalhães, Facial Action Coding System-Manual of Scientific Codification of the Human Face. RJ. Br.: Escrytos, 2018.R. Amini, C. Lisetti & G. Ruiz , “Hapfacs 3.0: Facs-Based Facial Expression Generator for 3d Speaking Virtual Characters,”IEEE Trans Affect Comput, vol. 6, no 4, pp. 348–360, 2015. https://doi.org/10.1109/TAFFC.2015.2432794E. A. Morris & J. A. Hirsch, “Does Rush Hour See A Rush Of Emotions? Driver Mood in Conditions Likely To Exhibit Congestion,” Travel Behav Soc, vol. 5, pp. 5–13, Sep. 2016. https://doi.org/10.1016/j.tbs.2015.07.002A. Carneiro, P. Cortez & R. Costa, Reconhecimento de Gestos da Libras com Classificadores Neurais a Partir dos Momentos Invariantes de Hu, in Interaction Sudamerica/09SP. Br.: IXTA-SP, pp. 193–198, 2009. M. G. Kamachi, J. Gyoba & M. J. Lyoons, “The Japanese Female Facial Expression (Jaffe) Database, in “Proceedings of Third International Conference on Automatic Face and Gesture Recognition,” Data Set, Zenodo, pp. 14–16, 14 Abr. 1998. https://doi.org/10.5281/zenodo.3451524 C. E. Thomaz, “Fei Face Database,” Fei Face Databaseavailable, 2012. Available: https://fei.edu.br/~cet/facedatabase.html S. Li, W. Deng & J. P. Du, “Reliable Crowdsourcing And Deep Locality-Preserving Learning For Expression Recognition In The Wild,” presented at Proceedings of the Ieee Conference on Computer Vision and Pattern Recognition, CVPR, Hnl., Hi., USA, pp. 2852–2861, 21-26 Jul. 2017. https://doi.org/10.1109/CVPR.2017.277 N. Pellejero, G. L. Grinblat & U. Lucas, “Análisis Semántico en Rostros Utilizando Redes Neuronales Profundas,” presentado al XVIII Simposio Argentino de Inteligencia Artificial, ASAI-JAIIO 46, Cord., Arg., pp. 62–71, Sept. 2017. Disponible en http://sedici.unlp.edu.ar/handle/10915/65945 M. Köstinger, P. Wohlhart, P. M. Roth & H. Bischof, “Annotated Facial Landmarks In The Wild: A Large-Scale, Real-World Database for Facial Landmark Localization,” en 2011 IEEE International Conference on Computer Vision Workshops, ICCV Workshops, Bcn., Es., pp. 2144–2151, 6-13 Nov, 2011. https://doi.org/10.1109/ICCVW.2011.6130513 S. Marsland, Machine Learning: An Algorithmic Perspective, 2. Ed., CRC Press, Br. Fl. USA, 2015. https://doi.org/10.1201/b17476 K. Simonyan & A. Zisserman, “Very Deep Convolutional Networks For Large-Scale Image Recognition,” Arxiv Preprint, ICLR, Baff., Ca., pp. 1409–1556, 2014. Available: https://arxiv.org/pdf/1409.1556.pdf R. S. Jurecki, T. L. Stańczyk & M. J. Jaśkiewicz, “Driver’s Reaction Time In A Simulated, Complex Road Incident,” Transport, vol. 32, no. 1, pp. 44–54, 2017. https://doi.org/10.3846/16484142.2014.913535 B. C. C. Cerezo & E. I. Ortega, “Diseño de un prototipo de casilleros inteligentes, utilizando el carnet universitario y clave de seguridad para el control de acceso a través de una red inalámbrica, mediante la administración de página web y base de datos aplicando tecnología de bajo costo (raspberry y arduino), para beneficio de los estudiantes de la carrera de ingeniería en networking y telecomunicaciones de la Universidad de Guayaquil,” tesis grado, dpto. FCFM, UG, Gquil., Ec., 2018. Disponible en http://repositorio.ug.edu.ec/handle/redug/32565201192216https://revistascientificas.cuc.edu.co/ingecuc/article/download/3212/3003https://revistascientificas.cuc.edu.co/ingecuc/article/download/3212/3540https://revistascientificas.cuc.edu.co/ingecuc/article/download/3212/3569Núm. 2 , Año 2020 : (Julio-Diciembre)PublicationOREORE.xmltext/xml2687https://repositorio.cuc.edu.co/bitstreams/1035dd01-aa97-4e70-87be-31095fb287a2/downloadd0260fd7fb2827f6c99e6c68e86ea87cMD5111323/12296oai:repositorio.cuc.edu.co:11323/122962024-09-17 11:06:52.574http://creativecommons.org/licenses/by-nc-nd/4.0INGE CUC - 2020metadata.onlyhttps://repositorio.cuc.edu.coRepositorio de la Universidad de la Costa CUCrepdigital@cuc.edu.co |