Sistema multimedia para el reconocimiento de emociones primarias experimentadas por los estudiantes de la asignatura arquitectura de sistemas multimedia

El modelo de educación virtual (o similares) adoptado por las instituciones educativas debido a la pandemia del COVID-19 ha generado diversos retos para todos los actores involucrados en el proceso de enseñanza-aprendizaje; un ejemplo de esto es la dificultad en el reconocimiento de las emociones en...

Full description

Autores:
López Peña, David
Mercado Rivera, Gabriel Andrés
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2021
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/13320
Acceso en línea:
https://hdl.handle.net/10614/13320
https://red.uao.edu.co/
Palabra clave:
Ingeniería Multimedia
Sistemas multimedia
Redes neurales (Computadores)
Multimedia systems
Neural networks (Computer science)
Emociones
Redes neuronales
Desarrollo web
Computación afectiva
Emotions
Neural networks
Web development
Affective computing
Rights
openAccess
License
Derechos reservados - Universidad Autónoma de Occidente, 2021
id REPOUAO2_09c74edbb94419afbc37e028d0b47e0b
oai_identifier_str oai:red.uao.edu.co:10614/13320
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Sistema multimedia para el reconocimiento de emociones primarias experimentadas por los estudiantes de la asignatura arquitectura de sistemas multimedia
title Sistema multimedia para el reconocimiento de emociones primarias experimentadas por los estudiantes de la asignatura arquitectura de sistemas multimedia
spellingShingle Sistema multimedia para el reconocimiento de emociones primarias experimentadas por los estudiantes de la asignatura arquitectura de sistemas multimedia
Ingeniería Multimedia
Sistemas multimedia
Redes neurales (Computadores)
Multimedia systems
Neural networks (Computer science)
Emociones
Redes neuronales
Desarrollo web
Computación afectiva
Emotions
Neural networks
Web development
Affective computing
title_short Sistema multimedia para el reconocimiento de emociones primarias experimentadas por los estudiantes de la asignatura arquitectura de sistemas multimedia
title_full Sistema multimedia para el reconocimiento de emociones primarias experimentadas por los estudiantes de la asignatura arquitectura de sistemas multimedia
title_fullStr Sistema multimedia para el reconocimiento de emociones primarias experimentadas por los estudiantes de la asignatura arquitectura de sistemas multimedia
title_full_unstemmed Sistema multimedia para el reconocimiento de emociones primarias experimentadas por los estudiantes de la asignatura arquitectura de sistemas multimedia
title_sort Sistema multimedia para el reconocimiento de emociones primarias experimentadas por los estudiantes de la asignatura arquitectura de sistemas multimedia
dc.creator.fl_str_mv López Peña, David
Mercado Rivera, Gabriel Andrés
dc.contributor.advisor.none.fl_str_mv Pradilla Cerón, Juan Vicente
dc.contributor.author.none.fl_str_mv López Peña, David
Mercado Rivera, Gabriel Andrés
dc.contributor.corporatename.spa.fl_str_mv Universidad Autónoma de Occidente
dc.subject.spa.fl_str_mv Ingeniería Multimedia
topic Ingeniería Multimedia
Sistemas multimedia
Redes neurales (Computadores)
Multimedia systems
Neural networks (Computer science)
Emociones
Redes neuronales
Desarrollo web
Computación afectiva
Emotions
Neural networks
Web development
Affective computing
dc.subject.armarc.spa.fl_str_mv Sistemas multimedia
Redes neurales (Computadores)
dc.subject.armarc.eng.fl_str_mv Multimedia systems
Neural networks (Computer science)
dc.subject.proposal.spa.fl_str_mv Emociones
Redes neuronales
Desarrollo web
Computación afectiva
dc.subject.proposal.eng.fl_str_mv Emotions
Neural networks
Web development
Affective computing
description El modelo de educación virtual (o similares) adoptado por las instituciones educativas debido a la pandemia del COVID-19 ha generado diversos retos para todos los actores involucrados en el proceso de enseñanza-aprendizaje; un ejemplo de esto es la dificultad en el reconocimiento de las emociones en los estudiantes durante el desarrollo de sesiones virtuales de clase. En este documento se presenta el proceso de desarrollo del Sistema Multimedia ClassMood, el cual fue propuesto por el docente Juan Vicente Pradilla de la Universidad Autónoma de Occidente y cuyo principal objetivo es mitigar dicha problemática. ClassMood ayuda en el proceso de reconocimiento y visualización de las 6 emociones primarias (felicidad, tristeza, miedo, enojo, disgustos y sorpresa) que pueden llegar a experimentar los estudiantes durante las sesiones de clase virtuales de Arquitectura de Sistemas Multimedia (ASM), para lo cual emplea diferentes tecnologías de procesamiento de audio y video como los son las redes neuronales artificiales (ANN). ClassMood fue desarrollado en dos componentes principales, una aplicación Web y una aplicación de escritorio, las cuales se encargan de la visualización y clasificación de las emociones respectivamente. Para el desarrollo de este proyecto se utilizó una metodología iterativa e incremental, donde en cada iteración se obtenía un producto completo teniendo en cuenta cada uno de los requerimientos obtenidos durante el proceso de diseño, para poder llevar a cabo la realización de pruebas y evaluaciones del sistema con los usuarios finales y expertos en usabilidad. Luego de analizados los resultados de las pruebas, los datos permitieron corroborar que el sistema multimedia es usable y cumple con su propósito de identificación de las emociones primarias en los estudiantes.
publishDate 2021
dc.date.accessioned.none.fl_str_mv 2021-10-07T15:00:28Z
dc.date.available.none.fl_str_mv 2021-10-07T15:00:28Z
dc.date.issued.none.fl_str_mv 2021-09-06
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_71e4c1898caa6e32
dc.type.coar.eng.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.eng.fl_str_mv Text
dc.type.driver.eng.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.eng.fl_str_mv https://purl.org/redcol/resource_type/TP
format http://purl.org/coar/resource_type/c_7a1f
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/10614/13320
dc.identifier.instname.spa.fl_str_mv Universidad Autónoma de Occidente
dc.identifier.reponame.spa.fl_str_mv Repositorio Educativo Digital
dc.identifier.repourl.spa.fl_str_mv https://red.uao.edu.co/
url https://hdl.handle.net/10614/13320
https://red.uao.edu.co/
identifier_str_mv Universidad Autónoma de Occidente
Repositorio Educativo Digital
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.none.fl_str_mv [1] F. Ceriani, R. Fogilani, y A. Kustermann, "Facial expressions," en Development of Normal Fetal Movements: The First 25 Weeks of Gestation: Springer Milan, 2010, pp. 77-86.
[2] D. Keltner y P. Ekman, "Introduction: Expression of Emotion," en Handbook of Affective Sciences, 2009, pp. 411-414.
[3] T. Goetz, O. Lüdtke, U. E. Nett, M. M. Keller, y A. A. Lipnevich, "Characteristics of teaching and students’ emotions in the classroom: Investigating differences across domains," Contemporary educational psychology, vol. 38, no. 4, pp. 383-394, 2013, doi: 10.1016/j.cedpsych.2013.08.001.
[4] M. Antonia, D. Acedo, F. Ca, J. Sanchéz, y V. Mellado, "Química educación Las emociones en el aprendizaje de física y química," Educ. química, vol. 27, pp. 217-225, 2016, doi: 10.1016/j.eq.2016.04.001.
[5] E. Cambria, "Affective computing and sentiment analysis," A practical guide to sentiment analysis, vol. 31, no. 2, pp. 102-107, 2016, doi: 10.1109/MIS.2016.31.
[6] P. Ekman, "Universal Facial Expressions of Emotion," California mental health research digest, vol. 8, no. 4, pp. 151-158, 1970. [Internet]. Disponible en: https://www.paulekman.com/wp-content/uploads/2013/07/Universal-Facial- Expressions-of-Emotions1.pdf.
[7] C. Lisetti y F. Nasoz, "Using noninvasive wearable computers to recognize human emotions from physiological signals," EURASIP Journal on Advances in Signal Processing, vol. 2004, no. 11, pp. 1-16, 2004, doi: https://doi.org/10.1155/S1110865704406192.
[8] R. Jannat, I. Tynes, J. Adorno, S. Canavan, y L. LaLime, "Ubiquitous emotion recognition using audio and video data," UbiComp/ISWC 2018 - Adjunct Proceedings of the 2018 ACM International Joint Conference on Pervasive and Ubiquitous Computing and Proceedings of the 2018 ACM International Symposium on Wearable Computers, pp. 956-959, 2018, doi: 10.1145/3267305.3267689.
[9] Z. Tariq, S. K. Shah, y Y. Lee. Speech Emotion Detection using IoT based Deep Learning for Health Care.
[10] S. D’Mello et al., "AutoTutor detects and responds to learners affective and cognitive states," en Workshop on emotional and cognitive issues at the international conference on intelligent tutoring systems, 2008, pp. 306-308. [Internet]. Disponible en: https://www.media.mit.edu/publications/autotutor-detects-and-responds-tolearners- affective-and-cognitive-states-2/.
[11] T. Mainhard, S. Oudman, L. Hornstra, R. J. Bosker, y T. Goetz, "Student emotions in class: The relative importance of teachers and their interpersonal relations with students," vol. 53, pp. 109–119, 2018, doi: 10.1016/j.learninstruc.2017.07.011.
[12] J. D. Mayer y P. Salovey, "The intelligence of emotional intelligence," vol. 17, pp. 433–442, 1993, doi: 10.1016/0160-2896(93)90010-3.
[13] R. Pressman, Ingeniería del software: Un enfoque práctico, 7 ed. McGraw Hill, 2010.
[14] I. Sommerville, Person, Ed. Software engineering, 10 ed. 2015.
[15] ISO 9241-210:2019 Ergonomics of human-system interaction — Part 210: Human-centred design for interactive systems, I. O. f. S. (ISO), 2019. [Internet]. Disponible en: https://www.iso.org/obp/ui/#iso:std:iso:9241:-210:ed-2:v1:en
[16] ISO (2021,jul,30) 'Ergonomics of human–system interaction — Part 210: Human-centred design for interactive systems', [Internet] Disponible en https://www.iso.org/obp/ui/#iso:std:iso:9241:-210:ed-2:v1:en
[17] Adobe.(2021, Jun, 30) "HUMAN COMPUTER INTERACTION." [Internet] Disponible en https://xd.adobe.com/ideas/principles/human-computer-interaction/
[18] M. Soegaard y R. F. Dam, Encyclopedia of human-computer interaction, 3 ed. The Interaction Design Foundation, p. 1.
[19] I. El Naqa y M. J. Murphy, "What is machine learning?," en machine learning in radiation oncology: Springer, 2015, pp. 3-11.
[20] I. Goodfellow, Y. Bengio, y A. Courville, Deep Learning. MIT Press, 2016, p. 800.
[21] Y. Bengio, A. Courville, y P. Vincent, "Representation learning: A review and new perspectives," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 35, no. 8, pp. 1798-1828, 2013, doi: 10.1109/TPAMI.2013.50.
[22] S. Albawi, T. A. Mohammed, y S. Al-Zawi, "Understanding of a convolutional neural network," en 2017 International Conference on Engineering and Technology (ICET), 2017: Ieee, pp. 1-6, doi: 10.1109/ICEngTechnol.2017.8308186.
[23] R. W. Picard, Affective Computting, first ed ed. (MIT Press). Cambridge, MA 1997.
[24] S. B. Daily et al., "Affective computing: historical foundations, current applications, and future trends," en Emotions and affect in human factors and human-computer interaction: Elsevier, 2017, pp. 213-231.
[25] C. E. Izard, The psychology of emotions. Springer Science & Business Media, 1991.
[26] C. Darwin, The Expression of the Emotions in Man and Animals. London: John Murray, 1872.
[27] K. R. Scherer, "Expression of emotion in voice and music," Journal of voice, vol. 9, no. 3, pp. 235-248, 1995. [Internet]. Disponible en: https://doi.org/10.1016/S0892-1997(05)80231-0.
[28] P. Ekman, W. V. Friesen, y S. S. Tomkins, "Facial affect scoring technique: A first validity study," vol. 3, no. 1, pp. 37-58, 1971. [Internet]. Disponible en: https://www.paulekman.com/wp-content/uploads/2013/07/Facial-Affect-Scoring-Technique-A-First-Validity-Study.pdf.
[29] P. Ekman, "Facial Expression," en Nonverbal behavior and communication, A. Siegman and S. Feldstein Eds. New Jersey: Lawrance Erlbaum Associates, 1977.
[30] A. Ortony y T. Turner, "What's basic about basic emotions?," vol. 97, no. 3, p. 315, 1990, doi: 10.1037/0033-295x.97.3.315.
[31] P. Salovey y J. D. Mayer, "Emotional intelligence," Imagination, cognition and personality, vol. 9, no. 3, pp. 185-211, 1990. [Internet]. Disponible en: https://doi.org/10.2190/DUGG-P24E-52WK-6CDG.
[32] D. Wechsler, The measurement and appraisal of adult intelligence. 1958.
[33] H. E. Gardner, Frames of mind: The theory of multiple intelligences. Hachette Uk, 2011.
[34] "COVID-19: cronología de la actuación de la OMS." https://www.who.int/es/news-room/detail/27-04-2020-who-timeline---covid-19. (Consultado en Jul. 4, 2021).
[35] "5 países que no han reportado casos de coronavirus." https://www.ngenespanol.com/el-mundo/5-paises-que-no-han-reportado-casos-decoronavirus/ (Consultado en Jul. 4, 2021).
[36] S. Maneiro. "¿Cómo prepararse para la reapertura? estas son las recomendaciones del IESALC para planificar la transición a la nueva normalidad." https://www.iesalc.unesco.org/2020/06/18/como-prepararse-para-la-reaperturaestas- son-las-recomendaciones-del-iesalc-para-planificar-la-transicion-hacia-lanueva- normalidad/ (Consultado en Jul. 4, 2021).
[37] L. Pérez. "Comunicado de Rectoría sobre la modalidad para el periodo 2020- 03." https://www.uao.edu.co/noticias/comunicado-de-rectoria-sobre-la-modalidadpara- el-periodo-2020-03 (Consultado en Jul. 4, 2021).
[38] "Horarios de clases presenciales para asignaturas de primer semestre," ed: Universidad Autónoma de Occidente, 2021.
[39] "ABC del retorno progresivo al Campus: Guía para el inicio de clases bajo el modelo de alternancia." ttps://drive.google.com/file/d/163kalhapOXUd1gOUvyaosyP_AyS4R9c6/view (Consultado en Jul. 1, 2021).
[40] A. L. Jones y M. A. Kessler, "Teachers’ Emotion and Identity Work During a Pandemic," frontiers in Fducation, vol. 5, 2020, Art no. 583775, doi: 10.3389/feduc.2020.583775.
[41] A. Pragholapati, "Covid-19 impact on students," p. 4, 2020. [Internet]. Disponible en: https://edarxiv.org/895ed/.
[42] J. V. Pradilla, "Formato de Programa de Curso: Arquitectura de Sistemas Multimedia," ed, 2020.
[43] M. Feidakis, T. Daradoumis, S. Caballé, y J. Conesa, "Embedding emotion awareness into e-learning environments," vol. 9, no. 7, pp. 39-46, 2014, doi: 10.3991/ijet.v9i7.3727.
[44] M. Feidakis, T. Daradoumis, S. Caballé, J. Conesa, y D. Gañán, "A Dual- Modal System that Evaluates User’s Emotions in Virtual Learning Environments and Responds Affectively," 2013. [Internet]. Disponible en: https://www.researchgate.net/publication/259866927_A_Dual- Modal_System_that_Evaluates_User's_Emotions_in_Virtual_Learning_Environme nts_and_Responds_Affectively.
[45] S. Abdolhossein, A. Sam, y H. Stephen, "Easy with eve: A functional affective tutoring system," 2006. [Internet]. Disponible en: https://www.researchgate.net/publication/228818312.
[46] H. L. Fwa, "An architectural design and evaluation of an affective tutoring system for novice programmers," vol. 15, no. 1, pp. 1-19, 2018. [Internet]. Disponible en: https://doi.org/10.1186/s41239-018-0121-2.
[47] "Classmood." https://classmood.com (Consultado en Ago. 24, 2021).
[48] H. Prendinger, H. Dohi, H. Wang, S. Mayer, y M. Ishizuka, "Empathic Embodied Interfaces: Addressing Users’ Affective State," 2014, doi: 10.1007/978-3- 540-24842-2_6.
[49] "Interacción e interfaces." Universitat Oberta de Catalunya. http://designtoolkit- test.uoc.edu/es/interaccion-e-interfaces/ (Consultado en Ago. 15, 2021).
[50] C. González, E. González, V. Muñoz, y J. Saavedra, "Integrating the Design Thinking into the UCD's methodology," 2010. [Internet]. Disponible.
[51] P. Ekman, W. V. Friesen, y S. Tomkins, "Facial affect scoring technique: A first validity study," vol. 3, no. 1, pp. 37-58, 1971. [Internet]. Disponible en: https://www.paulekman.com/wp-content/uploads/2013/07/Facial-Affect-Scoring- Technique-A-First-Validity-Study.pdf.
[52] "Challenges in Representation Learning: Facial Expression Recognition Challenge." Kaggle. https://www.kaggle.com/c/challenges-in-representationlearning- facial-expression-recognition-challenge/data (Consultado en Jun. 13, 2021).
[53] A. Konar y A. Chakraborty, Emotion recognition: A pattern analysis approach. John Wiley & Sons, 2015.
[54] R. A. Española. (2020, Nov, 09) "Necesidad."[Internet] Disponible en https://dle.rae.es/necesidad.
[55] G. Booch, J. Rumbaugh, y I. Jacobson, Lenguaje Unificado de Modelado Manual de Referencia, 2nd ed. Pearson, 2011.
[56] "Data Model Design." mongoDB. https://docs.mongodb.com/manual/core/data-model-design/#std-label-datamodeling- embedding (Consultado en Jun. 27, 2021).
[57] M. Coto, S. Mora, B. Grass, y J. Murillo-Morera, "Emotions and programming learning: systematic mapping
[58] "Material design." material design. https://material.io (Consultado en Jun. 15, 2021).
[59] J. Nielsen. "10 Usability Heuristics for User Interface Design." Nielsen Norman Group. https://www.nngroup.com/articles/ten-usability-heuristics/(Consultado en Jun. 12, 2021).
[60] M. Soegaard, "Gestalt principles of form perception," en The Glossary of Human Computer Interaction, ch. 22.
[61] P. Docter, "Inside Out," Walt Disney Studios Motion Pictures. 18 de May, de 2015 [DVD]
[62] "Dark theme." Material Design. https://material.io/design/color/darktheme.html#usage (Consultado en Jun. 12, 2021).
[63] "The color system." Material Design. https://material.io/design/color/the-colorsystem. html#color-theme-creation (Consultado en Jun. 18, 2021).
[64] "Color Tool." Material Design. https://material.io/resources/color/#!/?view.left=0&view.right=0&primary.color=FAFAFA&secondary.color=ffdf00 (Consultado en Jun. 18, 2021).
[65] V. Ayalasomayajula. "Visualizing Time Series Data: 7 Types of Temporal Visualizations." humans of data. https://humansofdata.atlan.com/2016/11/visualizing-time-series-data/ (Consultado en Jun. 18, 2021).
[66] "¿Qué es Instagram Live?" educo. https://www.educo.org/blog/que-esinstagram- live (Consultado en Jun. 14, 2021).
[67] "Keras." Keras. https://keras.io (Consultado en Jul. 4, 2021).
[68] "PyTorch." PyTorch. https://pytorch.org (Consultado en Jul. 4, 2021).
[69] "scikit-learn Machine Learning in Python." scikit learn. https://scikitlearn. org/stable/ (Consultado en Jul. 4, 2021).
[70] "2020 Developer Survey." Stack Overflow. https://insights.stackoverflow.com/survey/2020 (Consultado en Jul. 4, 2021).
[71] "Electron." Electronjs. https://www.electronjs.org (Consultado en Jul. 4, 2021).
[72] Eel. Github. Consultado en: Jul. 4, 2021. [Internet]. Disponible en: https://github.com/ChrisKnott/Eel
[73] N. Sharma. "How to do Facial Emotion Recognition Using A CNN?" Medium. https://medium.com/themlblog/how-to-do-facial-emotion-recognition-using-a-cnnb7bbae79cd8f (Consultado en Jun. 28, 2021).
[74] "Python Mini Project – Speech Emotion Recognition with librosa." DataFlair. https://data-flair.training/blogs/python-mini-project-speech-emotion-recognition/ (Consultado en Jun. 30, 2021).
[75] S. R. Livingstone y F. A. Russo, "The Ryerson Audio-Visual Database of Emotional Speech and Song (RAVDESS): A dynamic, multimodal set of facial and vocal expressions in North American English," vol. 13, no. 5, 2018. [Internet]. Disponible en: https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0196391.
[76] "crypto-js." npm. https://www.npmjs.com/package/crypto-js (Consultado en Jun. 29, 2021).
[77] "Passport." Passport.js. http://www.passportjs.org (Consultado en Jun. 29, 2021).
[78] G. v. Rossum. "PEP 8 -- Style Guide for Python Code." https://www.python.org/dev/peps/pep-0008/ (Consultado en Jun. 14, 2021).
[79] "Google JavaScript Style Guide." Google. https://google.github.io/styleguide/jsguide.html (Consultado en Jun. 14, 2021).
[80] K. Moran, "Usability Testing 101." [Internet]. Disponible en: https://www.nngroup.com/articles/usability-testing-101/
[81] J. Nielsen, Usability engineering. Morgan Kaufmann, 1994.
[82] B. Tognazzini. "First Principles of Interaction Design (Revised & Expanded)." asktog. https://asktog.com/atc/principles-of-interaction-design/ (Consultado en Jul. 2, 2021).
[83] L. Paganelli y F. Paterno, "Intelligent analysis of user interactions with web applications," en Proceedings of the 7th international conference on Intelligent user interfaces, 2002, pp. 111-118, doi: 10.1145/502716.502735.
[84] T. Granollers, MPIu+ a. Una metodología que integra la Ingeniería del Software, la Interacción Persona-Ordenador y la Accesibilidad en el contexto de equipos de desarrollo multidisciplinares. Universitat de Lleida, 2007.
[85] M. F. Lopez, C. Rusu, y R. Villarroel, "Métodos de evaluación de usabilidad para aplicaciones web transaccionales," Pontificia Universidad Católica de Valparaíso-Chile, vol. 142, 2012. [Internet]. Disponible en: http://opac.pucv.cl/pucv_txt/txt-3000/UCF3276_01.pdf.
[86] "Usability Test Plan Template." Usability.gov. https://www.usability.gov/howto- and-tools/resources/templates/usability-test-plan-template.html (Consultado en Jul. 3, 2021).
[87] P. Laubheimer, "Beyond the NPS: Measuring Perceived Usability with the SUS, NASA-TLX, and the Single Ease Question After Tasks and Usability Tests." [Internet]. Disponible en: https://www.nngroup.com/articles/measuring-perceivedusability/
dc.rights.spa.fl_str_mv Derechos reservados - Universidad Autónoma de Occidente, 2021
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.eng.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.eng.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.spa.fl_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
rights_invalid_str_mv Derechos reservados - Universidad Autónoma de Occidente, 2021
https://creativecommons.org/licenses/by-nc-nd/4.0/
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.spa.fl_str_mv 175 páginas
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.spa.fl_str_mv Universidad Autónoma de Occidente
dc.publisher.program.spa.fl_str_mv Ingeniería Multimedia
dc.publisher.department.spa.fl_str_mv Departamento de Operaciones y Sistemas
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.publisher.place.spa.fl_str_mv Cali
institution Universidad Autónoma de Occidente
bitstream.url.fl_str_mv https://red.uao.edu.co/bitstreams/d2196e86-872b-43b2-aedc-7a855efc5089/download
https://red.uao.edu.co/bitstreams/832982f0-2381-4dcb-9005-6707368baa3e/download
https://red.uao.edu.co/bitstreams/9c7b72e2-9aaf-4475-8f3a-d2d97228828b/download
https://red.uao.edu.co/bitstreams/22ceb3cd-352a-4940-88fc-3b123f5ee639/download
https://red.uao.edu.co/bitstreams/dcece5b0-bb28-42b9-a356-9f686bf9bf14/download
https://red.uao.edu.co/bitstreams/fcc8927c-4ea1-4fc9-8afa-2f84f4f94251/download
https://red.uao.edu.co/bitstreams/49e1bd74-237a-4156-b9ec-86d82dc01408/download
bitstream.checksum.fl_str_mv 20b5ba22b1117f71589c7318baa2c560
0666849123f390737feb078992ccddbf
85914aceb3a706a4656cdee6d711cd0b
6956f322eec3578de2e67b6fdd09a841
55c7f632528328801392f2ed91ed337b
4665be32336d4807c75818ca4c510581
a5a1778c541dd0fbb5526021f989f2f4
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Digital Universidad Autonoma de Occidente
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1814260115974389760
spelling Pradilla Cerón, Juan Vicentevirtual::4097-1López Peña, David42dfe49c0451a82fedd1efdc88de46e8Mercado Rivera, Gabriel Andrésa796217a4e47c3ef0f01336077a7a7c8Universidad Autónoma de Occidente2021-10-07T15:00:28Z2021-10-07T15:00:28Z2021-09-06https://hdl.handle.net/10614/13320Universidad Autónoma de OccidenteRepositorio Educativo Digitalhttps://red.uao.edu.co/El modelo de educación virtual (o similares) adoptado por las instituciones educativas debido a la pandemia del COVID-19 ha generado diversos retos para todos los actores involucrados en el proceso de enseñanza-aprendizaje; un ejemplo de esto es la dificultad en el reconocimiento de las emociones en los estudiantes durante el desarrollo de sesiones virtuales de clase. En este documento se presenta el proceso de desarrollo del Sistema Multimedia ClassMood, el cual fue propuesto por el docente Juan Vicente Pradilla de la Universidad Autónoma de Occidente y cuyo principal objetivo es mitigar dicha problemática. ClassMood ayuda en el proceso de reconocimiento y visualización de las 6 emociones primarias (felicidad, tristeza, miedo, enojo, disgustos y sorpresa) que pueden llegar a experimentar los estudiantes durante las sesiones de clase virtuales de Arquitectura de Sistemas Multimedia (ASM), para lo cual emplea diferentes tecnologías de procesamiento de audio y video como los son las redes neuronales artificiales (ANN). ClassMood fue desarrollado en dos componentes principales, una aplicación Web y una aplicación de escritorio, las cuales se encargan de la visualización y clasificación de las emociones respectivamente. Para el desarrollo de este proyecto se utilizó una metodología iterativa e incremental, donde en cada iteración se obtenía un producto completo teniendo en cuenta cada uno de los requerimientos obtenidos durante el proceso de diseño, para poder llevar a cabo la realización de pruebas y evaluaciones del sistema con los usuarios finales y expertos en usabilidad. Luego de analizados los resultados de las pruebas, los datos permitieron corroborar que el sistema multimedia es usable y cumple con su propósito de identificación de las emociones primarias en los estudiantes.The virtual education model (or similar) adopted by educational institutions due to the COVID-19 pandemic has generated several challenges for all the actors involved in the teaching-learning process; an example of this is the difficulty in the recognition of students' emotions during the virtual class sessions. This document presents the development process of the ClassMood Multimedia System, which was proposed by Professor Juan Vicente Pradilla of the Universidad Autónoma de Occidente and whose main objective is to mitigate this problem. ClassMood helps in the process of recognition and visualization of the 6 primary emotions (happiness, sadness, fear, anger, disgust, and surprise) that students may experience during the virtual class sessions of Multimedia Systems Architecture (ASM), for which it uses different audio and video processing technologies such as artificial neural networks (ANN). ClassMood was developed in two main components, a Web application and a desktop application, which are responsible for the visualization and classification of emotions respectively. For the development of this project an iterative and incremental methodology was used, wherein each iteration a complete product was obtained considering each of the identified requirements during the design process, to carry out tests and evaluations of the system with end-users and usability experts. After analyzing the results of the tests, the data corroborated that the Multimedia System is usable and fulfills its purpose of identifying the primary emotions of the studentsProyecto de grado (Ingeniero Multimedia)-- Universidad Autónoma de Occidente, 2021PregradoIngeniería(a) en Multimedia175 páginasapplication/pdfspaUniversidad Autónoma de OccidenteIngeniería MultimediaDepartamento de Operaciones y SistemasFacultad de IngenieríaCaliDerechos reservados - Universidad Autónoma de Occidente, 2021https://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2Ingeniería MultimediaSistemas multimediaRedes neurales (Computadores)Multimedia systemsNeural networks (Computer science)EmocionesRedes neuronalesDesarrollo webComputación afectivaEmotionsNeural networksWeb developmentAffective computingSistema multimedia para el reconocimiento de emociones primarias experimentadas por los estudiantes de la asignatura arquitectura de sistemas multimediaTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPhttp://purl.org/coar/version/c_71e4c1898caa6e32[1] F. Ceriani, R. Fogilani, y A. Kustermann, "Facial expressions," en Development of Normal Fetal Movements: The First 25 Weeks of Gestation: Springer Milan, 2010, pp. 77-86.[2] D. Keltner y P. Ekman, "Introduction: Expression of Emotion," en Handbook of Affective Sciences, 2009, pp. 411-414.[3] T. Goetz, O. Lüdtke, U. E. Nett, M. M. Keller, y A. A. Lipnevich, "Characteristics of teaching and students’ emotions in the classroom: Investigating differences across domains," Contemporary educational psychology, vol. 38, no. 4, pp. 383-394, 2013, doi: 10.1016/j.cedpsych.2013.08.001.[4] M. Antonia, D. Acedo, F. Ca, J. Sanchéz, y V. Mellado, "Química educación Las emociones en el aprendizaje de física y química," Educ. química, vol. 27, pp. 217-225, 2016, doi: 10.1016/j.eq.2016.04.001.[5] E. Cambria, "Affective computing and sentiment analysis," A practical guide to sentiment analysis, vol. 31, no. 2, pp. 102-107, 2016, doi: 10.1109/MIS.2016.31.[6] P. Ekman, "Universal Facial Expressions of Emotion," California mental health research digest, vol. 8, no. 4, pp. 151-158, 1970. [Internet]. Disponible en: https://www.paulekman.com/wp-content/uploads/2013/07/Universal-Facial- Expressions-of-Emotions1.pdf.[7] C. Lisetti y F. Nasoz, "Using noninvasive wearable computers to recognize human emotions from physiological signals," EURASIP Journal on Advances in Signal Processing, vol. 2004, no. 11, pp. 1-16, 2004, doi: https://doi.org/10.1155/S1110865704406192.[8] R. Jannat, I. Tynes, J. Adorno, S. Canavan, y L. LaLime, "Ubiquitous emotion recognition using audio and video data," UbiComp/ISWC 2018 - Adjunct Proceedings of the 2018 ACM International Joint Conference on Pervasive and Ubiquitous Computing and Proceedings of the 2018 ACM International Symposium on Wearable Computers, pp. 956-959, 2018, doi: 10.1145/3267305.3267689.[9] Z. Tariq, S. K. Shah, y Y. Lee. Speech Emotion Detection using IoT based Deep Learning for Health Care.[10] S. D’Mello et al., "AutoTutor detects and responds to learners affective and cognitive states," en Workshop on emotional and cognitive issues at the international conference on intelligent tutoring systems, 2008, pp. 306-308. [Internet]. Disponible en: https://www.media.mit.edu/publications/autotutor-detects-and-responds-tolearners- affective-and-cognitive-states-2/.[11] T. Mainhard, S. Oudman, L. Hornstra, R. J. Bosker, y T. Goetz, "Student emotions in class: The relative importance of teachers and their interpersonal relations with students," vol. 53, pp. 109–119, 2018, doi: 10.1016/j.learninstruc.2017.07.011.[12] J. D. Mayer y P. Salovey, "The intelligence of emotional intelligence," vol. 17, pp. 433–442, 1993, doi: 10.1016/0160-2896(93)90010-3.[13] R. Pressman, Ingeniería del software: Un enfoque práctico, 7 ed. McGraw Hill, 2010.[14] I. Sommerville, Person, Ed. Software engineering, 10 ed. 2015.[15] ISO 9241-210:2019 Ergonomics of human-system interaction — Part 210: Human-centred design for interactive systems, I. O. f. S. (ISO), 2019. [Internet]. Disponible en: https://www.iso.org/obp/ui/#iso:std:iso:9241:-210:ed-2:v1:en[16] ISO (2021,jul,30) 'Ergonomics of human–system interaction — Part 210: Human-centred design for interactive systems', [Internet] Disponible en https://www.iso.org/obp/ui/#iso:std:iso:9241:-210:ed-2:v1:en[17] Adobe.(2021, Jun, 30) "HUMAN COMPUTER INTERACTION." [Internet] Disponible en https://xd.adobe.com/ideas/principles/human-computer-interaction/[18] M. Soegaard y R. F. Dam, Encyclopedia of human-computer interaction, 3 ed. The Interaction Design Foundation, p. 1.[19] I. El Naqa y M. J. Murphy, "What is machine learning?," en machine learning in radiation oncology: Springer, 2015, pp. 3-11.[20] I. Goodfellow, Y. Bengio, y A. Courville, Deep Learning. MIT Press, 2016, p. 800.[21] Y. Bengio, A. Courville, y P. Vincent, "Representation learning: A review and new perspectives," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 35, no. 8, pp. 1798-1828, 2013, doi: 10.1109/TPAMI.2013.50.[22] S. Albawi, T. A. Mohammed, y S. Al-Zawi, "Understanding of a convolutional neural network," en 2017 International Conference on Engineering and Technology (ICET), 2017: Ieee, pp. 1-6, doi: 10.1109/ICEngTechnol.2017.8308186.[23] R. W. Picard, Affective Computting, first ed ed. (MIT Press). Cambridge, MA 1997.[24] S. B. Daily et al., "Affective computing: historical foundations, current applications, and future trends," en Emotions and affect in human factors and human-computer interaction: Elsevier, 2017, pp. 213-231.[25] C. E. Izard, The psychology of emotions. Springer Science & Business Media, 1991.[26] C. Darwin, The Expression of the Emotions in Man and Animals. London: John Murray, 1872.[27] K. R. Scherer, "Expression of emotion in voice and music," Journal of voice, vol. 9, no. 3, pp. 235-248, 1995. [Internet]. Disponible en: https://doi.org/10.1016/S0892-1997(05)80231-0.[28] P. Ekman, W. V. Friesen, y S. S. Tomkins, "Facial affect scoring technique: A first validity study," vol. 3, no. 1, pp. 37-58, 1971. [Internet]. Disponible en: https://www.paulekman.com/wp-content/uploads/2013/07/Facial-Affect-Scoring-Technique-A-First-Validity-Study.pdf.[29] P. Ekman, "Facial Expression," en Nonverbal behavior and communication, A. Siegman and S. Feldstein Eds. New Jersey: Lawrance Erlbaum Associates, 1977.[30] A. Ortony y T. Turner, "What's basic about basic emotions?," vol. 97, no. 3, p. 315, 1990, doi: 10.1037/0033-295x.97.3.315.[31] P. Salovey y J. D. Mayer, "Emotional intelligence," Imagination, cognition and personality, vol. 9, no. 3, pp. 185-211, 1990. [Internet]. Disponible en: https://doi.org/10.2190/DUGG-P24E-52WK-6CDG.[32] D. Wechsler, The measurement and appraisal of adult intelligence. 1958.[33] H. E. Gardner, Frames of mind: The theory of multiple intelligences. Hachette Uk, 2011.[34] "COVID-19: cronología de la actuación de la OMS." https://www.who.int/es/news-room/detail/27-04-2020-who-timeline---covid-19. (Consultado en Jul. 4, 2021).[35] "5 países que no han reportado casos de coronavirus." https://www.ngenespanol.com/el-mundo/5-paises-que-no-han-reportado-casos-decoronavirus/ (Consultado en Jul. 4, 2021).[36] S. Maneiro. "¿Cómo prepararse para la reapertura? estas son las recomendaciones del IESALC para planificar la transición a la nueva normalidad." https://www.iesalc.unesco.org/2020/06/18/como-prepararse-para-la-reaperturaestas- son-las-recomendaciones-del-iesalc-para-planificar-la-transicion-hacia-lanueva- normalidad/ (Consultado en Jul. 4, 2021).[37] L. Pérez. "Comunicado de Rectoría sobre la modalidad para el periodo 2020- 03." https://www.uao.edu.co/noticias/comunicado-de-rectoria-sobre-la-modalidadpara- el-periodo-2020-03 (Consultado en Jul. 4, 2021).[38] "Horarios de clases presenciales para asignaturas de primer semestre," ed: Universidad Autónoma de Occidente, 2021.[39] "ABC del retorno progresivo al Campus: Guía para el inicio de clases bajo el modelo de alternancia." ttps://drive.google.com/file/d/163kalhapOXUd1gOUvyaosyP_AyS4R9c6/view (Consultado en Jul. 1, 2021).[40] A. L. Jones y M. A. Kessler, "Teachers’ Emotion and Identity Work During a Pandemic," frontiers in Fducation, vol. 5, 2020, Art no. 583775, doi: 10.3389/feduc.2020.583775.[41] A. Pragholapati, "Covid-19 impact on students," p. 4, 2020. [Internet]. Disponible en: https://edarxiv.org/895ed/.[42] J. V. Pradilla, "Formato de Programa de Curso: Arquitectura de Sistemas Multimedia," ed, 2020.[43] M. Feidakis, T. Daradoumis, S. Caballé, y J. Conesa, "Embedding emotion awareness into e-learning environments," vol. 9, no. 7, pp. 39-46, 2014, doi: 10.3991/ijet.v9i7.3727.[44] M. Feidakis, T. Daradoumis, S. Caballé, J. Conesa, y D. Gañán, "A Dual- Modal System that Evaluates User’s Emotions in Virtual Learning Environments and Responds Affectively," 2013. [Internet]. Disponible en: https://www.researchgate.net/publication/259866927_A_Dual- Modal_System_that_Evaluates_User's_Emotions_in_Virtual_Learning_Environme nts_and_Responds_Affectively.[45] S. Abdolhossein, A. Sam, y H. Stephen, "Easy with eve: A functional affective tutoring system," 2006. [Internet]. Disponible en: https://www.researchgate.net/publication/228818312.[46] H. L. Fwa, "An architectural design and evaluation of an affective tutoring system for novice programmers," vol. 15, no. 1, pp. 1-19, 2018. [Internet]. Disponible en: https://doi.org/10.1186/s41239-018-0121-2.[47] "Classmood." https://classmood.com (Consultado en Ago. 24, 2021).[48] H. Prendinger, H. Dohi, H. Wang, S. Mayer, y M. Ishizuka, "Empathic Embodied Interfaces: Addressing Users’ Affective State," 2014, doi: 10.1007/978-3- 540-24842-2_6.[49] "Interacción e interfaces." Universitat Oberta de Catalunya. http://designtoolkit- test.uoc.edu/es/interaccion-e-interfaces/ (Consultado en Ago. 15, 2021).[50] C. González, E. González, V. Muñoz, y J. Saavedra, "Integrating the Design Thinking into the UCD's methodology," 2010. [Internet]. Disponible.[51] P. Ekman, W. V. Friesen, y S. Tomkins, "Facial affect scoring technique: A first validity study," vol. 3, no. 1, pp. 37-58, 1971. [Internet]. Disponible en: https://www.paulekman.com/wp-content/uploads/2013/07/Facial-Affect-Scoring- Technique-A-First-Validity-Study.pdf.[52] "Challenges in Representation Learning: Facial Expression Recognition Challenge." Kaggle. https://www.kaggle.com/c/challenges-in-representationlearning- facial-expression-recognition-challenge/data (Consultado en Jun. 13, 2021).[53] A. Konar y A. Chakraborty, Emotion recognition: A pattern analysis approach. John Wiley & Sons, 2015.[54] R. A. Española. (2020, Nov, 09) "Necesidad."[Internet] Disponible en https://dle.rae.es/necesidad.[55] G. Booch, J. Rumbaugh, y I. Jacobson, Lenguaje Unificado de Modelado Manual de Referencia, 2nd ed. Pearson, 2011.[56] "Data Model Design." mongoDB. https://docs.mongodb.com/manual/core/data-model-design/#std-label-datamodeling- embedding (Consultado en Jun. 27, 2021).[57] M. Coto, S. Mora, B. Grass, y J. Murillo-Morera, "Emotions and programming learning: systematic mapping[58] "Material design." material design. https://material.io (Consultado en Jun. 15, 2021).[59] J. Nielsen. "10 Usability Heuristics for User Interface Design." Nielsen Norman Group. https://www.nngroup.com/articles/ten-usability-heuristics/(Consultado en Jun. 12, 2021).[60] M. Soegaard, "Gestalt principles of form perception," en The Glossary of Human Computer Interaction, ch. 22.[61] P. Docter, "Inside Out," Walt Disney Studios Motion Pictures. 18 de May, de 2015 [DVD][62] "Dark theme." Material Design. https://material.io/design/color/darktheme.html#usage (Consultado en Jun. 12, 2021).[63] "The color system." Material Design. https://material.io/design/color/the-colorsystem. html#color-theme-creation (Consultado en Jun. 18, 2021).[64] "Color Tool." Material Design. https://material.io/resources/color/#!/?view.left=0&view.right=0&primary.color=FAFAFA&secondary.color=ffdf00 (Consultado en Jun. 18, 2021).[65] V. Ayalasomayajula. "Visualizing Time Series Data: 7 Types of Temporal Visualizations." humans of data. https://humansofdata.atlan.com/2016/11/visualizing-time-series-data/ (Consultado en Jun. 18, 2021).[66] "¿Qué es Instagram Live?" educo. https://www.educo.org/blog/que-esinstagram- live (Consultado en Jun. 14, 2021).[67] "Keras." Keras. https://keras.io (Consultado en Jul. 4, 2021).[68] "PyTorch." PyTorch. https://pytorch.org (Consultado en Jul. 4, 2021).[69] "scikit-learn Machine Learning in Python." scikit learn. https://scikitlearn. org/stable/ (Consultado en Jul. 4, 2021).[70] "2020 Developer Survey." Stack Overflow. https://insights.stackoverflow.com/survey/2020 (Consultado en Jul. 4, 2021).[71] "Electron." Electronjs. https://www.electronjs.org (Consultado en Jul. 4, 2021).[72] Eel. Github. Consultado en: Jul. 4, 2021. [Internet]. Disponible en: https://github.com/ChrisKnott/Eel[73] N. Sharma. "How to do Facial Emotion Recognition Using A CNN?" Medium. https://medium.com/themlblog/how-to-do-facial-emotion-recognition-using-a-cnnb7bbae79cd8f (Consultado en Jun. 28, 2021).[74] "Python Mini Project – Speech Emotion Recognition with librosa." DataFlair. https://data-flair.training/blogs/python-mini-project-speech-emotion-recognition/ (Consultado en Jun. 30, 2021).[75] S. R. Livingstone y F. A. Russo, "The Ryerson Audio-Visual Database of Emotional Speech and Song (RAVDESS): A dynamic, multimodal set of facial and vocal expressions in North American English," vol. 13, no. 5, 2018. [Internet]. Disponible en: https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0196391.[76] "crypto-js." npm. https://www.npmjs.com/package/crypto-js (Consultado en Jun. 29, 2021).[77] "Passport." Passport.js. http://www.passportjs.org (Consultado en Jun. 29, 2021).[78] G. v. Rossum. "PEP 8 -- Style Guide for Python Code." https://www.python.org/dev/peps/pep-0008/ (Consultado en Jun. 14, 2021).[79] "Google JavaScript Style Guide." Google. https://google.github.io/styleguide/jsguide.html (Consultado en Jun. 14, 2021).[80] K. Moran, "Usability Testing 101." [Internet]. Disponible en: https://www.nngroup.com/articles/usability-testing-101/[81] J. Nielsen, Usability engineering. Morgan Kaufmann, 1994.[82] B. Tognazzini. "First Principles of Interaction Design (Revised & Expanded)." asktog. https://asktog.com/atc/principles-of-interaction-design/ (Consultado en Jul. 2, 2021).[83] L. Paganelli y F. Paterno, "Intelligent analysis of user interactions with web applications," en Proceedings of the 7th international conference on Intelligent user interfaces, 2002, pp. 111-118, doi: 10.1145/502716.502735.[84] T. Granollers, MPIu+ a. Una metodología que integra la Ingeniería del Software, la Interacción Persona-Ordenador y la Accesibilidad en el contexto de equipos de desarrollo multidisciplinares. Universitat de Lleida, 2007.[85] M. F. Lopez, C. Rusu, y R. Villarroel, "Métodos de evaluación de usabilidad para aplicaciones web transaccionales," Pontificia Universidad Católica de Valparaíso-Chile, vol. 142, 2012. [Internet]. Disponible en: http://opac.pucv.cl/pucv_txt/txt-3000/UCF3276_01.pdf.[86] "Usability Test Plan Template." Usability.gov. https://www.usability.gov/howto- and-tools/resources/templates/usability-test-plan-template.html (Consultado en Jul. 3, 2021).[87] P. Laubheimer, "Beyond the NPS: Measuring Perceived Usability with the SUS, NASA-TLX, and the Single Ease Question After Tasks and Usability Tests." [Internet]. Disponible en: https://www.nngroup.com/articles/measuring-perceivedusability/GeneralPublicationhttps://scholar.google.com/citations?user=Qmhr8h0AAAAJ&hl=es&authuser=1virtual::4097-10000-0003-1644-1831virtual::4097-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001304810virtual::4097-1dfca474e-e5aa-4913-8b6a-91fd2ac9672avirtual::4097-1dfca474e-e5aa-4913-8b6a-91fd2ac9672avirtual::4097-1LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://red.uao.edu.co/bitstreams/d2196e86-872b-43b2-aedc-7a855efc5089/download20b5ba22b1117f71589c7318baa2c560MD52ORIGINALT09956_Sistema multimedia para el reconocimiento de emociones primarias experimentadas por los estudiantes de la asignatura Arquitectura de Sistemas Multimedia.pdfT09956_Sistema multimedia para el reconocimiento de emociones primarias experimentadas por los estudiantes de la asignatura Arquitectura de Sistemas Multimedia.pdfTexto archivo completo del trabajo de grado, PDFapplication/pdf1938042https://red.uao.edu.co/bitstreams/832982f0-2381-4dcb-9005-6707368baa3e/download0666849123f390737feb078992ccddbfMD53TA9956_Autorización trabajo de grado.pdfTA9956_Autorización trabajo de grado.pdfAutorización publicación del trabajo de gradoapplication/pdf250931https://red.uao.edu.co/bitstreams/9c7b72e2-9aaf-4475-8f3a-d2d97228828b/download85914aceb3a706a4656cdee6d711cd0bMD54TEXTT09956_Sistema multimedia para el reconocimiento de emociones primarias experimentadas por los estudiantes de la asignatura Arquitectura de Sistemas Multimedia.pdf.txtT09956_Sistema multimedia para el reconocimiento de emociones primarias experimentadas por los estudiantes de la asignatura Arquitectura de Sistemas Multimedia.pdf.txtExtracted texttext/plain216570https://red.uao.edu.co/bitstreams/22ceb3cd-352a-4940-88fc-3b123f5ee639/download6956f322eec3578de2e67b6fdd09a841MD55TA9956_Autorización trabajo de grado.pdf.txtTA9956_Autorización trabajo de grado.pdf.txtExtracted texttext/plain4080https://red.uao.edu.co/bitstreams/dcece5b0-bb28-42b9-a356-9f686bf9bf14/download55c7f632528328801392f2ed91ed337bMD57THUMBNAILT09956_Sistema multimedia para el reconocimiento de emociones primarias experimentadas por los estudiantes de la asignatura Arquitectura de Sistemas Multimedia.pdf.jpgT09956_Sistema multimedia para el reconocimiento de emociones primarias experimentadas por los estudiantes de la asignatura Arquitectura de Sistemas Multimedia.pdf.jpgGenerated Thumbnailimage/jpeg6323https://red.uao.edu.co/bitstreams/fcc8927c-4ea1-4fc9-8afa-2f84f4f94251/download4665be32336d4807c75818ca4c510581MD56TA9956_Autorización trabajo de grado.pdf.jpgTA9956_Autorización trabajo de grado.pdf.jpgGenerated Thumbnailimage/jpeg13461https://red.uao.edu.co/bitstreams/49e1bd74-237a-4156-b9ec-86d82dc01408/downloada5a1778c541dd0fbb5526021f989f2f4MD5810614/13320oai:red.uao.edu.co:10614/133202024-03-22 10:21:13.078https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos reservados - Universidad Autónoma de Occidente, 2021open.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K