Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper

Los enlaces que llevan a repositorios están publicados en plataformas de código abierto para la comunidad.

Autores:
Padilla Torres, Juan Esteban
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2023
Institución:
Universidad de los Andes
Repositorio:
Séneca: repositorio Uniandes
Idioma:
spa
OAI Identifier:
oai:repositorio.uniandes.edu.co:1992/68683
Acceso en línea:
http://hdl.handle.net/1992/68683
Palabra clave:
Affective computing
Aprendizaje de máquina multimodal
Detección de emociones
Interacción humano-robot
Robot Pepper
Ingeniería
Rights
openAccess
License
Atribución-NoComercial 4.0 Internacional
id UNIANDES2_39bfae63471b0a7368c47da6764c025c
oai_identifier_str oai:repositorio.uniandes.edu.co:1992/68683
network_acronym_str UNIANDES2
network_name_str Séneca: repositorio Uniandes
repository_id_str
dc.title.none.fl_str_mv Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper
title Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper
spellingShingle Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper
Affective computing
Aprendizaje de máquina multimodal
Detección de emociones
Interacción humano-robot
Robot Pepper
Ingeniería
title_short Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper
title_full Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper
title_fullStr Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper
title_full_unstemmed Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper
title_sort Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper
dc.creator.fl_str_mv Padilla Torres, Juan Esteban
dc.contributor.advisor.none.fl_str_mv García Cárdenas, Juan José
Segura Quijano, Fredy Enrique
dc.contributor.author.none.fl_str_mv Padilla Torres, Juan Esteban
dc.contributor.jury.none.fl_str_mv Sotelo Briceño, Diana Camila
dc.subject.keyword.none.fl_str_mv Affective computing
Aprendizaje de máquina multimodal
Detección de emociones
Interacción humano-robot
Robot Pepper
topic Affective computing
Aprendizaje de máquina multimodal
Detección de emociones
Interacción humano-robot
Robot Pepper
Ingeniería
dc.subject.themes.es_CO.fl_str_mv Ingeniería
description Los enlaces que llevan a repositorios están publicados en plataformas de código abierto para la comunidad.
publishDate 2023
dc.date.accessioned.none.fl_str_mv 2023-07-24T21:46:30Z
dc.date.available.none.fl_str_mv 2023-07-24T21:46:30Z
dc.date.issued.none.fl_str_mv 2023-06
dc.type.es_CO.fl_str_mv Trabajo de grado - Pregrado
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.es_CO.fl_str_mv Text
dc.type.redcol.none.fl_str_mv http://purl.org/redcol/resource_type/TP
format http://purl.org/coar/resource_type/c_7a1f
status_str acceptedVersion
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/1992/68683
dc.identifier.instname.es_CO.fl_str_mv instname:Universidad de los Andes
dc.identifier.reponame.es_CO.fl_str_mv reponame:Repositorio Institucional Séneca
dc.identifier.repourl.es_CO.fl_str_mv repourl:https://repositorio.uniandes.edu.co/
url http://hdl.handle.net/1992/68683
identifier_str_mv instname:Universidad de los Andes
reponame:Repositorio Institucional Séneca
repourl:https://repositorio.uniandes.edu.co/
dc.language.iso.es_CO.fl_str_mv spa
language spa
dc.relation.references.es_CO.fl_str_mv A. Bagher Zadeh, P. P. Liang, S. Poria, E. Cambria y L.-P. Morency, "Multimodal Language Analysis in the Wild: CMU-MOSEI Dataset and Interpretable Dynamic Fusion Graph," en Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), Melbourne, Australia: Association for Computational Linguistics, jul. de 2018, pags. 2236-2246. DOI: 10.18653/v1/P18-1208. [Internet]. Disponible en: https://aclanthology.org/P18-1208.
T. Baltrusaitis, C. Ahuja y L. Morency, "Multimodal Machine Learning: A Survey and Taxonomy," CoRR, vol. abs/1705.09406, 2017. arXiv: 1705.09406. [Internet]. Disponible en: http://arxiv.org/abs/1705.09406.
K. Cho, B. van Merrienboer, C. Gulcehre et al., "Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation," jun. de 2014. [Internet]. Disponible en: http://arxiv.org/abs/1406.1078.
A. Christy, S. Vaithyasubramanian, A. Jesudoss y M. D. Praveena, "Multimodal speech emotion recognition and classification using convolutional neural network techniques," International Journal of Speech Technology, vol. 23, pags. 381-388, 2 jun. de 2020, ISSN: 15728110. DOI: 10.1007/s10772-020-09713-y.
T. Debnath, M. M. Reza, A. Rahman, A. Beheshti, S. S. Band y H. Alinejad-Rokny, "Four-layer ConvNet to facial emotion recognition with minimal epochs and the significance of data diversity," 2022. DOI: 10.1038/s41598-022-11173-0. [Internet]. Disponible en: www.nature.com/scientificreports/.
P. Ekman, Handbook of cognition and emotion, T. Dalgleish y M. J. Power, eds. 1999, cap. 3, pag. 843, ISBN: 0471978361. [Internet]. Disponible en: https://onlinelibrary.wiley.com/doi/10.1002/0470013494.ch3.
A. Gandhi, K. Adhvaryu, S. Poria, E. Cambria y A. Hussain, "Multimodal sentiment analysis: A systematic review of history, datasets, multimodal fusion methods, applications, challenges and future directions," Information Fusion, vol. 91, pags. 424-444, mar. de 2023, ISSN: 1566-2535. DOI: 10.1016/J.INFFUS.2022.09.025.
W. Graterol, J. Diaz-Amado, Y. Cardinale, I. Dongo, E. Lopes-Silva y C. Santos-Libarino, "Emotion Detection for Social Robots Based on NLP Transformers and an Emotion Ontology," Sensors, vol. 21, n.° 4, 2021, ISSN: 1424-8220. DOI: 10.3390/s21041322. [Internet]. Disponible en: https://www.mdpi.com/1424-8220/21/4/1322.
K. Kim y S. Park, "AOBERT: All-modalities-in-One BERT for multimodal sentiment analysis," Information Fusion, vol. 92, pags. 37-45, abr. de 2023, ISSN: 15662535. DOI: 10.1016/j.inffus.2022.11.022.
R. F. Livingstone SR, "The Ryerson Audio-Visual Database of Emotional Speech and Song (RAVDESS): A dynamic, multimodal set of facial and vocal expressions in North American English," PLoS ONE 13(5), 2018. DOI: 10.1371/journal.pone.0196391.
G. Meena, K. K. Mohbey, A. Indian y S. Kumar, "Sentiment Analysis from Images using VGG19 based Transfer Learning Approach," Procedia Computer Science, vol. 204, pags. 411-418, 2022, ISSN: 18770509. DOI: 10.1016/j.procs.2022.08.050.
Z. Yao, Z. Wang, W. Liu, Y. Liu y J. Pan, "Speech emotion recognition using fusion of three multitask learning-based classifiers: HSF-DNN, MS-CNN and LLD-RNN," Speech Communication, vol. 120, pags. 11-19, jun. de 2020, ISSN: 01676393. DOI: 10.1016/j.specom.2020.03.005.
A. Zadeh, P. P. Liang, N. Mazumder, S. Poria, E. Cambria y L.-P. Morency, "Memory Fusion Network for Multi-view Sequential Learning," feb. de 2018. [Internet]. Disponible en: http://arxiv.org/abs/1802.00927.
dc.rights.license.spa.fl_str_mv Atribución-NoComercial 4.0 Internacional
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc/4.0/
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.coar.spa.fl_str_mv http://purl.org/coar/access_right/c_abf2
rights_invalid_str_mv Atribución-NoComercial 4.0 Internacional
http://creativecommons.org/licenses/by-nc/4.0/
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.es_CO.fl_str_mv 6 páginas
dc.format.mimetype.es_CO.fl_str_mv application/pdf
dc.publisher.es_CO.fl_str_mv Universidad de los Andes
dc.publisher.program.es_CO.fl_str_mv Ingeniería Electrónica
dc.publisher.faculty.es_CO.fl_str_mv Facultad de Ingeniería
dc.publisher.department.es_CO.fl_str_mv Departamento de Ingeniería Eléctrica y Electrónica
institution Universidad de los Andes
bitstream.url.fl_str_mv https://repositorio.uniandes.edu.co/bitstreams/c097506c-98df-4447-8a64-41dd2b3d8926/download
https://repositorio.uniandes.edu.co/bitstreams/1893bd5c-ca55-46c8-96bd-c750215f8804/download
https://repositorio.uniandes.edu.co/bitstreams/74acbdee-f494-459f-8a82-9239edf91e4e/download
https://repositorio.uniandes.edu.co/bitstreams/689e72d4-f1c2-4a49-b2c2-914400fe812c/download
https://repositorio.uniandes.edu.co/bitstreams/8e136ce7-1b24-452e-a06f-cadec849c592/download
https://repositorio.uniandes.edu.co/bitstreams/c2f6bbf4-dc81-4f1c-b515-d45a79c2bebf/download
https://repositorio.uniandes.edu.co/bitstreams/56344c3b-119d-4413-8ac2-acd279c93d37/download
https://repositorio.uniandes.edu.co/bitstreams/5f7ecf00-2806-4dea-8f34-aa1111467a9c/download
bitstream.checksum.fl_str_mv 24013099e9e6abb1575dc6ce0855efd5
bb63e7fc6f4cb3cafd47f3024c517a9f
08b106dfeb12472e88207a069e15ba30
f7cfa39283fbc5e112a4061f77c8df1f
7506dd9be416fe161dba8b9fd5e5d179
51342cd10cb3594e8018b987dcf089ee
358beacc90e2e45cf4204632adad8eac
5aa5c691a1ffe97abd12c2966efcb8d6
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio institucional Séneca
repository.mail.fl_str_mv adminrepositorio@uniandes.edu.co
_version_ 1812134033436442624
spelling Atribución-NoComercial 4.0 Internacionalhttp://creativecommons.org/licenses/by-nc/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2García Cárdenas, Juan Joséd40d3a64-3578-470f-bc3f-de9576534b5d600Segura Quijano, Fredy Enriquebce73583-d8ba-4926-b851-58728193ee7f600Padilla Torres, Juan EstebanSotelo Briceño, Diana Camila2023-07-24T21:46:30Z2023-07-24T21:46:30Z2023-06http://hdl.handle.net/1992/68683instname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/Los enlaces que llevan a repositorios están publicados en plataformas de código abierto para la comunidad.En la actualidad es muy importante para las organizaciones mantener un servicio al cliente de primer nivel. Para esto, es necesario desarrollar sistemas automatizados que detecten las emociones de las personas al responder al acercamiento de un producto o servicio. Después de todo, las decisiones que tomamos son, de manera innata, producto de nuestras emociones; es por esto que, es importante desarrollar un ambiente agradable a la hora de atraer a un cliente, ya sea por la estética del producto, el olor, o la estimulación de otros sentidos. En este reporte se presenta el desarrollo e implementación de una aplicación para el robot Pepper que pueda identificar y extraer del contexto de una conversación las emociones de su interlocutor para ajustar sus respuestas en la siguiente interacción. El espectro de emociones para la clasificación contiene: ira, disgusto, miedo, felicidad, tristeza, sorpresa y neutral. Para el sistema se implementa una rutina de detección de emociones multimodal que extrae las características para la clasificación a partir del vídeo, audio y texto obtenidas mediante una interacción humano-robot.Ingeniero ElectrónicoPregradoAprendizaje de máquina multimodalInteligencia artificial6 páginasapplication/pdfspaUniversidad de los AndesIngeniería ElectrónicaFacultad de IngenieríaDepartamento de Ingeniería Eléctrica y ElectrónicaDetección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de PepperTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1fTexthttp://purl.org/redcol/resource_type/TPAffective computingAprendizaje de máquina multimodalDetección de emocionesInteracción humano-robotRobot PepperIngenieríaA. Bagher Zadeh, P. P. Liang, S. Poria, E. Cambria y L.-P. Morency, "Multimodal Language Analysis in the Wild: CMU-MOSEI Dataset and Interpretable Dynamic Fusion Graph," en Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), Melbourne, Australia: Association for Computational Linguistics, jul. de 2018, pags. 2236-2246. DOI: 10.18653/v1/P18-1208. [Internet]. Disponible en: https://aclanthology.org/P18-1208.T. Baltrusaitis, C. Ahuja y L. Morency, "Multimodal Machine Learning: A Survey and Taxonomy," CoRR, vol. abs/1705.09406, 2017. arXiv: 1705.09406. [Internet]. Disponible en: http://arxiv.org/abs/1705.09406.K. Cho, B. van Merrienboer, C. Gulcehre et al., "Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation," jun. de 2014. [Internet]. Disponible en: http://arxiv.org/abs/1406.1078.A. Christy, S. Vaithyasubramanian, A. Jesudoss y M. D. Praveena, "Multimodal speech emotion recognition and classification using convolutional neural network techniques," International Journal of Speech Technology, vol. 23, pags. 381-388, 2 jun. de 2020, ISSN: 15728110. DOI: 10.1007/s10772-020-09713-y.T. Debnath, M. M. Reza, A. Rahman, A. Beheshti, S. S. Band y H. Alinejad-Rokny, "Four-layer ConvNet to facial emotion recognition with minimal epochs and the significance of data diversity," 2022. DOI: 10.1038/s41598-022-11173-0. [Internet]. Disponible en: www.nature.com/scientificreports/.P. Ekman, Handbook of cognition and emotion, T. Dalgleish y M. J. Power, eds. 1999, cap. 3, pag. 843, ISBN: 0471978361. [Internet]. Disponible en: https://onlinelibrary.wiley.com/doi/10.1002/0470013494.ch3.A. Gandhi, K. Adhvaryu, S. Poria, E. Cambria y A. Hussain, "Multimodal sentiment analysis: A systematic review of history, datasets, multimodal fusion methods, applications, challenges and future directions," Information Fusion, vol. 91, pags. 424-444, mar. de 2023, ISSN: 1566-2535. DOI: 10.1016/J.INFFUS.2022.09.025.W. Graterol, J. Diaz-Amado, Y. Cardinale, I. Dongo, E. Lopes-Silva y C. Santos-Libarino, "Emotion Detection for Social Robots Based on NLP Transformers and an Emotion Ontology," Sensors, vol. 21, n.° 4, 2021, ISSN: 1424-8220. DOI: 10.3390/s21041322. [Internet]. Disponible en: https://www.mdpi.com/1424-8220/21/4/1322.K. Kim y S. Park, "AOBERT: All-modalities-in-One BERT for multimodal sentiment analysis," Information Fusion, vol. 92, pags. 37-45, abr. de 2023, ISSN: 15662535. DOI: 10.1016/j.inffus.2022.11.022.R. F. Livingstone SR, "The Ryerson Audio-Visual Database of Emotional Speech and Song (RAVDESS): A dynamic, multimodal set of facial and vocal expressions in North American English," PLoS ONE 13(5), 2018. DOI: 10.1371/journal.pone.0196391.G. Meena, K. K. Mohbey, A. Indian y S. Kumar, "Sentiment Analysis from Images using VGG19 based Transfer Learning Approach," Procedia Computer Science, vol. 204, pags. 411-418, 2022, ISSN: 18770509. DOI: 10.1016/j.procs.2022.08.050.Z. Yao, Z. Wang, W. Liu, Y. Liu y J. Pan, "Speech emotion recognition using fusion of three multitask learning-based classifiers: HSF-DNN, MS-CNN and LLD-RNN," Speech Communication, vol. 120, pags. 11-19, jun. de 2020, ISSN: 01676393. DOI: 10.1016/j.specom.2020.03.005.A. Zadeh, P. P. Liang, N. Mazumder, S. Poria, E. Cambria y L.-P. Morency, "Memory Fusion Network for Multi-view Sequential Learning," feb. de 2018. [Internet]. Disponible en: http://arxiv.org/abs/1802.00927.201922825PublicationCC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8914https://repositorio.uniandes.edu.co/bitstreams/c097506c-98df-4447-8a64-41dd2b3d8926/download24013099e9e6abb1575dc6ce0855efd5MD52TEXTDocumentoFinalPGJuanPadilla.pdf.txtDocumentoFinalPGJuanPadilla.pdf.txtExtracted texttext/plain23201https://repositorio.uniandes.edu.co/bitstreams/1893bd5c-ca55-46c8-96bd-c750215f8804/downloadbb63e7fc6f4cb3cafd47f3024c517a9fMD55autorizacion tesis.pdf.txtautorizacion tesis.pdf.txtExtracted texttext/plain1161https://repositorio.uniandes.edu.co/bitstreams/74acbdee-f494-459f-8a82-9239edf91e4e/download08b106dfeb12472e88207a069e15ba30MD57ORIGINALDocumentoFinalPGJuanPadilla.pdfDocumentoFinalPGJuanPadilla.pdfProyecto de gradoapplication/pdf1735857https://repositorio.uniandes.edu.co/bitstreams/689e72d4-f1c2-4a49-b2c2-914400fe812c/downloadf7cfa39283fbc5e112a4061f77c8df1fMD53autorizacion tesis.pdfautorizacion tesis.pdfHIDEapplication/pdf293910https://repositorio.uniandes.edu.co/bitstreams/8e136ce7-1b24-452e-a06f-cadec849c592/download7506dd9be416fe161dba8b9fd5e5d179MD54THUMBNAILDocumentoFinalPGJuanPadilla.pdf.jpgDocumentoFinalPGJuanPadilla.pdf.jpgIM Thumbnailimage/jpeg28373https://repositorio.uniandes.edu.co/bitstreams/c2f6bbf4-dc81-4f1c-b515-d45a79c2bebf/download51342cd10cb3594e8018b987dcf089eeMD56autorizacion tesis.pdf.jpgautorizacion tesis.pdf.jpgIM Thumbnailimage/jpeg16685https://repositorio.uniandes.edu.co/bitstreams/56344c3b-119d-4413-8ac2-acd279c93d37/download358beacc90e2e45cf4204632adad8eacMD58LICENSElicense.txtlicense.txttext/plain; charset=utf-81810https://repositorio.uniandes.edu.co/bitstreams/5f7ecf00-2806-4dea-8f34-aa1111467a9c/download5aa5c691a1ffe97abd12c2966efcb8d6MD511992/68683oai:repositorio.uniandes.edu.co:1992/686832024-04-18 10:38:36.174http://creativecommons.org/licenses/by-nc/4.0/open.accesshttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.coWW8sIGVuIG1pIGNhbGlkYWQgZGUgYXV0b3IgZGVsIHRyYWJham8gZGUgdGVzaXMsIG1vbm9ncmFmw61hIG8gdHJhYmFqbyBkZSBncmFkbywgaGFnbyBlbnRyZWdhIGRlbCBlamVtcGxhciByZXNwZWN0aXZvIHkgZGUgc3VzIGFuZXhvcyBkZSBzZXIgZWwgY2FzbywgZW4gZm9ybWF0byBkaWdpdGFsIHkvbyBlbGVjdHLDs25pY28geSBhdXRvcml6byBhIGxhIFVuaXZlcnNpZGFkIGRlIGxvcyBBbmRlcyBwYXJhIHF1ZSByZWFsaWNlIGxhIHB1YmxpY2FjacOzbiBlbiBlbCBTaXN0ZW1hIGRlIEJpYmxpb3RlY2FzIG8gZW4gY3VhbHF1aWVyIG90cm8gc2lzdGVtYSBvIGJhc2UgZGUgZGF0b3MgcHJvcGlvIG8gYWplbm8gYSBsYSBVbml2ZXJzaWRhZCB5IHBhcmEgcXVlIGVuIGxvcyB0w6lybWlub3MgZXN0YWJsZWNpZG9zIGVuIGxhIExleSAyMyBkZSAxOTgyLCBMZXkgNDQgZGUgMTk5MywgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5MywgRGVjcmV0byA0NjAgZGUgMTk5NSB5IGRlbcOhcyBub3JtYXMgZ2VuZXJhbGVzIHNvYnJlIGxhIG1hdGVyaWEsIHV0aWxpY2UgZW4gdG9kYXMgc3VzIGZvcm1hcywgbG9zIGRlcmVjaG9zIHBhdHJpbW9uaWFsZXMgZGUgcmVwcm9kdWNjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSwgdHJhbnNmb3JtYWNpw7NuIHkgZGlzdHJpYnVjacOzbiAoYWxxdWlsZXIsIHByw6lzdGFtbyBww7pibGljbyBlIGltcG9ydGFjacOzbikgcXVlIG1lIGNvcnJlc3BvbmRlbiBjb21vIGNyZWFkb3IgZGUgbGEgb2JyYSBvYmpldG8gZGVsIHByZXNlbnRlIGRvY3VtZW50by4gIAoKCkxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gc2UgZW1pdGUgZW4gY2FsaWRhZCBkZSBhdXRvciBkZSBsYSBvYnJhIG9iamV0byBkZWwgcHJlc2VudGUgZG9jdW1lbnRvIHkgbm8gY29ycmVzcG9uZGUgYSBjZXNpw7NuIGRlIGRlcmVjaG9zLCBzaW5vIGEgbGEgYXV0b3JpemFjacOzbiBkZSB1c28gYWNhZMOpbWljbyBkZSBjb25mb3JtaWRhZCBjb24gbG8gYW50ZXJpb3JtZW50ZSBzZcOxYWxhZG8uIExhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gc2UgaGFjZSBleHRlbnNpdmEgbm8gc29sbyBhIGxhcyBmYWN1bHRhZGVzIHkgZGVyZWNob3MgZGUgdXNvIHNvYnJlIGxhIG9icmEgZW4gZm9ybWF0byBvIHNvcG9ydGUgbWF0ZXJpYWwsIHNpbm8gdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGVsZWN0csOzbmljbywgeSBlbiBnZW5lcmFsIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gCgoKRWwgYXV0b3IsIG1hbmlmaWVzdGEgcXVlIGxhIG9icmEgb2JqZXRvIGRlIGxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gZXMgb3JpZ2luYWwgeSBsYSByZWFsaXrDsyBzaW4gdmlvbGFyIG8gdXN1cnBhciBkZXJlY2hvcyBkZSBhdXRvciBkZSB0ZXJjZXJvcywgcG9yIGxvIHRhbnRvLCBsYSBvYnJhIGVzIGRlIHN1IGV4Y2x1c2l2YSBhdXRvcsOtYSB5IHRpZW5lIGxhIHRpdHVsYXJpZGFkIHNvYnJlIGxhIG1pc21hLiAKCgpFbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgZWwgYXV0b3IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBkZSBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVbml2ZXJzaWRhZCBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlLiAKCg==