Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper
Los enlaces que llevan a repositorios están publicados en plataformas de código abierto para la comunidad.
- Autores:
-
Padilla Torres, Juan Esteban
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2023
- Institución:
- Universidad de los Andes
- Repositorio:
- Séneca: repositorio Uniandes
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.uniandes.edu.co:1992/68683
- Acceso en línea:
- http://hdl.handle.net/1992/68683
- Palabra clave:
- Affective computing
Aprendizaje de máquina multimodal
Detección de emociones
Interacción humano-robot
Robot Pepper
Ingeniería
- Rights
- openAccess
- License
- Atribución-NoComercial 4.0 Internacional
id |
UNIANDES2_39bfae63471b0a7368c47da6764c025c |
---|---|
oai_identifier_str |
oai:repositorio.uniandes.edu.co:1992/68683 |
network_acronym_str |
UNIANDES2 |
network_name_str |
Séneca: repositorio Uniandes |
repository_id_str |
|
dc.title.none.fl_str_mv |
Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper |
title |
Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper |
spellingShingle |
Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper Affective computing Aprendizaje de máquina multimodal Detección de emociones Interacción humano-robot Robot Pepper Ingeniería |
title_short |
Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper |
title_full |
Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper |
title_fullStr |
Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper |
title_full_unstemmed |
Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper |
title_sort |
Detección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper |
dc.creator.fl_str_mv |
Padilla Torres, Juan Esteban |
dc.contributor.advisor.none.fl_str_mv |
García Cárdenas, Juan José Segura Quijano, Fredy Enrique |
dc.contributor.author.none.fl_str_mv |
Padilla Torres, Juan Esteban |
dc.contributor.jury.none.fl_str_mv |
Sotelo Briceño, Diana Camila |
dc.subject.keyword.none.fl_str_mv |
Affective computing Aprendizaje de máquina multimodal Detección de emociones Interacción humano-robot Robot Pepper |
topic |
Affective computing Aprendizaje de máquina multimodal Detección de emociones Interacción humano-robot Robot Pepper Ingeniería |
dc.subject.themes.es_CO.fl_str_mv |
Ingeniería |
description |
Los enlaces que llevan a repositorios están publicados en plataformas de código abierto para la comunidad. |
publishDate |
2023 |
dc.date.accessioned.none.fl_str_mv |
2023-07-24T21:46:30Z |
dc.date.available.none.fl_str_mv |
2023-07-24T21:46:30Z |
dc.date.issued.none.fl_str_mv |
2023-06 |
dc.type.es_CO.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.es_CO.fl_str_mv |
Text |
dc.type.redcol.none.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/1992/68683 |
dc.identifier.instname.es_CO.fl_str_mv |
instname:Universidad de los Andes |
dc.identifier.reponame.es_CO.fl_str_mv |
reponame:Repositorio Institucional Séneca |
dc.identifier.repourl.es_CO.fl_str_mv |
repourl:https://repositorio.uniandes.edu.co/ |
url |
http://hdl.handle.net/1992/68683 |
identifier_str_mv |
instname:Universidad de los Andes reponame:Repositorio Institucional Séneca repourl:https://repositorio.uniandes.edu.co/ |
dc.language.iso.es_CO.fl_str_mv |
spa |
language |
spa |
dc.relation.references.es_CO.fl_str_mv |
A. Bagher Zadeh, P. P. Liang, S. Poria, E. Cambria y L.-P. Morency, "Multimodal Language Analysis in the Wild: CMU-MOSEI Dataset and Interpretable Dynamic Fusion Graph," en Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), Melbourne, Australia: Association for Computational Linguistics, jul. de 2018, pags. 2236-2246. DOI: 10.18653/v1/P18-1208. [Internet]. Disponible en: https://aclanthology.org/P18-1208. T. Baltrusaitis, C. Ahuja y L. Morency, "Multimodal Machine Learning: A Survey and Taxonomy," CoRR, vol. abs/1705.09406, 2017. arXiv: 1705.09406. [Internet]. Disponible en: http://arxiv.org/abs/1705.09406. K. Cho, B. van Merrienboer, C. Gulcehre et al., "Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation," jun. de 2014. [Internet]. Disponible en: http://arxiv.org/abs/1406.1078. A. Christy, S. Vaithyasubramanian, A. Jesudoss y M. D. Praveena, "Multimodal speech emotion recognition and classification using convolutional neural network techniques," International Journal of Speech Technology, vol. 23, pags. 381-388, 2 jun. de 2020, ISSN: 15728110. DOI: 10.1007/s10772-020-09713-y. T. Debnath, M. M. Reza, A. Rahman, A. Beheshti, S. S. Band y H. Alinejad-Rokny, "Four-layer ConvNet to facial emotion recognition with minimal epochs and the significance of data diversity," 2022. DOI: 10.1038/s41598-022-11173-0. [Internet]. Disponible en: www.nature.com/scientificreports/. P. Ekman, Handbook of cognition and emotion, T. Dalgleish y M. J. Power, eds. 1999, cap. 3, pag. 843, ISBN: 0471978361. [Internet]. Disponible en: https://onlinelibrary.wiley.com/doi/10.1002/0470013494.ch3. A. Gandhi, K. Adhvaryu, S. Poria, E. Cambria y A. Hussain, "Multimodal sentiment analysis: A systematic review of history, datasets, multimodal fusion methods, applications, challenges and future directions," Information Fusion, vol. 91, pags. 424-444, mar. de 2023, ISSN: 1566-2535. DOI: 10.1016/J.INFFUS.2022.09.025. W. Graterol, J. Diaz-Amado, Y. Cardinale, I. Dongo, E. Lopes-Silva y C. Santos-Libarino, "Emotion Detection for Social Robots Based on NLP Transformers and an Emotion Ontology," Sensors, vol. 21, n.° 4, 2021, ISSN: 1424-8220. DOI: 10.3390/s21041322. [Internet]. Disponible en: https://www.mdpi.com/1424-8220/21/4/1322. K. Kim y S. Park, "AOBERT: All-modalities-in-One BERT for multimodal sentiment analysis," Information Fusion, vol. 92, pags. 37-45, abr. de 2023, ISSN: 15662535. DOI: 10.1016/j.inffus.2022.11.022. R. F. Livingstone SR, "The Ryerson Audio-Visual Database of Emotional Speech and Song (RAVDESS): A dynamic, multimodal set of facial and vocal expressions in North American English," PLoS ONE 13(5), 2018. DOI: 10.1371/journal.pone.0196391. G. Meena, K. K. Mohbey, A. Indian y S. Kumar, "Sentiment Analysis from Images using VGG19 based Transfer Learning Approach," Procedia Computer Science, vol. 204, pags. 411-418, 2022, ISSN: 18770509. DOI: 10.1016/j.procs.2022.08.050. Z. Yao, Z. Wang, W. Liu, Y. Liu y J. Pan, "Speech emotion recognition using fusion of three multitask learning-based classifiers: HSF-DNN, MS-CNN and LLD-RNN," Speech Communication, vol. 120, pags. 11-19, jun. de 2020, ISSN: 01676393. DOI: 10.1016/j.specom.2020.03.005. A. Zadeh, P. P. Liang, N. Mazumder, S. Poria, E. Cambria y L.-P. Morency, "Memory Fusion Network for Multi-view Sequential Learning," feb. de 2018. [Internet]. Disponible en: http://arxiv.org/abs/1802.00927. |
dc.rights.license.spa.fl_str_mv |
Atribución-NoComercial 4.0 Internacional |
dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc/4.0/ |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.spa.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
Atribución-NoComercial 4.0 Internacional http://creativecommons.org/licenses/by-nc/4.0/ http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.extent.es_CO.fl_str_mv |
6 páginas |
dc.format.mimetype.es_CO.fl_str_mv |
application/pdf |
dc.publisher.es_CO.fl_str_mv |
Universidad de los Andes |
dc.publisher.program.es_CO.fl_str_mv |
Ingeniería Electrónica |
dc.publisher.faculty.es_CO.fl_str_mv |
Facultad de Ingeniería |
dc.publisher.department.es_CO.fl_str_mv |
Departamento de Ingeniería Eléctrica y Electrónica |
institution |
Universidad de los Andes |
bitstream.url.fl_str_mv |
https://repositorio.uniandes.edu.co/bitstreams/c097506c-98df-4447-8a64-41dd2b3d8926/download https://repositorio.uniandes.edu.co/bitstreams/1893bd5c-ca55-46c8-96bd-c750215f8804/download https://repositorio.uniandes.edu.co/bitstreams/74acbdee-f494-459f-8a82-9239edf91e4e/download https://repositorio.uniandes.edu.co/bitstreams/689e72d4-f1c2-4a49-b2c2-914400fe812c/download https://repositorio.uniandes.edu.co/bitstreams/8e136ce7-1b24-452e-a06f-cadec849c592/download https://repositorio.uniandes.edu.co/bitstreams/c2f6bbf4-dc81-4f1c-b515-d45a79c2bebf/download https://repositorio.uniandes.edu.co/bitstreams/56344c3b-119d-4413-8ac2-acd279c93d37/download https://repositorio.uniandes.edu.co/bitstreams/5f7ecf00-2806-4dea-8f34-aa1111467a9c/download |
bitstream.checksum.fl_str_mv |
24013099e9e6abb1575dc6ce0855efd5 bb63e7fc6f4cb3cafd47f3024c517a9f 08b106dfeb12472e88207a069e15ba30 f7cfa39283fbc5e112a4061f77c8df1f 7506dd9be416fe161dba8b9fd5e5d179 51342cd10cb3594e8018b987dcf089ee 358beacc90e2e45cf4204632adad8eac 5aa5c691a1ffe97abd12c2966efcb8d6 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio institucional Séneca |
repository.mail.fl_str_mv |
adminrepositorio@uniandes.edu.co |
_version_ |
1812134033436442624 |
spelling |
Atribución-NoComercial 4.0 Internacionalhttp://creativecommons.org/licenses/by-nc/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2García Cárdenas, Juan Joséd40d3a64-3578-470f-bc3f-de9576534b5d600Segura Quijano, Fredy Enriquebce73583-d8ba-4926-b851-58728193ee7f600Padilla Torres, Juan EstebanSotelo Briceño, Diana Camila2023-07-24T21:46:30Z2023-07-24T21:46:30Z2023-06http://hdl.handle.net/1992/68683instname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/Los enlaces que llevan a repositorios están publicados en plataformas de código abierto para la comunidad.En la actualidad es muy importante para las organizaciones mantener un servicio al cliente de primer nivel. Para esto, es necesario desarrollar sistemas automatizados que detecten las emociones de las personas al responder al acercamiento de un producto o servicio. Después de todo, las decisiones que tomamos son, de manera innata, producto de nuestras emociones; es por esto que, es importante desarrollar un ambiente agradable a la hora de atraer a un cliente, ya sea por la estética del producto, el olor, o la estimulación de otros sentidos. En este reporte se presenta el desarrollo e implementación de una aplicación para el robot Pepper que pueda identificar y extraer del contexto de una conversación las emociones de su interlocutor para ajustar sus respuestas en la siguiente interacción. El espectro de emociones para la clasificación contiene: ira, disgusto, miedo, felicidad, tristeza, sorpresa y neutral. Para el sistema se implementa una rutina de detección de emociones multimodal que extrae las características para la clasificación a partir del vídeo, audio y texto obtenidas mediante una interacción humano-robot.Ingeniero ElectrónicoPregradoAprendizaje de máquina multimodalInteligencia artificial6 páginasapplication/pdfspaUniversidad de los AndesIngeniería ElectrónicaFacultad de IngenieríaDepartamento de Ingeniería Eléctrica y ElectrónicaDetección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de PepperTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1fTexthttp://purl.org/redcol/resource_type/TPAffective computingAprendizaje de máquina multimodalDetección de emocionesInteracción humano-robotRobot PepperIngenieríaA. Bagher Zadeh, P. P. Liang, S. Poria, E. Cambria y L.-P. Morency, "Multimodal Language Analysis in the Wild: CMU-MOSEI Dataset and Interpretable Dynamic Fusion Graph," en Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), Melbourne, Australia: Association for Computational Linguistics, jul. de 2018, pags. 2236-2246. DOI: 10.18653/v1/P18-1208. [Internet]. Disponible en: https://aclanthology.org/P18-1208.T. Baltrusaitis, C. Ahuja y L. Morency, "Multimodal Machine Learning: A Survey and Taxonomy," CoRR, vol. abs/1705.09406, 2017. arXiv: 1705.09406. [Internet]. Disponible en: http://arxiv.org/abs/1705.09406.K. Cho, B. van Merrienboer, C. Gulcehre et al., "Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation," jun. de 2014. [Internet]. Disponible en: http://arxiv.org/abs/1406.1078.A. Christy, S. Vaithyasubramanian, A. Jesudoss y M. D. Praveena, "Multimodal speech emotion recognition and classification using convolutional neural network techniques," International Journal of Speech Technology, vol. 23, pags. 381-388, 2 jun. de 2020, ISSN: 15728110. DOI: 10.1007/s10772-020-09713-y.T. Debnath, M. M. Reza, A. Rahman, A. Beheshti, S. S. Band y H. Alinejad-Rokny, "Four-layer ConvNet to facial emotion recognition with minimal epochs and the significance of data diversity," 2022. DOI: 10.1038/s41598-022-11173-0. [Internet]. Disponible en: www.nature.com/scientificreports/.P. Ekman, Handbook of cognition and emotion, T. Dalgleish y M. J. Power, eds. 1999, cap. 3, pag. 843, ISBN: 0471978361. [Internet]. Disponible en: https://onlinelibrary.wiley.com/doi/10.1002/0470013494.ch3.A. Gandhi, K. Adhvaryu, S. Poria, E. Cambria y A. Hussain, "Multimodal sentiment analysis: A systematic review of history, datasets, multimodal fusion methods, applications, challenges and future directions," Information Fusion, vol. 91, pags. 424-444, mar. de 2023, ISSN: 1566-2535. DOI: 10.1016/J.INFFUS.2022.09.025.W. Graterol, J. Diaz-Amado, Y. Cardinale, I. Dongo, E. Lopes-Silva y C. Santos-Libarino, "Emotion Detection for Social Robots Based on NLP Transformers and an Emotion Ontology," Sensors, vol. 21, n.° 4, 2021, ISSN: 1424-8220. DOI: 10.3390/s21041322. [Internet]. Disponible en: https://www.mdpi.com/1424-8220/21/4/1322.K. Kim y S. Park, "AOBERT: All-modalities-in-One BERT for multimodal sentiment analysis," Information Fusion, vol. 92, pags. 37-45, abr. de 2023, ISSN: 15662535. DOI: 10.1016/j.inffus.2022.11.022.R. F. Livingstone SR, "The Ryerson Audio-Visual Database of Emotional Speech and Song (RAVDESS): A dynamic, multimodal set of facial and vocal expressions in North American English," PLoS ONE 13(5), 2018. DOI: 10.1371/journal.pone.0196391.G. Meena, K. K. Mohbey, A. Indian y S. Kumar, "Sentiment Analysis from Images using VGG19 based Transfer Learning Approach," Procedia Computer Science, vol. 204, pags. 411-418, 2022, ISSN: 18770509. DOI: 10.1016/j.procs.2022.08.050.Z. Yao, Z. Wang, W. Liu, Y. Liu y J. Pan, "Speech emotion recognition using fusion of three multitask learning-based classifiers: HSF-DNN, MS-CNN and LLD-RNN," Speech Communication, vol. 120, pags. 11-19, jun. de 2020, ISSN: 01676393. DOI: 10.1016/j.specom.2020.03.005.A. Zadeh, P. P. Liang, N. Mazumder, S. Poria, E. Cambria y L.-P. Morency, "Memory Fusion Network for Multi-view Sequential Learning," feb. de 2018. [Internet]. Disponible en: http://arxiv.org/abs/1802.00927.201922825PublicationCC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8914https://repositorio.uniandes.edu.co/bitstreams/c097506c-98df-4447-8a64-41dd2b3d8926/download24013099e9e6abb1575dc6ce0855efd5MD52TEXTDocumentoFinalPGJuanPadilla.pdf.txtDocumentoFinalPGJuanPadilla.pdf.txtExtracted texttext/plain23201https://repositorio.uniandes.edu.co/bitstreams/1893bd5c-ca55-46c8-96bd-c750215f8804/downloadbb63e7fc6f4cb3cafd47f3024c517a9fMD55autorizacion tesis.pdf.txtautorizacion tesis.pdf.txtExtracted texttext/plain1161https://repositorio.uniandes.edu.co/bitstreams/74acbdee-f494-459f-8a82-9239edf91e4e/download08b106dfeb12472e88207a069e15ba30MD57ORIGINALDocumentoFinalPGJuanPadilla.pdfDocumentoFinalPGJuanPadilla.pdfProyecto de gradoapplication/pdf1735857https://repositorio.uniandes.edu.co/bitstreams/689e72d4-f1c2-4a49-b2c2-914400fe812c/downloadf7cfa39283fbc5e112a4061f77c8df1fMD53autorizacion tesis.pdfautorizacion tesis.pdfHIDEapplication/pdf293910https://repositorio.uniandes.edu.co/bitstreams/8e136ce7-1b24-452e-a06f-cadec849c592/download7506dd9be416fe161dba8b9fd5e5d179MD54THUMBNAILDocumentoFinalPGJuanPadilla.pdf.jpgDocumentoFinalPGJuanPadilla.pdf.jpgIM Thumbnailimage/jpeg28373https://repositorio.uniandes.edu.co/bitstreams/c2f6bbf4-dc81-4f1c-b515-d45a79c2bebf/download51342cd10cb3594e8018b987dcf089eeMD56autorizacion tesis.pdf.jpgautorizacion tesis.pdf.jpgIM Thumbnailimage/jpeg16685https://repositorio.uniandes.edu.co/bitstreams/56344c3b-119d-4413-8ac2-acd279c93d37/download358beacc90e2e45cf4204632adad8eacMD58LICENSElicense.txtlicense.txttext/plain; charset=utf-81810https://repositorio.uniandes.edu.co/bitstreams/5f7ecf00-2806-4dea-8f34-aa1111467a9c/download5aa5c691a1ffe97abd12c2966efcb8d6MD511992/68683oai:repositorio.uniandes.edu.co:1992/686832024-04-18 10:38:36.174http://creativecommons.org/licenses/by-nc/4.0/open.accesshttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.coWW8sIGVuIG1pIGNhbGlkYWQgZGUgYXV0b3IgZGVsIHRyYWJham8gZGUgdGVzaXMsIG1vbm9ncmFmw61hIG8gdHJhYmFqbyBkZSBncmFkbywgaGFnbyBlbnRyZWdhIGRlbCBlamVtcGxhciByZXNwZWN0aXZvIHkgZGUgc3VzIGFuZXhvcyBkZSBzZXIgZWwgY2FzbywgZW4gZm9ybWF0byBkaWdpdGFsIHkvbyBlbGVjdHLDs25pY28geSBhdXRvcml6byBhIGxhIFVuaXZlcnNpZGFkIGRlIGxvcyBBbmRlcyBwYXJhIHF1ZSByZWFsaWNlIGxhIHB1YmxpY2FjacOzbiBlbiBlbCBTaXN0ZW1hIGRlIEJpYmxpb3RlY2FzIG8gZW4gY3VhbHF1aWVyIG90cm8gc2lzdGVtYSBvIGJhc2UgZGUgZGF0b3MgcHJvcGlvIG8gYWplbm8gYSBsYSBVbml2ZXJzaWRhZCB5IHBhcmEgcXVlIGVuIGxvcyB0w6lybWlub3MgZXN0YWJsZWNpZG9zIGVuIGxhIExleSAyMyBkZSAxOTgyLCBMZXkgNDQgZGUgMTk5MywgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5MywgRGVjcmV0byA0NjAgZGUgMTk5NSB5IGRlbcOhcyBub3JtYXMgZ2VuZXJhbGVzIHNvYnJlIGxhIG1hdGVyaWEsIHV0aWxpY2UgZW4gdG9kYXMgc3VzIGZvcm1hcywgbG9zIGRlcmVjaG9zIHBhdHJpbW9uaWFsZXMgZGUgcmVwcm9kdWNjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSwgdHJhbnNmb3JtYWNpw7NuIHkgZGlzdHJpYnVjacOzbiAoYWxxdWlsZXIsIHByw6lzdGFtbyBww7pibGljbyBlIGltcG9ydGFjacOzbikgcXVlIG1lIGNvcnJlc3BvbmRlbiBjb21vIGNyZWFkb3IgZGUgbGEgb2JyYSBvYmpldG8gZGVsIHByZXNlbnRlIGRvY3VtZW50by4gIAoKCkxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gc2UgZW1pdGUgZW4gY2FsaWRhZCBkZSBhdXRvciBkZSBsYSBvYnJhIG9iamV0byBkZWwgcHJlc2VudGUgZG9jdW1lbnRvIHkgbm8gY29ycmVzcG9uZGUgYSBjZXNpw7NuIGRlIGRlcmVjaG9zLCBzaW5vIGEgbGEgYXV0b3JpemFjacOzbiBkZSB1c28gYWNhZMOpbWljbyBkZSBjb25mb3JtaWRhZCBjb24gbG8gYW50ZXJpb3JtZW50ZSBzZcOxYWxhZG8uIExhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gc2UgaGFjZSBleHRlbnNpdmEgbm8gc29sbyBhIGxhcyBmYWN1bHRhZGVzIHkgZGVyZWNob3MgZGUgdXNvIHNvYnJlIGxhIG9icmEgZW4gZm9ybWF0byBvIHNvcG9ydGUgbWF0ZXJpYWwsIHNpbm8gdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGVsZWN0csOzbmljbywgeSBlbiBnZW5lcmFsIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gCgoKRWwgYXV0b3IsIG1hbmlmaWVzdGEgcXVlIGxhIG9icmEgb2JqZXRvIGRlIGxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gZXMgb3JpZ2luYWwgeSBsYSByZWFsaXrDsyBzaW4gdmlvbGFyIG8gdXN1cnBhciBkZXJlY2hvcyBkZSBhdXRvciBkZSB0ZXJjZXJvcywgcG9yIGxvIHRhbnRvLCBsYSBvYnJhIGVzIGRlIHN1IGV4Y2x1c2l2YSBhdXRvcsOtYSB5IHRpZW5lIGxhIHRpdHVsYXJpZGFkIHNvYnJlIGxhIG1pc21hLiAKCgpFbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgZWwgYXV0b3IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBkZSBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVbml2ZXJzaWRhZCBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlLiAKCg== |