Descriptor de imágenes en español utilizando técnicas de Deep Learning
Este proyecto de grado se centra en el desarrollo de un modelo basado en técnicas de Deep Learning para generar automáticamente descripciones de imágenes en español. La arquitectura Encoder-Decoder se explora para capturar relaciones contextuales entre el texto y las características visuales de las...
- Autores:
-
Sierra Vidal, Lina María
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2023
- Institución:
- Universidad de los Andes
- Repositorio:
- Séneca: repositorio Uniandes
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.uniandes.edu.co:1992/73424
- Acceso en línea:
- https://hdl.handle.net/1992/73424
- Palabra clave:
- Deep learning
Imágenes
Descripción de imágenes
Ingeniería
- Rights
- openAccess
- License
- Attribution 4.0 International
id |
UNIANDES2_86918d27b4f13dcbb6efba49dc6fa517 |
---|---|
oai_identifier_str |
oai:repositorio.uniandes.edu.co:1992/73424 |
network_acronym_str |
UNIANDES2 |
network_name_str |
Séneca: repositorio Uniandes |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Descriptor de imágenes en español utilizando técnicas de Deep Learning |
title |
Descriptor de imágenes en español utilizando técnicas de Deep Learning |
spellingShingle |
Descriptor de imágenes en español utilizando técnicas de Deep Learning Deep learning Imágenes Descripción de imágenes Ingeniería |
title_short |
Descriptor de imágenes en español utilizando técnicas de Deep Learning |
title_full |
Descriptor de imágenes en español utilizando técnicas de Deep Learning |
title_fullStr |
Descriptor de imágenes en español utilizando técnicas de Deep Learning |
title_full_unstemmed |
Descriptor de imágenes en español utilizando técnicas de Deep Learning |
title_sort |
Descriptor de imágenes en español utilizando técnicas de Deep Learning |
dc.creator.fl_str_mv |
Sierra Vidal, Lina María |
dc.contributor.advisor.none.fl_str_mv |
Núñez Castro, Haydemar María |
dc.contributor.author.none.fl_str_mv |
Sierra Vidal, Lina María |
dc.subject.keyword.eng.fl_str_mv |
Deep learning |
topic |
Deep learning Imágenes Descripción de imágenes Ingeniería |
dc.subject.keyword.none.fl_str_mv |
Imágenes Descripción de imágenes |
dc.subject.themes.spa.fl_str_mv |
Ingeniería |
description |
Este proyecto de grado se centra en el desarrollo de un modelo basado en técnicas de Deep Learning para generar automáticamente descripciones de imágenes en español. La arquitectura Encoder-Decoder se explora para capturar relaciones contextuales entre el texto y las características visuales de las imágenes. El modelo se entrena utilizando un amplio conjunto de datos de imágenes con sus descripciones en español. Se realizaron diversas comparaciones entre arquitecturas, modelos e hiperparámetros para obtener resultados coherentes y precisos. La evaluación del modelo se enfocó en métricas cuantitativas como la exactitud y la pérdida, así como en métricas específicas para tareas de generación de lenguaje natural, como BLEU y METEOR. Estas métricas permitieron medir la calidad y similitud de las descripciones generadas con respecto a las descripciones de referencia en el dataset. Este trabajo representa una contribución en el campo de la generación automática de descripciones de imágenes en español, con potenciales aplicaciones en diversos ámbitos, incluyendo la accesibilidad tecnológica para personas con discapacidad visual o neurológica. Una vez ajustado y validado, el modelo se implementó en una aplicación accesible que permite a los usuarios cargar imágenes y recibir descripciones de manera rápida en español. El enfoque de accesibilidad fue esencial durante todo el proceso de desarrollo, con el objetivo de brindar una solución tecnológica inclusiva para personas con diferentes niveles de discapacidad visual o neurológica. |
publishDate |
2023 |
dc.date.issued.none.fl_str_mv |
2023-08-01 |
dc.date.accessioned.none.fl_str_mv |
2024-01-24T15:18:43Z |
dc.date.available.none.fl_str_mv |
2024-01-24T15:18:43Z |
dc.type.none.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.none.fl_str_mv |
Text |
dc.type.redcol.none.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/1992/73424 |
dc.identifier.instname.none.fl_str_mv |
instname:Universidad de los Andes |
dc.identifier.reponame.none.fl_str_mv |
reponame:Repositorio Institucional Séneca |
dc.identifier.repourl.none.fl_str_mv |
repourl:https://repositorio.uniandes.edu.co/ |
url |
https://hdl.handle.net/1992/73424 |
identifier_str_mv |
instname:Universidad de los Andes reponame:Repositorio Institucional Séneca repourl:https://repositorio.uniandes.edu.co/ |
dc.language.iso.none.fl_str_mv |
spa |
language |
spa |
dc.relation.references.none.fl_str_mv |
Ghandi, T., Pourreza, H., & Mahyar, H. (2023). Deep Learning Approaches on
Image Captioning: A Review. McMaster University, Hamilton, Ontario, Canada. Sutskever, I., Vinyals, O., & Le, Q. V. (2014). Sequence to Sequence Learning with Neural Networks. Google. Nash, R., & O’Shea, K. (2015). An Introduction to Convolutional Neural Networks. Department of Computer Science, Aberystwyth University, Ceredigion; School of Computing and Communications, Lancaster University, Lancashire. Ambalina, L. (s/f). 5 Papers on CNNs Every Data Scientist Should Read. KDnuggets. Recuperado el 1 de agosto de 2023, de https://www.kdnuggets.com/2020/04/5-papers-cnns-data-scientist.html Muñoz, E. (2020, octubre 11). A Guide to the Encoder-Decoder Model and the Attention Mechanism. Better Programming. https://betterprogramming.pub/a- guide-on-the-encoder-decoder-model-and-the-attention-mechanism-401c836e2cdb Brownlee, J. (2017, octubre 13). How Does Attention Work in Encoder-Decoder Recurrent Neural Networks. Machinelearningmastery.com. https://machinelearningmastery.com/how-does-attention-work-in-encoder-decoder- recurrent-neural-networks/ Goodfellow, I., Pouget-Abadi, J., & Mirza, M. (2022). Generative Adversarial Nets. Université de Montreal. Paischer, F., Adler, T., Hofmarcher, M., & Hochreiter, S. (2022). Generative Adversarial Nets. SITTA: A Semantic Image-Text Alignment for Image Captioning. Vijayaraju, N. (2019). Image Retrieval Using Image Captioning. San Jose State University Library. "Write Good Alt Text to Describe Images." (s/f). Harvard.edu. Recuperado el 21 de agosto de 2023, de https://accessibility.huit.harvard.edu/describe-content-images García, C. (2020). MS-COCO-ES: Spanish COCO Captions [Data set]. Keras: Deep Learning for Humans. (s/f). Keras.Io. Recuperado el 15 de agosto de 2023, de http://keras.io "¿Cómo Funciona DeepL?" (s/f). Deepl.com. Recuperado el 21 de agosto de 2023, de https://www.deepl.com/es/blog/how-does-deepl-work "EfficientNet." (s/f). Paperswithcode.com. Recuperado el 28 de agosto de 2023, de https://paperswithcode.com/method/efficientnet Li, K., Yang, R., & Hu, X. (2022). An Efficient Encoder-Decoder Architecture with Top-Down Attention for Speech Separation. BNRist, Tsinghua University, Beijing 100084, China. Shambharkar, P. G., Kumari, P., Yadav, P., & Kumar, R. (2021). Generating Caption for Image Using Beam Search and Analyzation with Unsupervised Image Captioning Algorithm. 2021 5th International Conference on Intelligent Computing and Control Systems (ICICCS), 857–864. Cui, Y., Yang, G., Veit, A., Huang, X., & Belongie, S. (s/f). Learning to Evaluate Image Captioning. Cornell University. Papineni, K., Roukos, S., Ward, T., & Zhu, W.-J. (2001). BLEU: A Method for Automatic Evaluation of Machine Translation. Proceedings of the 40th Annual Meeting on Association for Computational Linguistics - ACL ’02, 311–318. Banerjee, S., & Lavie, A. (2005). METEOR: An Automatic Metric for MT Evaluation with Improved Correlation with Human Judgments. Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, 65–72. Dabian, D. A., & Peña Moyano, F. Y. (2020). Prevalencia y Causas de Ceguera y Discapacidad Visual en Colombia. Ciencia y Tecnología para la Salud Visual y Ocular. "Hyperparameter Tuning over an Attention Model for Image Captioning." (2021). Researchgate.net. https://www.researchgate.net/publication/356462509_Hyperparameter_Tuning_over_an_Attention_Model_for_Image_Captioning Srinivasan, L., Sreekanthan, D., & Amutha, A. L. (s/f). Image Captioning - A Deep Learning Approach. Ripublication.com. Recuperado el 28 de agosto de 2023, de https://www.ripublication.com/ijaer18/ijaerv13n9_102.pdf Zhao, P., Li, C., Rahaman, M. M., Xu, H., Yang, H., Sun, H., Jiang, T., & Grzegorzek, M. (s/f). A Comparative Study of Deep Learning Classification Methods on a Small Environmental Microorganism Image Dataset (EMDS-6): From Convolutional Neural Networks to Visual Transformers. Microscopic Image and Medical Image Analysis Group, MBIE College, Northeastern University. Chollet, F. (2016). Xception: Deep Learning with Depthwise Separable Convolutions. Google, Inc. Simonyan, K., & Zisserman, A. (2014). Very Deep Convolutional Networks for Large-Scale Image Recognition. Visual Geometry Group, Department of Engineering Science, University of Oxford. |
dc.rights.en.fl_str_mv |
Attribution 4.0 International |
dc.rights.uri.none.fl_str_mv |
http://creativecommons.org/licenses/by/4.0/ |
dc.rights.accessrights.none.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.none.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
Attribution 4.0 International http://creativecommons.org/licenses/by/4.0/ http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.extent.none.fl_str_mv |
28 páginas |
dc.format.mimetype.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidad de los Andes |
dc.publisher.program.none.fl_str_mv |
Ingeniería de Sistemas y Computación |
dc.publisher.faculty.none.fl_str_mv |
Facultad de Ingeniería |
dc.publisher.department.none.fl_str_mv |
Departamento de Ingeniería Sistemas y Computación |
publisher.none.fl_str_mv |
Universidad de los Andes |
institution |
Universidad de los Andes |
bitstream.url.fl_str_mv |
https://repositorio.uniandes.edu.co/bitstreams/db0058d4-4864-4e4c-9129-eb6a1ac017c9/download https://repositorio.uniandes.edu.co/bitstreams/f82341be-e6b9-413f-954e-057cb0df02ae/download https://repositorio.uniandes.edu.co/bitstreams/f28227ad-d29d-4dff-958d-53e97dd6bfc1/download https://repositorio.uniandes.edu.co/bitstreams/0c3e14f8-dc6a-41c9-862c-d9474b7f3c0f/download https://repositorio.uniandes.edu.co/bitstreams/6efd9353-fd4a-4ee2-949e-01e23afdfddd/download https://repositorio.uniandes.edu.co/bitstreams/8af76158-5b9d-4650-8c0d-d858c3391353/download https://repositorio.uniandes.edu.co/bitstreams/a2203e17-f644-41f5-ba57-9ecd4f5fadac/download https://repositorio.uniandes.edu.co/bitstreams/e56bbdc1-7b23-401c-9e82-007f1bc0b666/download |
bitstream.checksum.fl_str_mv |
0175ea4a2d4caec4bbcc37e300941108 ae9e573a68e7f92501b6913cc846c39f 51f4d49b50e421d938a63afd007f0fc7 cfa4d6642c9f59df5b3e26e9d236f9f1 b071c1ca462cbaab5e8a55dc5c6e62de 6f63f846f7e4889f6a9f03d979777b8a 0e1b933fac9a5143b115143438209a70 d95bb3abd59694f07a80d318ba694d86 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio institucional Séneca |
repository.mail.fl_str_mv |
adminrepositorio@uniandes.edu.co |
_version_ |
1818111737907380224 |
spelling |
Núñez Castro, Haydemar MaríaSierra Vidal, Lina María2024-01-24T15:18:43Z2024-01-24T15:18:43Z2023-08-01https://hdl.handle.net/1992/73424instname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/Este proyecto de grado se centra en el desarrollo de un modelo basado en técnicas de Deep Learning para generar automáticamente descripciones de imágenes en español. La arquitectura Encoder-Decoder se explora para capturar relaciones contextuales entre el texto y las características visuales de las imágenes. El modelo se entrena utilizando un amplio conjunto de datos de imágenes con sus descripciones en español. Se realizaron diversas comparaciones entre arquitecturas, modelos e hiperparámetros para obtener resultados coherentes y precisos. La evaluación del modelo se enfocó en métricas cuantitativas como la exactitud y la pérdida, así como en métricas específicas para tareas de generación de lenguaje natural, como BLEU y METEOR. Estas métricas permitieron medir la calidad y similitud de las descripciones generadas con respecto a las descripciones de referencia en el dataset. Este trabajo representa una contribución en el campo de la generación automática de descripciones de imágenes en español, con potenciales aplicaciones en diversos ámbitos, incluyendo la accesibilidad tecnológica para personas con discapacidad visual o neurológica. Una vez ajustado y validado, el modelo se implementó en una aplicación accesible que permite a los usuarios cargar imágenes y recibir descripciones de manera rápida en español. El enfoque de accesibilidad fue esencial durante todo el proceso de desarrollo, con el objetivo de brindar una solución tecnológica inclusiva para personas con diferentes niveles de discapacidad visual o neurológica.This project focuses on the development of a model based on Deep Learning techniques to automatically generate image descriptions in Spanish. The Encoder-Decoder architecture is explored to capture contextual relationships between text and visual features of images. The model is trained using a large dataset of images with their descriptions in Spanish. Various comparisons were made between architectures, models and hyperparameters to obtain consistent and accurate results. Model evaluation focused on quantitative metrics such as accuracy and loss, as well as specific metrics for natural language generation tasks, such as BLEU and METEOR. These metrics allowed us to measure the quality and similarity of the generated descriptions with respect to the reference descriptions in the dataset. This work represents a contribution in the field of automatic generation of image descriptions in Spanish, with potential applications in various fields, including technological accessibility for people with visual or neurological disabilities. Once adjusted and validated, the model was implemented in an accessible application that allows users to quickly upload images and receive descriptions in Spanish. The accessibility approach was essential throughout the development process, with the aim of providing an inclusive technological solution for people with different levels of visual or neurological impairment.Ingeniero de Sistemas y ComputaciónPregrado28 páginasapplication/pdfspaUniversidad de los AndesIngeniería de Sistemas y ComputaciónFacultad de IngenieríaDepartamento de Ingeniería Sistemas y ComputaciónAttribution 4.0 Internationalhttp://creativecommons.org/licenses/by/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Descriptor de imágenes en español utilizando técnicas de Deep LearningTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1fTexthttp://purl.org/redcol/resource_type/TPDeep learningImágenesDescripción de imágenesIngenieríaGhandi, T., Pourreza, H., & Mahyar, H. (2023). Deep Learning Approaches on
Image Captioning: A Review. McMaster University, Hamilton, Ontario, Canada.Sutskever, I., Vinyals, O., & Le, Q. V. (2014). Sequence to Sequence Learning
with Neural Networks. Google.Nash, R., & O’Shea, K. (2015). An Introduction to Convolutional Neural Networks. Department of Computer Science, Aberystwyth University, Ceredigion; School of Computing and Communications, Lancaster University, Lancashire.Ambalina, L. (s/f). 5 Papers on CNNs Every Data Scientist Should Read. KDnuggets. Recuperado el 1 de agosto de 2023, de https://www.kdnuggets.com/2020/04/5-papers-cnns-data-scientist.htmlMuñoz, E. (2020, octubre 11). A Guide to the Encoder-Decoder Model and the Attention Mechanism. Better Programming. https://betterprogramming.pub/a- guide-on-the-encoder-decoder-model-and-the-attention-mechanism-401c836e2cdb
Brownlee, J. (2017, octubre 13). How Does Attention Work in Encoder-Decoder Recurrent Neural Networks. Machinelearningmastery.com. https://machinelearningmastery.com/how-does-attention-work-in-encoder-decoder- recurrent-neural-networks/Goodfellow, I., Pouget-Abadi, J., & Mirza, M. (2022). Generative Adversarial Nets. Université de Montreal.Paischer, F., Adler, T., Hofmarcher, M., & Hochreiter, S. (2022). Generative Adversarial Nets. SITTA: A Semantic Image-Text Alignment for Image Captioning.Vijayaraju, N. (2019). Image Retrieval Using Image Captioning. San Jose State University Library."Write Good Alt Text to Describe Images." (s/f). Harvard.edu. Recuperado el 21 de agosto de 2023, de https://accessibility.huit.harvard.edu/describe-content-imagesGarcía, C. (2020). MS-COCO-ES: Spanish COCO Captions [Data set].Keras: Deep Learning for Humans. (s/f). Keras.Io. Recuperado el 15 de agosto de 2023, de http://keras.io"¿Cómo Funciona DeepL?" (s/f). Deepl.com. Recuperado el 21 de agosto de 2023, de https://www.deepl.com/es/blog/how-does-deepl-work"EfficientNet." (s/f). Paperswithcode.com. Recuperado el 28 de agosto de 2023, de https://paperswithcode.com/method/efficientnetLi, K., Yang, R., & Hu, X. (2022). An Efficient Encoder-Decoder Architecture with Top-Down Attention for Speech Separation. BNRist, Tsinghua University, Beijing 100084, China.Shambharkar, P. G., Kumari, P., Yadav, P., & Kumar, R. (2021). Generating Caption for Image Using Beam Search and Analyzation with Unsupervised Image Captioning Algorithm. 2021 5th International Conference on Intelligent Computing and Control Systems (ICICCS), 857–864.Cui, Y., Yang, G., Veit, A., Huang, X., & Belongie, S. (s/f). Learning to Evaluate Image Captioning. Cornell University.Papineni, K., Roukos, S., Ward, T., & Zhu, W.-J. (2001). BLEU: A Method for Automatic Evaluation of Machine Translation. Proceedings of the 40th Annual Meeting on Association for Computational Linguistics - ACL ’02, 311–318.Banerjee, S., & Lavie, A. (2005). METEOR: An Automatic Metric for MT Evaluation with Improved Correlation with Human Judgments. Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, 65–72.Dabian, D. A., & Peña Moyano, F. Y. (2020). Prevalencia y Causas de Ceguera y Discapacidad Visual en Colombia. Ciencia y Tecnología para la Salud Visual y Ocular."Hyperparameter Tuning over an Attention Model for Image Captioning." (2021). Researchgate.net. https://www.researchgate.net/publication/356462509_Hyperparameter_Tuning_over_an_Attention_Model_for_Image_CaptioningSrinivasan, L., Sreekanthan, D., & Amutha, A. L. (s/f). Image Captioning - A Deep Learning Approach. Ripublication.com. Recuperado el 28 de agosto de 2023, de https://www.ripublication.com/ijaer18/ijaerv13n9_102.pdfZhao, P., Li, C., Rahaman, M. M., Xu, H., Yang, H., Sun, H., Jiang, T., & Grzegorzek, M. (s/f). A Comparative Study of Deep Learning Classification Methods on a Small Environmental Microorganism Image Dataset (EMDS-6): From Convolutional Neural Networks to Visual Transformers. Microscopic Image and Medical Image Analysis Group, MBIE College, Northeastern University.Chollet, F. (2016). Xception: Deep Learning with Depthwise Separable Convolutions. Google, Inc.Simonyan, K., & Zisserman, A. (2014). Very Deep Convolutional Networks for Large-Scale Image Recognition. Visual Geometry Group, Department of Engineering Science, University of Oxford.201914522PublicationCC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8908https://repositorio.uniandes.edu.co/bitstreams/db0058d4-4864-4e4c-9129-eb6a1ac017c9/download0175ea4a2d4caec4bbcc37e300941108MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-82535https://repositorio.uniandes.edu.co/bitstreams/f82341be-e6b9-413f-954e-057cb0df02ae/downloadae9e573a68e7f92501b6913cc846c39fMD53ORIGINALDescriptor de imágenes en español utilizando técnicas de Deep Learning.pdfDescriptor de imágenes en español utilizando técnicas de Deep Learning.pdfapplication/pdf3861476https://repositorio.uniandes.edu.co/bitstreams/f28227ad-d29d-4dff-958d-53e97dd6bfc1/download51f4d49b50e421d938a63afd007f0fc7MD54AUTORIZACIÓN TESIS .pdfAUTORIZACIÓN TESIS .pdfHIDEapplication/pdf291184https://repositorio.uniandes.edu.co/bitstreams/0c3e14f8-dc6a-41c9-862c-d9474b7f3c0f/downloadcfa4d6642c9f59df5b3e26e9d236f9f1MD55TEXTDescriptor de imágenes en español utilizando técnicas de Deep Learning.pdf.txtDescriptor de imágenes en español utilizando técnicas de Deep Learning.pdf.txtExtracted texttext/plain55073https://repositorio.uniandes.edu.co/bitstreams/6efd9353-fd4a-4ee2-949e-01e23afdfddd/downloadb071c1ca462cbaab5e8a55dc5c6e62deMD56AUTORIZACIÓN TESIS .pdf.txtAUTORIZACIÓN TESIS .pdf.txtExtracted texttext/plain2012https://repositorio.uniandes.edu.co/bitstreams/8af76158-5b9d-4650-8c0d-d858c3391353/download6f63f846f7e4889f6a9f03d979777b8aMD58THUMBNAILDescriptor de imágenes en español utilizando técnicas de Deep Learning.pdf.jpgDescriptor de imágenes en español utilizando técnicas de Deep Learning.pdf.jpgGenerated Thumbnailimage/jpeg5141https://repositorio.uniandes.edu.co/bitstreams/a2203e17-f644-41f5-ba57-9ecd4f5fadac/download0e1b933fac9a5143b115143438209a70MD57AUTORIZACIÓN TESIS .pdf.jpgAUTORIZACIÓN TESIS .pdf.jpgGenerated Thumbnailimage/jpeg10904https://repositorio.uniandes.edu.co/bitstreams/e56bbdc1-7b23-401c-9e82-007f1bc0b666/downloadd95bb3abd59694f07a80d318ba694d86MD591992/73424oai:repositorio.uniandes.edu.co:1992/734242024-01-25 03:02:22.247http://creativecommons.org/licenses/by/4.0/Attribution 4.0 Internationalopen.accesshttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.coPGgzPjxzdHJvbmc+RGVzY2FyZ28gZGUgUmVzcG9uc2FiaWxpZGFkIC0gTGljZW5jaWEgZGUgQXV0b3JpemFjacOzbjwvc3Ryb25nPjwvaDM+CjxwPjxzdHJvbmc+UG9yIGZhdm9yIGxlZXIgYXRlbnRhbWVudGUgZXN0ZSBkb2N1bWVudG8gcXVlIHBlcm1pdGUgYWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBTw6luZWNhIHJlcHJvZHVjaXIgeSBkaXN0cmlidWlyIGxvcyByZWN1cnNvcyBkZSBpbmZvcm1hY2nDs24gZGVwb3NpdGFkb3MgbWVkaWFudGUgbGEgYXV0b3JpemFjacOzbiBkZSBsb3Mgc2lndWllbnRlcyB0w6lybWlub3M6PC9zdHJvbmc+PC9wPgo8cD5Db25jZWRhIGxhIGxpY2VuY2lhIGRlIGRlcMOzc2l0byBlc3TDoW5kYXIgc2VsZWNjaW9uYW5kbyBsYSBvcGNpw7NuIDxzdHJvbmc+J0FjZXB0YXIgbG9zIHTDqXJtaW5vcyBhbnRlcmlvcm1lbnRlIGRlc2NyaXRvcyc8L3N0cm9uZz4geSBjb250aW51YXIgZWwgcHJvY2VzbyBkZSBlbnbDrW8gbWVkaWFudGUgZWwgYm90w7NuIDxzdHJvbmc+J1NpZ3VpZW50ZScuPC9zdHJvbmc+PC9wPgo8aHI+CjxwPllvLCBlbiBtaSBjYWxpZGFkIGRlIGF1dG9yIGRlbCB0cmFiYWpvIGRlIHRlc2lzLCBtb25vZ3JhZsOtYSBvIHRyYWJham8gZGUgZ3JhZG8sIGhhZ28gZW50cmVnYSBkZWwgZWplbXBsYXIgcmVzcGVjdGl2byB5IGRlIHN1cyBhbmV4b3MgZGUgc2VyIGVsIGNhc28sIGVuIGZvcm1hdG8gZGlnaXRhbCB5L28gZWxlY3Ryw7NuaWNvIHkgYXV0b3Jpem8gYSBsYSBVbml2ZXJzaWRhZCBkZSBsb3MgQW5kZXMgcGFyYSBxdWUgcmVhbGljZSBsYSBwdWJsaWNhY2nDs24gZW4gZWwgU2lzdGVtYSBkZSBCaWJsaW90ZWNhcyBvIGVuIGN1YWxxdWllciBvdHJvIHNpc3RlbWEgbyBiYXNlIGRlIGRhdG9zIHByb3BpbyBvIGFqZW5vIGEgbGEgVW5pdmVyc2lkYWQgeSBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBBbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCB1dGlsaWNlIGVuIHRvZGFzIHN1cyBmb3JtYXMsIGxvcyBkZXJlY2hvcyBwYXRyaW1vbmlhbGVzIGRlIHJlcHJvZHVjY2nDs24sIGNvbXVuaWNhY2nDs24gcMO6YmxpY2EsIHRyYW5zZm9ybWFjacOzbiB5IGRpc3RyaWJ1Y2nDs24gKGFscXVpbGVyLCBwcsOpc3RhbW8gcMO6YmxpY28gZSBpbXBvcnRhY2nDs24pIHF1ZSBtZSBjb3JyZXNwb25kZW4gY29tbyBjcmVhZG9yIGRlIGxhIG9icmEgb2JqZXRvIGRlbCBwcmVzZW50ZSBkb2N1bWVudG8uPC9wPgo8cD5MYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIHNlIGVtaXRlIGVuIGNhbGlkYWQgZGUgYXV0b3IgZGUgbGEgb2JyYSBvYmpldG8gZGVsIHByZXNlbnRlIGRvY3VtZW50byB5IG5vIGNvcnJlc3BvbmRlIGEgY2VzacOzbiBkZSBkZXJlY2hvcywgc2lubyBhIGxhIGF1dG9yaXphY2nDs24gZGUgdXNvIGFjYWTDqW1pY28gZGUgY29uZm9ybWlkYWQgY29uIGxvIGFudGVyaW9ybWVudGUgc2XDsWFsYWRvLiBMYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIHNlIGhhY2UgZXh0ZW5zaXZhIG5vIHNvbG8gYSBsYXMgZmFjdWx0YWRlcyB5IGRlcmVjaG9zIGRlIHVzbyBzb2JyZSBsYSBvYnJhIGVuIGZvcm1hdG8gbyBzb3BvcnRlIG1hdGVyaWFsLCBzaW5vIHRhbWJpw6luIHBhcmEgZm9ybWF0byBlbGVjdHLDs25pY28sIHkgZW4gZ2VuZXJhbCBwYXJhIGN1YWxxdWllciBmb3JtYXRvIGNvbm9jaWRvIG8gcG9yIGNvbm9jZXIuPC9wPgo8cD5FbCBhdXRvciwgbWFuaWZpZXN0YSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8sIGxhIG9icmEgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgbGEgbWlzbWEuPC9wPgo8cD5FbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgZWwgYXV0b3IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBkZSBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVbml2ZXJzaWRhZCBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlLjwvcD4KPHA+U2kgdGllbmUgYWxndW5hIGR1ZGEgc29icmUgbGEgbGljZW5jaWEsIHBvciBmYXZvciwgY29udGFjdGUgY29uIGVsIDxhIGhyZWY9Im1haWx0bzpiaWJsaW90ZWNhQHVuaWFuZGVzLmVkdS5jbyIgdGFyZ2V0PSJfYmxhbmsiPkFkbWluaXN0cmFkb3IgZGVsIFNpc3RlbWEuPC9hPjwvcD4K |