Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado

Este proyecto de grado tiene como objetivo desarrollar una metodología que permita, usando criterios estadísticos, realizar la búsqueda de una red neuronal que sea apropiada para resolver un problema dado en el contexto de Aprendizaje de Máquinas Supervisado. Así, partiendo de dos clases de problema...

Full description

Autores:
Rodríguez Ramírez, Mateo Alejandro
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2025
Institución:
Universidad de los Andes
Repositorio:
Séneca: repositorio Uniandes
Idioma:
spa
OAI Identifier:
oai:repositorio.uniandes.edu.co:1992/75964
Acceso en línea:
https://hdl.handle.net/1992/75964
Palabra clave:
Redes Neuronales
Consistencia Estadística
Selección Óptima de Modelos
Algoritmos
Metropolis-Hastings
Matemáticas
Rights
openAccess
License
Attribution-NonCommercial-NoDerivatives 4.0 International
id UNIANDES2_389490f094fa15fad892442de95d1037
oai_identifier_str oai:repositorio.uniandes.edu.co:1992/75964
network_acronym_str UNIANDES2
network_name_str Séneca: repositorio Uniandes
repository_id_str
dc.title.spa.fl_str_mv Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado
title Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado
spellingShingle Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado
Redes Neuronales
Consistencia Estadística
Selección Óptima de Modelos
Algoritmos
Metropolis-Hastings
Matemáticas
title_short Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado
title_full Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado
title_fullStr Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado
title_full_unstemmed Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado
title_sort Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado
dc.creator.fl_str_mv Rodríguez Ramírez, Mateo Alejandro
dc.contributor.advisor.none.fl_str_mv Quiroz Salazar, Adolfo José
dc.contributor.author.none.fl_str_mv Rodríguez Ramírez, Mateo Alejandro
dc.contributor.jury.none.fl_str_mv Goodrick, John Richard
dc.subject.keyword.spa.fl_str_mv Redes Neuronales
Consistencia Estadística
Selección Óptima de Modelos
Algoritmos
topic Redes Neuronales
Consistencia Estadística
Selección Óptima de Modelos
Algoritmos
Metropolis-Hastings
Matemáticas
dc.subject.keyword.none.fl_str_mv Metropolis-Hastings
dc.subject.themes.none.fl_str_mv Matemáticas
description Este proyecto de grado tiene como objetivo desarrollar una metodología que permita, usando criterios estadísticos, realizar la búsqueda de una red neuronal que sea apropiada para resolver un problema dado en el contexto de Aprendizaje de Máquinas Supervisado. Así, partiendo de dos clases de problemas en esta área, de Clasificación y de Regresión, se propondrán dos variantes del mismo método para dar un algoritmo que permita llevar a cabo esta tarea desde un enfoque novedoso. A grandes rasgos, la academia y la industria han concentrado sus esfuerzos en desarrollar técnicas que, dada una estructura de red neuronal, permitan hallar la función de pesos sobre esta estructura que mejor resuelve un problema particular. Sin embargo, esto limita al usuario, pues lo obliga a trabajar con una estructura de grafo fija desde un principio (i.e. la forma de la red neuronal), lo cual es justamente lo que se propone flexibilizar en este trabajo. Para lograr este objetivo, se expondrá una metodología de búsqueda que es computacionalmente eficiente para resolver los problemas de optimización en dos etapas que son de interés: dada una estructura de red encontrar la mejor función de pesos y encontrar la mejor estructura de red entre todas las factibles. Dicha optimización se basa enteramente en búsquedas realizadas con el algoritmo Metropolis-Hastings. Posteriormente se explicará cómo esta metodología permite lograr encontrar modelos, i.e. redes neuronales, que evitan el fenómeno de sobreajuste a los datos; entendiendo esto como una forma de consistencia estadística de la búsqueda que aproxima correctamente la idea de encontrar un “buen” modelo. Ahora, como también es de interés obtener modelos que no sean excesivamente grandes (por costos computacionales, de tiempo, almacenamiento, etc.), se requiere que la metodología balancee los costos y beneficios que se tienen cuando se elige un modelo. Así, para cada tipo de problema se propondrá un teorema que asegure esta consistencia y que sus características permitan que durante la búsqueda se penalicen modelos muy grandes para evitar elegirlos. Como se plantearán estos teoremas de consistencia para los problemas de Aprendizaje Supervisado, se tienen dos casos. En primer lugar, a partir de las ideas de Minimización del Riesgo Estructural en modelos de Clasificación, se han estudiado los teoremas relevantes para llegar resultados sobre el control del tamaño de los modelos basados en la selección de los mismos dentro de secuencias de clases de funciones de clasificación. En este caso, el foco se ha puesto en el estudio de la teoría de Vapnik-Chervonenkis, se ha logrado establecer un teorema que generaliza el Teorema de Riesgo Estructural que se trata en esta teoría. En segunda instancia, se ha realizado una búsqueda y comprensión de parte de la teoría propuesta por David Pollard, la cual generaliza las ideas de Vapnik-Chervonenkis a contextos como el de los problemas de Regresión. Para este caso, se logró obtener un teorema sobre cotas al estilo Vapnik-Chervonenkis y un teorema de Riesgo Estructural adaptado al contexto de este problema. Con los teoremas probados, se llegó a pequeños teoremas/corolarios sobre familias finitas de clases que aseguran una buena aproximación de la solución/modelo entregada por el algoritmo Metropolis-Hastings al mejor modelo que se puede encontrar dentro de las clases disponibles. Esto en términos de la consistencia universal, i.e. evitar el sobreajuste y por ende generalizar bien los datos de entrenamiento. Por último, se ha realizado una implementación del algoritmo Metropolis-Hastings en Python para realizar la búsqueda en los contextos propuestos. Dicha implementación se realizó sobre el paquete Keras y su objetivo es poder servir como herramienta para aquellas personas que quieran usar las ideas expuestas en sus proyectos propios.
publishDate 2025
dc.date.accessioned.none.fl_str_mv 2025-01-31T22:44:59Z
dc.date.available.none.fl_str_mv 2025-01-31T22:44:59Z
dc.date.issued.none.fl_str_mv 2025-01-29
dc.type.none.fl_str_mv Trabajo de grado - Pregrado
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.none.fl_str_mv Text
dc.type.redcol.none.fl_str_mv http://purl.org/redcol/resource_type/TP
format http://purl.org/coar/resource_type/c_7a1f
status_str acceptedVersion
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/1992/75964
dc.identifier.instname.none.fl_str_mv instname:Universidad de los Andes
dc.identifier.reponame.none.fl_str_mv reponame:Repositorio Institucional Séneca
dc.identifier.repourl.none.fl_str_mv repourl:https://repositorio.uniandes.edu.co/
url https://hdl.handle.net/1992/75964
identifier_str_mv instname:Universidad de los Andes
reponame:Repositorio Institucional Séneca
repourl:https://repositorio.uniandes.edu.co/
dc.language.iso.none.fl_str_mv spa
language spa
dc.relation.references.none.fl_str_mv P. Billingsley. Probability and Measure. Wiley Series in Probability and Statistics. Wiley, 1995. isbn: 9780471007104. url: https://books.google.com.co/books?id=z39jQgAACAAJ
Luc Devroye, László Gyorfi y Gábor Lugosi. A Probablistic Theory of Pattern Recognition. Vol. 31. Ene. de 1996. isbn: 978-1-4612-6877-2. doi: 10.1007/978-1-4612-0711-5
Steve Lalley. Markov Chains: Basic Theory. Non Published. 2016. url: https://galton.uchicago.edu/~lalley/Courses/312/MarkovChains.pdf
Angus Macintyre y Eduardo Sontag. Finiteness results for sigmoidal ”neural” networks. Págs. 325-334.
D. Pollard. Convergence of Stochastic Processes. Springer Series in Statistics. Springer New York, 1984. isbn: 9780387909905. url: https://books.google.com.co/books?id=B2vgGMa9vd4C
S.M. Ross. Simulation. Statistical modeling and decision science. Academic Press, 1997. isbn: 9780125984102. url: https://books.google.com.co/books?id=qyDvAAAAMAAJ
Jon A. Wellner. Empirical Processes in Statistics: Methods, Examples, Further Problems. Mar de 2002. url: https://sites.stat.washington.edu/jaw/RESEARCH/TALKS/talk2.pdf
dc.rights.en.fl_str_mv Attribution-NonCommercial-NoDerivatives 4.0 International
dc.rights.uri.none.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.coar.none.fl_str_mv http://purl.org/coar/access_right/c_abf2
rights_invalid_str_mv Attribution-NonCommercial-NoDerivatives 4.0 International
http://creativecommons.org/licenses/by-nc-nd/4.0/
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.none.fl_str_mv 45 páginas
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidad de los Andes
dc.publisher.program.none.fl_str_mv Matemáticas
dc.publisher.faculty.none.fl_str_mv Facultad de Ciencias
dc.publisher.department.none.fl_str_mv Departamento de Matemáticas
publisher.none.fl_str_mv Universidad de los Andes
institution Universidad de los Andes
bitstream.url.fl_str_mv https://repositorio.uniandes.edu.co/bitstreams/506f11eb-3d47-4090-b89c-6c02cea23ec5/download
https://repositorio.uniandes.edu.co/bitstreams/43ab11ed-024b-4bc4-9399-929c37e72c9a/download
https://repositorio.uniandes.edu.co/bitstreams/9fb500e8-af88-4015-a098-03c0932da5ae/download
https://repositorio.uniandes.edu.co/bitstreams/f89f5a08-0c64-4908-aeae-4c153c78f229/download
https://repositorio.uniandes.edu.co/bitstreams/c2f4d556-c10b-45e4-8aae-5f23861d369f/download
https://repositorio.uniandes.edu.co/bitstreams/5a9cdae7-7e13-41e3-a2a4-af3b59f76753/download
https://repositorio.uniandes.edu.co/bitstreams/c8853477-2d33-467a-a63a-5277c7f3987b/download
https://repositorio.uniandes.edu.co/bitstreams/add1e164-7eec-45a1-9d1b-424a87d85f87/download
bitstream.checksum.fl_str_mv 4460e5956bc1d1639be9ae6146a50347
ae9e573a68e7f92501b6913cc846c39f
6a70f2263fc0471f813c67fd7c21cd9d
a8a4d7c14e405e8d85b1e1035547859f
ccaa7eb47cbc37ca64f7b76b17e5bbf9
677a0aabe7decf16de35e3a9f5fb40f1
eb38b7ab0f8514f9164188ebdb0a033c
ce79ee50f0c6739145c11effd0aa2dc2
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio institucional Séneca
repository.mail.fl_str_mv adminrepositorio@uniandes.edu.co
_version_ 1831927738126041088
spelling Quiroz Salazar, Adolfo Josévirtual::23033-1Rodríguez Ramírez, Mateo AlejandroGoodrick, John Richard2025-01-31T22:44:59Z2025-01-31T22:44:59Z2025-01-29https://hdl.handle.net/1992/75964instname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/Este proyecto de grado tiene como objetivo desarrollar una metodología que permita, usando criterios estadísticos, realizar la búsqueda de una red neuronal que sea apropiada para resolver un problema dado en el contexto de Aprendizaje de Máquinas Supervisado. Así, partiendo de dos clases de problemas en esta área, de Clasificación y de Regresión, se propondrán dos variantes del mismo método para dar un algoritmo que permita llevar a cabo esta tarea desde un enfoque novedoso. A grandes rasgos, la academia y la industria han concentrado sus esfuerzos en desarrollar técnicas que, dada una estructura de red neuronal, permitan hallar la función de pesos sobre esta estructura que mejor resuelve un problema particular. Sin embargo, esto limita al usuario, pues lo obliga a trabajar con una estructura de grafo fija desde un principio (i.e. la forma de la red neuronal), lo cual es justamente lo que se propone flexibilizar en este trabajo. Para lograr este objetivo, se expondrá una metodología de búsqueda que es computacionalmente eficiente para resolver los problemas de optimización en dos etapas que son de interés: dada una estructura de red encontrar la mejor función de pesos y encontrar la mejor estructura de red entre todas las factibles. Dicha optimización se basa enteramente en búsquedas realizadas con el algoritmo Metropolis-Hastings. Posteriormente se explicará cómo esta metodología permite lograr encontrar modelos, i.e. redes neuronales, que evitan el fenómeno de sobreajuste a los datos; entendiendo esto como una forma de consistencia estadística de la búsqueda que aproxima correctamente la idea de encontrar un “buen” modelo. Ahora, como también es de interés obtener modelos que no sean excesivamente grandes (por costos computacionales, de tiempo, almacenamiento, etc.), se requiere que la metodología balancee los costos y beneficios que se tienen cuando se elige un modelo. Así, para cada tipo de problema se propondrá un teorema que asegure esta consistencia y que sus características permitan que durante la búsqueda se penalicen modelos muy grandes para evitar elegirlos. Como se plantearán estos teoremas de consistencia para los problemas de Aprendizaje Supervisado, se tienen dos casos. En primer lugar, a partir de las ideas de Minimización del Riesgo Estructural en modelos de Clasificación, se han estudiado los teoremas relevantes para llegar resultados sobre el control del tamaño de los modelos basados en la selección de los mismos dentro de secuencias de clases de funciones de clasificación. En este caso, el foco se ha puesto en el estudio de la teoría de Vapnik-Chervonenkis, se ha logrado establecer un teorema que generaliza el Teorema de Riesgo Estructural que se trata en esta teoría. En segunda instancia, se ha realizado una búsqueda y comprensión de parte de la teoría propuesta por David Pollard, la cual generaliza las ideas de Vapnik-Chervonenkis a contextos como el de los problemas de Regresión. Para este caso, se logró obtener un teorema sobre cotas al estilo Vapnik-Chervonenkis y un teorema de Riesgo Estructural adaptado al contexto de este problema. Con los teoremas probados, se llegó a pequeños teoremas/corolarios sobre familias finitas de clases que aseguran una buena aproximación de la solución/modelo entregada por el algoritmo Metropolis-Hastings al mejor modelo que se puede encontrar dentro de las clases disponibles. Esto en términos de la consistencia universal, i.e. evitar el sobreajuste y por ende generalizar bien los datos de entrenamiento. Por último, se ha realizado una implementación del algoritmo Metropolis-Hastings en Python para realizar la búsqueda en los contextos propuestos. Dicha implementación se realizó sobre el paquete Keras y su objetivo es poder servir como herramienta para aquellas personas que quieran usar las ideas expuestas en sus proyectos propios.Pregrado45 páginasapplication/pdfspaUniversidad de los AndesMatemáticasFacultad de CienciasDepartamento de MatemáticasAttribution-NonCommercial-NoDerivatives 4.0 Internationalhttp://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisadoTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1fTexthttp://purl.org/redcol/resource_type/TPRedes NeuronalesConsistencia EstadísticaSelección Óptima de ModelosAlgoritmosMetropolis-HastingsMatemáticasP. Billingsley. Probability and Measure. Wiley Series in Probability and Statistics. Wiley, 1995. isbn: 9780471007104. url: https://books.google.com.co/books?id=z39jQgAACAAJLuc Devroye, László Gyorfi y Gábor Lugosi. A Probablistic Theory of Pattern Recognition. Vol. 31. Ene. de 1996. isbn: 978-1-4612-6877-2. doi: 10.1007/978-1-4612-0711-5Steve Lalley. Markov Chains: Basic Theory. Non Published. 2016. url: https://galton.uchicago.edu/~lalley/Courses/312/MarkovChains.pdfAngus Macintyre y Eduardo Sontag. Finiteness results for sigmoidal ”neural” networks. Págs. 325-334.D. Pollard. Convergence of Stochastic Processes. Springer Series in Statistics. Springer New York, 1984. isbn: 9780387909905. url: https://books.google.com.co/books?id=B2vgGMa9vd4CS.M. Ross. Simulation. Statistical modeling and decision science. Academic Press, 1997. isbn: 9780125984102. url: https://books.google.com.co/books?id=qyDvAAAAMAAJJon A. Wellner. Empirical Processes in Statistics: Methods, Examples, Further Problems. Mar de 2002. url: https://sites.stat.washington.edu/jaw/RESEARCH/TALKS/talk2.pdf201719395Publicationhttps://scholar.google.es/citations?user=qwMDh-4AAAAJvirtual::23033-1https://scholar.google.es/citations?user=qwMDh-4AAAAJ0000-0003-4033-3400virtual::23033-10000-0003-4033-3400https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001497101virtual::23033-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=00014971011be19e5b-39c2-4d92-b44f-b9b4a48991cavirtual::23033-11be19e5b-39c2-4d92-b44f-b9b4a48991ca1be19e5b-39c2-4d92-b44f-b9b4a48991cavirtual::23033-1CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8805https://repositorio.uniandes.edu.co/bitstreams/506f11eb-3d47-4090-b89c-6c02cea23ec5/download4460e5956bc1d1639be9ae6146a50347MD51LICENSElicense.txtlicense.txttext/plain; charset=utf-82535https://repositorio.uniandes.edu.co/bitstreams/43ab11ed-024b-4bc4-9399-929c37e72c9a/downloadae9e573a68e7f92501b6913cc846c39fMD52ORIGINALBúsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado.pdfBúsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado.pdfapplication/pdf502128https://repositorio.uniandes.edu.co/bitstreams/9fb500e8-af88-4015-a098-03c0932da5ae/download6a70f2263fc0471f813c67fd7c21cd9dMD53Autorización_Tesis_Mateo_Rodriguez_201719395 firmado.pdfAutorización_Tesis_Mateo_Rodriguez_201719395 firmado.pdfHIDEapplication/pdf375513https://repositorio.uniandes.edu.co/bitstreams/f89f5a08-0c64-4908-aeae-4c153c78f229/downloada8a4d7c14e405e8d85b1e1035547859fMD55TEXTBúsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado.pdf.txtBúsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado.pdf.txtExtracted texttext/plain105539https://repositorio.uniandes.edu.co/bitstreams/c2f4d556-c10b-45e4-8aae-5f23861d369f/downloadccaa7eb47cbc37ca64f7b76b17e5bbf9MD56Autorización_Tesis_Mateo_Rodriguez_201719395 firmado.pdf.txtAutorización_Tesis_Mateo_Rodriguez_201719395 firmado.pdf.txtExtracted texttext/plain1991https://repositorio.uniandes.edu.co/bitstreams/5a9cdae7-7e13-41e3-a2a4-af3b59f76753/download677a0aabe7decf16de35e3a9f5fb40f1MD58THUMBNAILBúsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado.pdf.jpgBúsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado.pdf.jpgGenerated Thumbnailimage/jpeg5375https://repositorio.uniandes.edu.co/bitstreams/c8853477-2d33-467a-a63a-5277c7f3987b/downloadeb38b7ab0f8514f9164188ebdb0a033cMD57Autorización_Tesis_Mateo_Rodriguez_201719395 firmado.pdf.jpgAutorización_Tesis_Mateo_Rodriguez_201719395 firmado.pdf.jpgGenerated Thumbnailimage/jpeg10810https://repositorio.uniandes.edu.co/bitstreams/add1e164-7eec-45a1-9d1b-424a87d85f87/downloadce79ee50f0c6739145c11effd0aa2dc2MD591992/75964oai:repositorio.uniandes.edu.co:1992/759642025-03-05 09:40:36.153http://creativecommons.org/licenses/by-nc-nd/4.0/Attribution-NonCommercial-NoDerivatives 4.0 Internationalopen.accesshttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.coPGgzPjxzdHJvbmc+RGVzY2FyZ28gZGUgUmVzcG9uc2FiaWxpZGFkIC0gTGljZW5jaWEgZGUgQXV0b3JpemFjacOzbjwvc3Ryb25nPjwvaDM+CjxwPjxzdHJvbmc+UG9yIGZhdm9yIGxlZXIgYXRlbnRhbWVudGUgZXN0ZSBkb2N1bWVudG8gcXVlIHBlcm1pdGUgYWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBTw6luZWNhIHJlcHJvZHVjaXIgeSBkaXN0cmlidWlyIGxvcyByZWN1cnNvcyBkZSBpbmZvcm1hY2nDs24gZGVwb3NpdGFkb3MgbWVkaWFudGUgbGEgYXV0b3JpemFjacOzbiBkZSBsb3Mgc2lndWllbnRlcyB0w6lybWlub3M6PC9zdHJvbmc+PC9wPgo8cD5Db25jZWRhIGxhIGxpY2VuY2lhIGRlIGRlcMOzc2l0byBlc3TDoW5kYXIgc2VsZWNjaW9uYW5kbyBsYSBvcGNpw7NuIDxzdHJvbmc+J0FjZXB0YXIgbG9zIHTDqXJtaW5vcyBhbnRlcmlvcm1lbnRlIGRlc2NyaXRvcyc8L3N0cm9uZz4geSBjb250aW51YXIgZWwgcHJvY2VzbyBkZSBlbnbDrW8gbWVkaWFudGUgZWwgYm90w7NuIDxzdHJvbmc+J1NpZ3VpZW50ZScuPC9zdHJvbmc+PC9wPgo8aHI+CjxwPllvLCBlbiBtaSBjYWxpZGFkIGRlIGF1dG9yIGRlbCB0cmFiYWpvIGRlIHRlc2lzLCBtb25vZ3JhZsOtYSBvIHRyYWJham8gZGUgZ3JhZG8sIGhhZ28gZW50cmVnYSBkZWwgZWplbXBsYXIgcmVzcGVjdGl2byB5IGRlIHN1cyBhbmV4b3MgZGUgc2VyIGVsIGNhc28sIGVuIGZvcm1hdG8gZGlnaXRhbCB5L28gZWxlY3Ryw7NuaWNvIHkgYXV0b3Jpem8gYSBsYSBVbml2ZXJzaWRhZCBkZSBsb3MgQW5kZXMgcGFyYSBxdWUgcmVhbGljZSBsYSBwdWJsaWNhY2nDs24gZW4gZWwgU2lzdGVtYSBkZSBCaWJsaW90ZWNhcyBvIGVuIGN1YWxxdWllciBvdHJvIHNpc3RlbWEgbyBiYXNlIGRlIGRhdG9zIHByb3BpbyBvIGFqZW5vIGEgbGEgVW5pdmVyc2lkYWQgeSBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBBbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCB1dGlsaWNlIGVuIHRvZGFzIHN1cyBmb3JtYXMsIGxvcyBkZXJlY2hvcyBwYXRyaW1vbmlhbGVzIGRlIHJlcHJvZHVjY2nDs24sIGNvbXVuaWNhY2nDs24gcMO6YmxpY2EsIHRyYW5zZm9ybWFjacOzbiB5IGRpc3RyaWJ1Y2nDs24gKGFscXVpbGVyLCBwcsOpc3RhbW8gcMO6YmxpY28gZSBpbXBvcnRhY2nDs24pIHF1ZSBtZSBjb3JyZXNwb25kZW4gY29tbyBjcmVhZG9yIGRlIGxhIG9icmEgb2JqZXRvIGRlbCBwcmVzZW50ZSBkb2N1bWVudG8uPC9wPgo8cD5MYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIHNlIGVtaXRlIGVuIGNhbGlkYWQgZGUgYXV0b3IgZGUgbGEgb2JyYSBvYmpldG8gZGVsIHByZXNlbnRlIGRvY3VtZW50byB5IG5vIGNvcnJlc3BvbmRlIGEgY2VzacOzbiBkZSBkZXJlY2hvcywgc2lubyBhIGxhIGF1dG9yaXphY2nDs24gZGUgdXNvIGFjYWTDqW1pY28gZGUgY29uZm9ybWlkYWQgY29uIGxvIGFudGVyaW9ybWVudGUgc2XDsWFsYWRvLiBMYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIHNlIGhhY2UgZXh0ZW5zaXZhIG5vIHNvbG8gYSBsYXMgZmFjdWx0YWRlcyB5IGRlcmVjaG9zIGRlIHVzbyBzb2JyZSBsYSBvYnJhIGVuIGZvcm1hdG8gbyBzb3BvcnRlIG1hdGVyaWFsLCBzaW5vIHRhbWJpw6luIHBhcmEgZm9ybWF0byBlbGVjdHLDs25pY28sIHkgZW4gZ2VuZXJhbCBwYXJhIGN1YWxxdWllciBmb3JtYXRvIGNvbm9jaWRvIG8gcG9yIGNvbm9jZXIuPC9wPgo8cD5FbCBhdXRvciwgbWFuaWZpZXN0YSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8sIGxhIG9icmEgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgbGEgbWlzbWEuPC9wPgo8cD5FbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgZWwgYXV0b3IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBkZSBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVbml2ZXJzaWRhZCBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlLjwvcD4KPHA+U2kgdGllbmUgYWxndW5hIGR1ZGEgc29icmUgbGEgbGljZW5jaWEsIHBvciBmYXZvciwgY29udGFjdGUgY29uIGVsIDxhIGhyZWY9Im1haWx0bzpiaWJsaW90ZWNhQHVuaWFuZGVzLmVkdS5jbyIgdGFyZ2V0PSJfYmxhbmsiPkFkbWluaXN0cmFkb3IgZGVsIFNpc3RlbWEuPC9hPjwvcD4K