Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado
Este proyecto de grado tiene como objetivo desarrollar una metodología que permita, usando criterios estadísticos, realizar la búsqueda de una red neuronal que sea apropiada para resolver un problema dado en el contexto de Aprendizaje de Máquinas Supervisado. Así, partiendo de dos clases de problema...
- Autores:
-
Rodríguez Ramírez, Mateo Alejandro
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2025
- Institución:
- Universidad de los Andes
- Repositorio:
- Séneca: repositorio Uniandes
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.uniandes.edu.co:1992/75964
- Acceso en línea:
- https://hdl.handle.net/1992/75964
- Palabra clave:
- Redes Neuronales
Consistencia Estadística
Selección Óptima de Modelos
Algoritmos
Metropolis-Hastings
Matemáticas
- Rights
- openAccess
- License
- Attribution-NonCommercial-NoDerivatives 4.0 International
id |
UNIANDES2_389490f094fa15fad892442de95d1037 |
---|---|
oai_identifier_str |
oai:repositorio.uniandes.edu.co:1992/75964 |
network_acronym_str |
UNIANDES2 |
network_name_str |
Séneca: repositorio Uniandes |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado |
title |
Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado |
spellingShingle |
Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado Redes Neuronales Consistencia Estadística Selección Óptima de Modelos Algoritmos Metropolis-Hastings Matemáticas |
title_short |
Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado |
title_full |
Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado |
title_fullStr |
Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado |
title_full_unstemmed |
Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado |
title_sort |
Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado |
dc.creator.fl_str_mv |
Rodríguez Ramírez, Mateo Alejandro |
dc.contributor.advisor.none.fl_str_mv |
Quiroz Salazar, Adolfo José |
dc.contributor.author.none.fl_str_mv |
Rodríguez Ramírez, Mateo Alejandro |
dc.contributor.jury.none.fl_str_mv |
Goodrick, John Richard |
dc.subject.keyword.spa.fl_str_mv |
Redes Neuronales Consistencia Estadística Selección Óptima de Modelos Algoritmos |
topic |
Redes Neuronales Consistencia Estadística Selección Óptima de Modelos Algoritmos Metropolis-Hastings Matemáticas |
dc.subject.keyword.none.fl_str_mv |
Metropolis-Hastings |
dc.subject.themes.none.fl_str_mv |
Matemáticas |
description |
Este proyecto de grado tiene como objetivo desarrollar una metodología que permita, usando criterios estadísticos, realizar la búsqueda de una red neuronal que sea apropiada para resolver un problema dado en el contexto de Aprendizaje de Máquinas Supervisado. Así, partiendo de dos clases de problemas en esta área, de Clasificación y de Regresión, se propondrán dos variantes del mismo método para dar un algoritmo que permita llevar a cabo esta tarea desde un enfoque novedoso. A grandes rasgos, la academia y la industria han concentrado sus esfuerzos en desarrollar técnicas que, dada una estructura de red neuronal, permitan hallar la función de pesos sobre esta estructura que mejor resuelve un problema particular. Sin embargo, esto limita al usuario, pues lo obliga a trabajar con una estructura de grafo fija desde un principio (i.e. la forma de la red neuronal), lo cual es justamente lo que se propone flexibilizar en este trabajo. Para lograr este objetivo, se expondrá una metodología de búsqueda que es computacionalmente eficiente para resolver los problemas de optimización en dos etapas que son de interés: dada una estructura de red encontrar la mejor función de pesos y encontrar la mejor estructura de red entre todas las factibles. Dicha optimización se basa enteramente en búsquedas realizadas con el algoritmo Metropolis-Hastings. Posteriormente se explicará cómo esta metodología permite lograr encontrar modelos, i.e. redes neuronales, que evitan el fenómeno de sobreajuste a los datos; entendiendo esto como una forma de consistencia estadística de la búsqueda que aproxima correctamente la idea de encontrar un “buen” modelo. Ahora, como también es de interés obtener modelos que no sean excesivamente grandes (por costos computacionales, de tiempo, almacenamiento, etc.), se requiere que la metodología balancee los costos y beneficios que se tienen cuando se elige un modelo. Así, para cada tipo de problema se propondrá un teorema que asegure esta consistencia y que sus características permitan que durante la búsqueda se penalicen modelos muy grandes para evitar elegirlos. Como se plantearán estos teoremas de consistencia para los problemas de Aprendizaje Supervisado, se tienen dos casos. En primer lugar, a partir de las ideas de Minimización del Riesgo Estructural en modelos de Clasificación, se han estudiado los teoremas relevantes para llegar resultados sobre el control del tamaño de los modelos basados en la selección de los mismos dentro de secuencias de clases de funciones de clasificación. En este caso, el foco se ha puesto en el estudio de la teoría de Vapnik-Chervonenkis, se ha logrado establecer un teorema que generaliza el Teorema de Riesgo Estructural que se trata en esta teoría. En segunda instancia, se ha realizado una búsqueda y comprensión de parte de la teoría propuesta por David Pollard, la cual generaliza las ideas de Vapnik-Chervonenkis a contextos como el de los problemas de Regresión. Para este caso, se logró obtener un teorema sobre cotas al estilo Vapnik-Chervonenkis y un teorema de Riesgo Estructural adaptado al contexto de este problema. Con los teoremas probados, se llegó a pequeños teoremas/corolarios sobre familias finitas de clases que aseguran una buena aproximación de la solución/modelo entregada por el algoritmo Metropolis-Hastings al mejor modelo que se puede encontrar dentro de las clases disponibles. Esto en términos de la consistencia universal, i.e. evitar el sobreajuste y por ende generalizar bien los datos de entrenamiento. Por último, se ha realizado una implementación del algoritmo Metropolis-Hastings en Python para realizar la búsqueda en los contextos propuestos. Dicha implementación se realizó sobre el paquete Keras y su objetivo es poder servir como herramienta para aquellas personas que quieran usar las ideas expuestas en sus proyectos propios. |
publishDate |
2025 |
dc.date.accessioned.none.fl_str_mv |
2025-01-31T22:44:59Z |
dc.date.available.none.fl_str_mv |
2025-01-31T22:44:59Z |
dc.date.issued.none.fl_str_mv |
2025-01-29 |
dc.type.none.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.none.fl_str_mv |
Text |
dc.type.redcol.none.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/1992/75964 |
dc.identifier.instname.none.fl_str_mv |
instname:Universidad de los Andes |
dc.identifier.reponame.none.fl_str_mv |
reponame:Repositorio Institucional Séneca |
dc.identifier.repourl.none.fl_str_mv |
repourl:https://repositorio.uniandes.edu.co/ |
url |
https://hdl.handle.net/1992/75964 |
identifier_str_mv |
instname:Universidad de los Andes reponame:Repositorio Institucional Séneca repourl:https://repositorio.uniandes.edu.co/ |
dc.language.iso.none.fl_str_mv |
spa |
language |
spa |
dc.relation.references.none.fl_str_mv |
P. Billingsley. Probability and Measure. Wiley Series in Probability and Statistics. Wiley, 1995. isbn: 9780471007104. url: https://books.google.com.co/books?id=z39jQgAACAAJ Luc Devroye, László Gyorfi y Gábor Lugosi. A Probablistic Theory of Pattern Recognition. Vol. 31. Ene. de 1996. isbn: 978-1-4612-6877-2. doi: 10.1007/978-1-4612-0711-5 Steve Lalley. Markov Chains: Basic Theory. Non Published. 2016. url: https://galton.uchicago.edu/~lalley/Courses/312/MarkovChains.pdf Angus Macintyre y Eduardo Sontag. Finiteness results for sigmoidal ”neural” networks. Págs. 325-334. D. Pollard. Convergence of Stochastic Processes. Springer Series in Statistics. Springer New York, 1984. isbn: 9780387909905. url: https://books.google.com.co/books?id=B2vgGMa9vd4C S.M. Ross. Simulation. Statistical modeling and decision science. Academic Press, 1997. isbn: 9780125984102. url: https://books.google.com.co/books?id=qyDvAAAAMAAJ Jon A. Wellner. Empirical Processes in Statistics: Methods, Examples, Further Problems. Mar de 2002. url: https://sites.stat.washington.edu/jaw/RESEARCH/TALKS/talk2.pdf |
dc.rights.en.fl_str_mv |
Attribution-NonCommercial-NoDerivatives 4.0 International |
dc.rights.uri.none.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0/ |
dc.rights.accessrights.none.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.none.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
Attribution-NonCommercial-NoDerivatives 4.0 International http://creativecommons.org/licenses/by-nc-nd/4.0/ http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.extent.none.fl_str_mv |
45 páginas |
dc.format.mimetype.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidad de los Andes |
dc.publisher.program.none.fl_str_mv |
Matemáticas |
dc.publisher.faculty.none.fl_str_mv |
Facultad de Ciencias |
dc.publisher.department.none.fl_str_mv |
Departamento de Matemáticas |
publisher.none.fl_str_mv |
Universidad de los Andes |
institution |
Universidad de los Andes |
bitstream.url.fl_str_mv |
https://repositorio.uniandes.edu.co/bitstreams/506f11eb-3d47-4090-b89c-6c02cea23ec5/download https://repositorio.uniandes.edu.co/bitstreams/43ab11ed-024b-4bc4-9399-929c37e72c9a/download https://repositorio.uniandes.edu.co/bitstreams/9fb500e8-af88-4015-a098-03c0932da5ae/download https://repositorio.uniandes.edu.co/bitstreams/f89f5a08-0c64-4908-aeae-4c153c78f229/download https://repositorio.uniandes.edu.co/bitstreams/c2f4d556-c10b-45e4-8aae-5f23861d369f/download https://repositorio.uniandes.edu.co/bitstreams/5a9cdae7-7e13-41e3-a2a4-af3b59f76753/download https://repositorio.uniandes.edu.co/bitstreams/c8853477-2d33-467a-a63a-5277c7f3987b/download https://repositorio.uniandes.edu.co/bitstreams/add1e164-7eec-45a1-9d1b-424a87d85f87/download |
bitstream.checksum.fl_str_mv |
4460e5956bc1d1639be9ae6146a50347 ae9e573a68e7f92501b6913cc846c39f 6a70f2263fc0471f813c67fd7c21cd9d a8a4d7c14e405e8d85b1e1035547859f ccaa7eb47cbc37ca64f7b76b17e5bbf9 677a0aabe7decf16de35e3a9f5fb40f1 eb38b7ab0f8514f9164188ebdb0a033c ce79ee50f0c6739145c11effd0aa2dc2 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio institucional Séneca |
repository.mail.fl_str_mv |
adminrepositorio@uniandes.edu.co |
_version_ |
1831927738126041088 |
spelling |
Quiroz Salazar, Adolfo Josévirtual::23033-1Rodríguez Ramírez, Mateo AlejandroGoodrick, John Richard2025-01-31T22:44:59Z2025-01-31T22:44:59Z2025-01-29https://hdl.handle.net/1992/75964instname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/Este proyecto de grado tiene como objetivo desarrollar una metodología que permita, usando criterios estadísticos, realizar la búsqueda de una red neuronal que sea apropiada para resolver un problema dado en el contexto de Aprendizaje de Máquinas Supervisado. Así, partiendo de dos clases de problemas en esta área, de Clasificación y de Regresión, se propondrán dos variantes del mismo método para dar un algoritmo que permita llevar a cabo esta tarea desde un enfoque novedoso. A grandes rasgos, la academia y la industria han concentrado sus esfuerzos en desarrollar técnicas que, dada una estructura de red neuronal, permitan hallar la función de pesos sobre esta estructura que mejor resuelve un problema particular. Sin embargo, esto limita al usuario, pues lo obliga a trabajar con una estructura de grafo fija desde un principio (i.e. la forma de la red neuronal), lo cual es justamente lo que se propone flexibilizar en este trabajo. Para lograr este objetivo, se expondrá una metodología de búsqueda que es computacionalmente eficiente para resolver los problemas de optimización en dos etapas que son de interés: dada una estructura de red encontrar la mejor función de pesos y encontrar la mejor estructura de red entre todas las factibles. Dicha optimización se basa enteramente en búsquedas realizadas con el algoritmo Metropolis-Hastings. Posteriormente se explicará cómo esta metodología permite lograr encontrar modelos, i.e. redes neuronales, que evitan el fenómeno de sobreajuste a los datos; entendiendo esto como una forma de consistencia estadística de la búsqueda que aproxima correctamente la idea de encontrar un “buen” modelo. Ahora, como también es de interés obtener modelos que no sean excesivamente grandes (por costos computacionales, de tiempo, almacenamiento, etc.), se requiere que la metodología balancee los costos y beneficios que se tienen cuando se elige un modelo. Así, para cada tipo de problema se propondrá un teorema que asegure esta consistencia y que sus características permitan que durante la búsqueda se penalicen modelos muy grandes para evitar elegirlos. Como se plantearán estos teoremas de consistencia para los problemas de Aprendizaje Supervisado, se tienen dos casos. En primer lugar, a partir de las ideas de Minimización del Riesgo Estructural en modelos de Clasificación, se han estudiado los teoremas relevantes para llegar resultados sobre el control del tamaño de los modelos basados en la selección de los mismos dentro de secuencias de clases de funciones de clasificación. En este caso, el foco se ha puesto en el estudio de la teoría de Vapnik-Chervonenkis, se ha logrado establecer un teorema que generaliza el Teorema de Riesgo Estructural que se trata en esta teoría. En segunda instancia, se ha realizado una búsqueda y comprensión de parte de la teoría propuesta por David Pollard, la cual generaliza las ideas de Vapnik-Chervonenkis a contextos como el de los problemas de Regresión. Para este caso, se logró obtener un teorema sobre cotas al estilo Vapnik-Chervonenkis y un teorema de Riesgo Estructural adaptado al contexto de este problema. Con los teoremas probados, se llegó a pequeños teoremas/corolarios sobre familias finitas de clases que aseguran una buena aproximación de la solución/modelo entregada por el algoritmo Metropolis-Hastings al mejor modelo que se puede encontrar dentro de las clases disponibles. Esto en términos de la consistencia universal, i.e. evitar el sobreajuste y por ende generalizar bien los datos de entrenamiento. Por último, se ha realizado una implementación del algoritmo Metropolis-Hastings en Python para realizar la búsqueda en los contextos propuestos. Dicha implementación se realizó sobre el paquete Keras y su objetivo es poder servir como herramienta para aquellas personas que quieran usar las ideas expuestas en sus proyectos propios.Pregrado45 páginasapplication/pdfspaUniversidad de los AndesMatemáticasFacultad de CienciasDepartamento de MatemáticasAttribution-NonCommercial-NoDerivatives 4.0 Internationalhttp://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Búsqueda óptima de redes neuronales en el contexto de aprendizaje supervisadoTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1fTexthttp://purl.org/redcol/resource_type/TPRedes NeuronalesConsistencia EstadísticaSelección Óptima de ModelosAlgoritmosMetropolis-HastingsMatemáticasP. Billingsley. Probability and Measure. Wiley Series in Probability and Statistics. Wiley, 1995. isbn: 9780471007104. url: https://books.google.com.co/books?id=z39jQgAACAAJLuc Devroye, László Gyorfi y Gábor Lugosi. A Probablistic Theory of Pattern Recognition. Vol. 31. Ene. de 1996. isbn: 978-1-4612-6877-2. doi: 10.1007/978-1-4612-0711-5Steve Lalley. Markov Chains: Basic Theory. Non Published. 2016. url: https://galton.uchicago.edu/~lalley/Courses/312/MarkovChains.pdfAngus Macintyre y Eduardo Sontag. Finiteness results for sigmoidal ”neural” networks. Págs. 325-334.D. Pollard. Convergence of Stochastic Processes. Springer Series in Statistics. Springer New York, 1984. isbn: 9780387909905. url: https://books.google.com.co/books?id=B2vgGMa9vd4CS.M. Ross. Simulation. Statistical modeling and decision science. Academic Press, 1997. isbn: 9780125984102. url: https://books.google.com.co/books?id=qyDvAAAAMAAJJon A. Wellner. Empirical Processes in Statistics: Methods, Examples, Further Problems. Mar de 2002. url: https://sites.stat.washington.edu/jaw/RESEARCH/TALKS/talk2.pdf201719395Publicationhttps://scholar.google.es/citations?user=qwMDh-4AAAAJvirtual::23033-1https://scholar.google.es/citations?user=qwMDh-4AAAAJ0000-0003-4033-3400virtual::23033-10000-0003-4033-3400https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001497101virtual::23033-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=00014971011be19e5b-39c2-4d92-b44f-b9b4a48991cavirtual::23033-11be19e5b-39c2-4d92-b44f-b9b4a48991ca1be19e5b-39c2-4d92-b44f-b9b4a48991cavirtual::23033-1CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8805https://repositorio.uniandes.edu.co/bitstreams/506f11eb-3d47-4090-b89c-6c02cea23ec5/download4460e5956bc1d1639be9ae6146a50347MD51LICENSElicense.txtlicense.txttext/plain; charset=utf-82535https://repositorio.uniandes.edu.co/bitstreams/43ab11ed-024b-4bc4-9399-929c37e72c9a/downloadae9e573a68e7f92501b6913cc846c39fMD52ORIGINALBúsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado.pdfBúsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado.pdfapplication/pdf502128https://repositorio.uniandes.edu.co/bitstreams/9fb500e8-af88-4015-a098-03c0932da5ae/download6a70f2263fc0471f813c67fd7c21cd9dMD53Autorización_Tesis_Mateo_Rodriguez_201719395 firmado.pdfAutorización_Tesis_Mateo_Rodriguez_201719395 firmado.pdfHIDEapplication/pdf375513https://repositorio.uniandes.edu.co/bitstreams/f89f5a08-0c64-4908-aeae-4c153c78f229/downloada8a4d7c14e405e8d85b1e1035547859fMD55TEXTBúsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado.pdf.txtBúsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado.pdf.txtExtracted texttext/plain105539https://repositorio.uniandes.edu.co/bitstreams/c2f4d556-c10b-45e4-8aae-5f23861d369f/downloadccaa7eb47cbc37ca64f7b76b17e5bbf9MD56Autorización_Tesis_Mateo_Rodriguez_201719395 firmado.pdf.txtAutorización_Tesis_Mateo_Rodriguez_201719395 firmado.pdf.txtExtracted texttext/plain1991https://repositorio.uniandes.edu.co/bitstreams/5a9cdae7-7e13-41e3-a2a4-af3b59f76753/download677a0aabe7decf16de35e3a9f5fb40f1MD58THUMBNAILBúsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado.pdf.jpgBúsqueda óptima de redes neuronales en el contexto de aprendizaje supervisado.pdf.jpgGenerated Thumbnailimage/jpeg5375https://repositorio.uniandes.edu.co/bitstreams/c8853477-2d33-467a-a63a-5277c7f3987b/downloadeb38b7ab0f8514f9164188ebdb0a033cMD57Autorización_Tesis_Mateo_Rodriguez_201719395 firmado.pdf.jpgAutorización_Tesis_Mateo_Rodriguez_201719395 firmado.pdf.jpgGenerated Thumbnailimage/jpeg10810https://repositorio.uniandes.edu.co/bitstreams/add1e164-7eec-45a1-9d1b-424a87d85f87/downloadce79ee50f0c6739145c11effd0aa2dc2MD591992/75964oai:repositorio.uniandes.edu.co:1992/759642025-03-05 09:40:36.153http://creativecommons.org/licenses/by-nc-nd/4.0/Attribution-NonCommercial-NoDerivatives 4.0 Internationalopen.accesshttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.coPGgzPjxzdHJvbmc+RGVzY2FyZ28gZGUgUmVzcG9uc2FiaWxpZGFkIC0gTGljZW5jaWEgZGUgQXV0b3JpemFjacOzbjwvc3Ryb25nPjwvaDM+CjxwPjxzdHJvbmc+UG9yIGZhdm9yIGxlZXIgYXRlbnRhbWVudGUgZXN0ZSBkb2N1bWVudG8gcXVlIHBlcm1pdGUgYWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBTw6luZWNhIHJlcHJvZHVjaXIgeSBkaXN0cmlidWlyIGxvcyByZWN1cnNvcyBkZSBpbmZvcm1hY2nDs24gZGVwb3NpdGFkb3MgbWVkaWFudGUgbGEgYXV0b3JpemFjacOzbiBkZSBsb3Mgc2lndWllbnRlcyB0w6lybWlub3M6PC9zdHJvbmc+PC9wPgo8cD5Db25jZWRhIGxhIGxpY2VuY2lhIGRlIGRlcMOzc2l0byBlc3TDoW5kYXIgc2VsZWNjaW9uYW5kbyBsYSBvcGNpw7NuIDxzdHJvbmc+J0FjZXB0YXIgbG9zIHTDqXJtaW5vcyBhbnRlcmlvcm1lbnRlIGRlc2NyaXRvcyc8L3N0cm9uZz4geSBjb250aW51YXIgZWwgcHJvY2VzbyBkZSBlbnbDrW8gbWVkaWFudGUgZWwgYm90w7NuIDxzdHJvbmc+J1NpZ3VpZW50ZScuPC9zdHJvbmc+PC9wPgo8aHI+CjxwPllvLCBlbiBtaSBjYWxpZGFkIGRlIGF1dG9yIGRlbCB0cmFiYWpvIGRlIHRlc2lzLCBtb25vZ3JhZsOtYSBvIHRyYWJham8gZGUgZ3JhZG8sIGhhZ28gZW50cmVnYSBkZWwgZWplbXBsYXIgcmVzcGVjdGl2byB5IGRlIHN1cyBhbmV4b3MgZGUgc2VyIGVsIGNhc28sIGVuIGZvcm1hdG8gZGlnaXRhbCB5L28gZWxlY3Ryw7NuaWNvIHkgYXV0b3Jpem8gYSBsYSBVbml2ZXJzaWRhZCBkZSBsb3MgQW5kZXMgcGFyYSBxdWUgcmVhbGljZSBsYSBwdWJsaWNhY2nDs24gZW4gZWwgU2lzdGVtYSBkZSBCaWJsaW90ZWNhcyBvIGVuIGN1YWxxdWllciBvdHJvIHNpc3RlbWEgbyBiYXNlIGRlIGRhdG9zIHByb3BpbyBvIGFqZW5vIGEgbGEgVW5pdmVyc2lkYWQgeSBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBBbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCB1dGlsaWNlIGVuIHRvZGFzIHN1cyBmb3JtYXMsIGxvcyBkZXJlY2hvcyBwYXRyaW1vbmlhbGVzIGRlIHJlcHJvZHVjY2nDs24sIGNvbXVuaWNhY2nDs24gcMO6YmxpY2EsIHRyYW5zZm9ybWFjacOzbiB5IGRpc3RyaWJ1Y2nDs24gKGFscXVpbGVyLCBwcsOpc3RhbW8gcMO6YmxpY28gZSBpbXBvcnRhY2nDs24pIHF1ZSBtZSBjb3JyZXNwb25kZW4gY29tbyBjcmVhZG9yIGRlIGxhIG9icmEgb2JqZXRvIGRlbCBwcmVzZW50ZSBkb2N1bWVudG8uPC9wPgo8cD5MYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIHNlIGVtaXRlIGVuIGNhbGlkYWQgZGUgYXV0b3IgZGUgbGEgb2JyYSBvYmpldG8gZGVsIHByZXNlbnRlIGRvY3VtZW50byB5IG5vIGNvcnJlc3BvbmRlIGEgY2VzacOzbiBkZSBkZXJlY2hvcywgc2lubyBhIGxhIGF1dG9yaXphY2nDs24gZGUgdXNvIGFjYWTDqW1pY28gZGUgY29uZm9ybWlkYWQgY29uIGxvIGFudGVyaW9ybWVudGUgc2XDsWFsYWRvLiBMYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIHNlIGhhY2UgZXh0ZW5zaXZhIG5vIHNvbG8gYSBsYXMgZmFjdWx0YWRlcyB5IGRlcmVjaG9zIGRlIHVzbyBzb2JyZSBsYSBvYnJhIGVuIGZvcm1hdG8gbyBzb3BvcnRlIG1hdGVyaWFsLCBzaW5vIHRhbWJpw6luIHBhcmEgZm9ybWF0byBlbGVjdHLDs25pY28sIHkgZW4gZ2VuZXJhbCBwYXJhIGN1YWxxdWllciBmb3JtYXRvIGNvbm9jaWRvIG8gcG9yIGNvbm9jZXIuPC9wPgo8cD5FbCBhdXRvciwgbWFuaWZpZXN0YSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8sIGxhIG9icmEgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgbGEgbWlzbWEuPC9wPgo8cD5FbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgZWwgYXV0b3IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBkZSBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVbml2ZXJzaWRhZCBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlLjwvcD4KPHA+U2kgdGllbmUgYWxndW5hIGR1ZGEgc29icmUgbGEgbGljZW5jaWEsIHBvciBmYXZvciwgY29udGFjdGUgY29uIGVsIDxhIGhyZWY9Im1haWx0bzpiaWJsaW90ZWNhQHVuaWFuZGVzLmVkdS5jbyIgdGFyZ2V0PSJfYmxhbmsiPkFkbWluaXN0cmFkb3IgZGVsIFNpc3RlbWEuPC9hPjwvcD4K |