Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente

Este trabajo explora el campo emergente de la Inteligencia Artificial (IA) en contextos sociales complejos, evaluando dos enfoques distintos para el modelado de interacciones en sistemas multiagente: los modelos convencionales de Aprendizaje por Refuerzo Multiagente (MARL) y una alternativa innovado...

Full description

Autores:
Pinzón Roncancio, Juan Sebastián
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2023
Institución:
Universidad de los Andes
Repositorio:
Séneca: repositorio Uniandes
Idioma:
spa
OAI Identifier:
oai:repositorio.uniandes.edu.co:1992/73833
Acceso en línea:
https://hdl.handle.net/1992/73833
Palabra clave:
Aprendizaje por refuerzo
Large Language Model
Escenarios sociales
Agentes autónomos
Ingeniería
Rights
openAccess
License
https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdf
id UNIANDES2_0d94523ee4fafb7f9923b37df3d5baa0
oai_identifier_str oai:repositorio.uniandes.edu.co:1992/73833
network_acronym_str UNIANDES2
network_name_str Séneca: repositorio Uniandes
repository_id_str
dc.title.none.fl_str_mv Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente
title Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente
spellingShingle Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente
Aprendizaje por refuerzo
Large Language Model
Escenarios sociales
Agentes autónomos
Ingeniería
title_short Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente
title_full Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente
title_fullStr Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente
title_full_unstemmed Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente
title_sort Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente
dc.creator.fl_str_mv Pinzón Roncancio, Juan Sebastián
dc.contributor.advisor.none.fl_str_mv Lozano Martínez, Fernando Enrique
Manrique Piramanrique, Rubén Francisco
dc.contributor.author.none.fl_str_mv Pinzón Roncancio, Juan Sebastián
dc.contributor.jury.none.fl_str_mv Osma Cruz, Johann Faccelo
dc.subject.keyword.none.fl_str_mv Aprendizaje por refuerzo
Large Language Model
Escenarios sociales
Agentes autónomos
topic Aprendizaje por refuerzo
Large Language Model
Escenarios sociales
Agentes autónomos
Ingeniería
dc.subject.themes.spa.fl_str_mv Ingeniería
description Este trabajo explora el campo emergente de la Inteligencia Artificial (IA) en contextos sociales complejos, evaluando dos enfoques distintos para el modelado de interacciones en sistemas multiagente: los modelos convencionales de Aprendizaje por Refuerzo Multiagente (MARL) y una alternativa innovadora que utiliza Modelos de Lenguaje de Gran Escala (LLMs) como planificadores para los agentes. Se pone especial énfasis en la integración de LLMs en la planificación multiagente, siguiendo la arquitectura propuesta por Park et al. (2023), y se evalúa comparativamente ambos enfoques en el escenario 'Commons Harvest Open' de Melting Pot. El estudio evidencia la alta sensibilidad de las arquitecturas de planeación basadas en LLM, influenciada tanto por la construcción de los prompts como por la información específica sobre los agentes incluida en ellos. Esto permite variaciones significativas en el comportamiento de los agentes sin necesidad de reentrenar los modelos. Por otro lado, los modelos de Aprendizaje por Refuerzo, demuestran ser superiores en algunos aspectos decisivos, como la prevención del consumo excesivo de recursos para maximizar el reward futuro, pero muestran limitaciones en el manejo de situaciones más complejas, tales como la identificación y confrontación de amenazas potenciales. Estos hallazgos subrayan la la flexibilidad en la adaptación de comportamientos para la gestión eficaz de agentes en entornos sociales complejos, abriendo caminos hacia aplicaciones potenciales en varios campos, como la robótica autónoma y el desarrollo de simuladores de entornos.
publishDate 2023
dc.date.issued.none.fl_str_mv 2023-12
dc.date.accessioned.none.fl_str_mv 2024-02-02T19:12:14Z
dc.date.available.none.fl_str_mv 2024-02-02T19:12:14Z
dc.type.none.fl_str_mv Trabajo de grado - Pregrado
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.none.fl_str_mv Text
dc.type.redcol.none.fl_str_mv http://purl.org/redcol/resource_type/TP
format http://purl.org/coar/resource_type/c_7a1f
status_str acceptedVersion
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/1992/73833
dc.identifier.instname.none.fl_str_mv instname:Universidad de los Andes
dc.identifier.reponame.none.fl_str_mv reponame:Repositorio Institucional Séneca
dc.identifier.repourl.none.fl_str_mv repourl:https://repositorio.uniandes.edu.co/
url https://hdl.handle.net/1992/73833
identifier_str_mv instname:Universidad de los Andes
reponame:Repositorio Institucional Séneca
repourl:https://repositorio.uniandes.edu.co/
dc.language.iso.none.fl_str_mv spa
language spa
dc.relation.references.none.fl_str_mv J. S. Park, J. C. O’Brien, C. J. Cai, M. R. Morris, P. Liang, M. S. Bernstein, Generative agents: Interactive simulacra of human behavior, arXiv 2304.03442. doi:10.48550/arXiv.2304.03442. URL https://doi.org/10.48550/arXiv.2304.03442
J. Hohenstein, R. F. Kizilcec, D. DiFranzo, Z. Aghajari, H. Mieczkowski, K. Levy, M. Naaman, J. Hancock, M. F. Jung, Artificial intelligence in communication impacts language and social relationships, Scientific Reports 13 (1) (2023) 5425. doi:10.1038/s41598-023-00000-1.
J. Hohenstein, R. F. Kizilcec, D. DiFranzo, Z. Aghajari, H. Mieczkowski, K. Levy, M. Naaman, J. Hancock, M. F. Jung, Artificial intelligence in communication impacts language and social relationships, Scientific Reports 13 (1) (2023) 5425. doi:10.1038/s41598-023-00000-1. URL https://www.nature.com/articles/s41598-023-00000-1
C. Berner, G. Brockman, B. Chan, V. Cheung, P. Debiak, C. Dennison, D. Farhi, Q. Fischer, S. Hashme, C. Hesse, R. J ́ozefowicz, S. Gray, C. Olsson, J. Pachocki, M. Petrov, H. P. de Oliveira Pinto, J. Raiman, T. Salimans, J. Schlatter, J. Schneider, S. Sidor, I. Sutskever, J. Tang, F. Wolski, S. Zhang, Dota 2 with large scale deep reinforcement learning, arXiv, ArXiv preprint arXiv:1912.06680. URL https://arxiv.org/abs/1912.06680
M. B. Johanson, E. Hughes, F. Timbers, J. Z. Leibo, Emergent bartering behaviour in multi-agent reinforcement learning, arXiv, ArXiv preprint arXiv:2205.06760. URL https://arxiv.org/abs/2205.06760
R. S. Sutton, A. G. Barto, Reinforcement Learning: An Introduction, MIT Press, 1992.
P. Ferraro, D. Loiacono, E. Malaguti, Multi-agent reinforcement learning: A review of challenges and applications, Applied Sciences 11 (11) (2021) 4948. doi:10.3390/app11114948. URL https://doi.org/10.3390/app11114948
J. Schulman, F. Wolski, P. Dhariwal, A. Radford, O. Klimov, Proximal policy optimization algorithms, arXiv, ArXiv:1707.06347. URL https://arxiv.org/abs/1707.06347
M. R. Douglas, Large language models, arXivdoi:10.48550/arXiv.2307.05782. URL https://doi.org/10.48550/arXiv.2307.05782
A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser, I. Polosukhin, Attention is all you need, in: Advances in Neural Information Processing Systems (NIPS), 2017, pp. 5998–6008. doi:10.5555/3295222.3295349. URL https://arxiv.org/abs/1706.03762
J. P. Agapiou, A. S. Vezhnevets, E. A. Du ́e ̃nez-Guzm ́an, J. Matyas, Y. Mao, P. Sunehag, R. K ̈oster, U. Madhushani, K. Kopparapu, R. Comanescu, D. J. Strouse, M. B. Johanson, S. Singh, J. Haas, I. Mordatch, D. Mobbs, J. Z. Leibo, Melting pot 2.0, arXiv 2211.13746. doi:10.48550/arXiv.2211.13746. URL https://arxiv.org/abs/2211.13746
M. R ́ıos Beltran, Understanding group dynamics: solving social dilemmas in artificial multi-agent systems. URL http://hdl.handle.net/1992/64248
J. S. Pinzon Roncancio, Large language models como planeadores multiagente en entornos sociales (Jan 2023). URL https://hdl.handle.net/1992/73756
T. Connors, J. Sny, H. Snyder, Gpteam: A multi-agent simulation, LangChain Series.
J. Wei, X. Wang, D. Schuurmans, M. Bosma, F. Xia, E. Chi, Q. V. Le, D. Zhou, et al., Chain-of-thought prompting elicits reasoning in large language models, in: Proceedings of the Neural Information Processing Systems (NeurIPS), 2022.
dc.rights.uri.none.fl_str_mv https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdf
dc.rights.accessrights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.coar.none.fl_str_mv http://purl.org/coar/access_right/c_abf2
rights_invalid_str_mv https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdf
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.none.fl_str_mv 29 páginas
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidad de los Andes
dc.publisher.program.none.fl_str_mv Ingeniería Electrónica
dc.publisher.faculty.none.fl_str_mv Facultad de Ingeniería
dc.publisher.department.none.fl_str_mv Departamento de Ingeniería Eléctrica y Electrónica
publisher.none.fl_str_mv Universidad de los Andes
institution Universidad de los Andes
bitstream.url.fl_str_mv https://repositorio.uniandes.edu.co/bitstreams/f42c0eb2-31a9-4b67-a949-7ad41c0478d5/download
https://repositorio.uniandes.edu.co/bitstreams/835fe625-3f74-49f4-95a0-be17fd893ac9/download
https://repositorio.uniandes.edu.co/bitstreams/918b8c3f-4dbc-4dc3-be24-a2bb8719745a/download
https://repositorio.uniandes.edu.co/bitstreams/4fda71f9-e9c7-4cb8-bc39-caeaa093619c/download
https://repositorio.uniandes.edu.co/bitstreams/c854b5f6-8900-4971-9e4f-517fea55666f/download
https://repositorio.uniandes.edu.co/bitstreams/71bca768-f3de-4e95-86f8-9e8bb68ef562/download
https://repositorio.uniandes.edu.co/bitstreams/8682be1a-43c6-43a3-81d8-2e01e5773db6/download
bitstream.checksum.fl_str_mv 9f632567a4926e45cf116f1f3f739e43
c88ba46b0a303e3aba75daf19f96c6ef
ae9e573a68e7f92501b6913cc846c39f
4e217cd80f0fc7c26f6512e319ec84d1
c25d9ce36861a5ca7531efb2899da157
aac9f3542722b250caf2d15db70da5ba
8d225258226b0dd0682a0158f1d99bbd
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio institucional Séneca
repository.mail.fl_str_mv adminrepositorio@uniandes.edu.co
_version_ 1812133889311768576
spelling Lozano Martínez, Fernando EnriqueManrique Piramanrique, Rubén FranciscoPinzón Roncancio, Juan SebastiánOsma Cruz, Johann Faccelo2024-02-02T19:12:14Z2024-02-02T19:12:14Z2023-12https://hdl.handle.net/1992/73833instname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/Este trabajo explora el campo emergente de la Inteligencia Artificial (IA) en contextos sociales complejos, evaluando dos enfoques distintos para el modelado de interacciones en sistemas multiagente: los modelos convencionales de Aprendizaje por Refuerzo Multiagente (MARL) y una alternativa innovadora que utiliza Modelos de Lenguaje de Gran Escala (LLMs) como planificadores para los agentes. Se pone especial énfasis en la integración de LLMs en la planificación multiagente, siguiendo la arquitectura propuesta por Park et al. (2023), y se evalúa comparativamente ambos enfoques en el escenario 'Commons Harvest Open' de Melting Pot. El estudio evidencia la alta sensibilidad de las arquitecturas de planeación basadas en LLM, influenciada tanto por la construcción de los prompts como por la información específica sobre los agentes incluida en ellos. Esto permite variaciones significativas en el comportamiento de los agentes sin necesidad de reentrenar los modelos. Por otro lado, los modelos de Aprendizaje por Refuerzo, demuestran ser superiores en algunos aspectos decisivos, como la prevención del consumo excesivo de recursos para maximizar el reward futuro, pero muestran limitaciones en el manejo de situaciones más complejas, tales como la identificación y confrontación de amenazas potenciales. Estos hallazgos subrayan la la flexibilidad en la adaptación de comportamientos para la gestión eficaz de agentes en entornos sociales complejos, abriendo caminos hacia aplicaciones potenciales en varios campos, como la robótica autónoma y el desarrollo de simuladores de entornos.Ingeniero ElectrónicoPregrado29 páginasapplication/pdfspaUniversidad de los AndesIngeniería ElectrónicaFacultad de IngenieríaDepartamento de Ingeniería Eléctrica y Electrónicahttps://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdfinfo:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagenteTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1fTexthttp://purl.org/redcol/resource_type/TPAprendizaje por refuerzoLarge Language ModelEscenarios socialesAgentes autónomosIngenieríaJ. S. Park, J. C. O’Brien, C. J. Cai, M. R. Morris, P. Liang, M. S. Bernstein, Generative agents: Interactive simulacra of human behavior, arXiv 2304.03442. doi:10.48550/arXiv.2304.03442. URL https://doi.org/10.48550/arXiv.2304.03442J. Hohenstein, R. F. Kizilcec, D. DiFranzo, Z. Aghajari, H. Mieczkowski, K. Levy, M. Naaman, J. Hancock, M. F. Jung, Artificial intelligence in communication impacts language and social relationships, Scientific Reports 13 (1) (2023) 5425. doi:10.1038/s41598-023-00000-1.J. Hohenstein, R. F. Kizilcec, D. DiFranzo, Z. Aghajari, H. Mieczkowski, K. Levy, M. Naaman, J. Hancock, M. F. Jung, Artificial intelligence in communication impacts language and social relationships, Scientific Reports 13 (1) (2023) 5425. doi:10.1038/s41598-023-00000-1. URL https://www.nature.com/articles/s41598-023-00000-1C. Berner, G. Brockman, B. Chan, V. Cheung, P. Debiak, C. Dennison, D. Farhi, Q. Fischer, S. Hashme, C. Hesse, R. J ́ozefowicz, S. Gray, C. Olsson, J. Pachocki, M. Petrov, H. P. de Oliveira Pinto, J. Raiman, T. Salimans, J. Schlatter, J. Schneider, S. Sidor, I. Sutskever, J. Tang, F. Wolski, S. Zhang, Dota 2 with large scale deep reinforcement learning, arXiv, ArXiv preprint arXiv:1912.06680. URL https://arxiv.org/abs/1912.06680M. B. Johanson, E. Hughes, F. Timbers, J. Z. Leibo, Emergent bartering behaviour in multi-agent reinforcement learning, arXiv, ArXiv preprint arXiv:2205.06760. URL https://arxiv.org/abs/2205.06760R. S. Sutton, A. G. Barto, Reinforcement Learning: An Introduction, MIT Press, 1992.P. Ferraro, D. Loiacono, E. Malaguti, Multi-agent reinforcement learning: A review of challenges and applications, Applied Sciences 11 (11) (2021) 4948. doi:10.3390/app11114948. URL https://doi.org/10.3390/app11114948J. Schulman, F. Wolski, P. Dhariwal, A. Radford, O. Klimov, Proximal policy optimization algorithms, arXiv, ArXiv:1707.06347. URL https://arxiv.org/abs/1707.06347M. R. Douglas, Large language models, arXivdoi:10.48550/arXiv.2307.05782. URL https://doi.org/10.48550/arXiv.2307.05782A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser, I. Polosukhin, Attention is all you need, in: Advances in Neural Information Processing Systems (NIPS), 2017, pp. 5998–6008. doi:10.5555/3295222.3295349. URL https://arxiv.org/abs/1706.03762J. P. Agapiou, A. S. Vezhnevets, E. A. Du ́e ̃nez-Guzm ́an, J. Matyas, Y. Mao, P. Sunehag, R. K ̈oster, U. Madhushani, K. Kopparapu, R. Comanescu, D. J. Strouse, M. B. Johanson, S. Singh, J. Haas, I. Mordatch, D. Mobbs, J. Z. Leibo, Melting pot 2.0, arXiv 2211.13746. doi:10.48550/arXiv.2211.13746. URL https://arxiv.org/abs/2211.13746M. R ́ıos Beltran, Understanding group dynamics: solving social dilemmas in artificial multi-agent systems. URL http://hdl.handle.net/1992/64248J. S. Pinzon Roncancio, Large language models como planeadores multiagente en entornos sociales (Jan 2023). URL https://hdl.handle.net/1992/73756T. Connors, J. Sny, H. Snyder, Gpteam: A multi-agent simulation, LangChain Series.J. Wei, X. Wang, D. Schuurmans, M. Bosma, F. Xia, E. Chi, Q. V. Le, D. Zhou, et al., Chain-of-thought prompting elicits reasoning in large language models, in: Proceedings of the Neural Information Processing Systems (NeurIPS), 2022.2019157713PublicationORIGINALautorizacion tesis electronica SIGNED.pdfautorizacion tesis electronica SIGNED.pdfHIDEapplication/pdf239102https://repositorio.uniandes.edu.co/bitstreams/f42c0eb2-31a9-4b67-a949-7ad41c0478d5/download9f632567a4926e45cf116f1f3f739e43MD51Aprendizaje por refuerzo multiagente en entornos sociales.pdfAprendizaje por refuerzo multiagente en entornos sociales.pdfapplication/pdf857097https://repositorio.uniandes.edu.co/bitstreams/835fe625-3f74-49f4-95a0-be17fd893ac9/downloadc88ba46b0a303e3aba75daf19f96c6efMD52LICENSElicense.txtlicense.txttext/plain; charset=utf-82535https://repositorio.uniandes.edu.co/bitstreams/918b8c3f-4dbc-4dc3-be24-a2bb8719745a/downloadae9e573a68e7f92501b6913cc846c39fMD53TEXTautorizacion tesis electronica SIGNED.pdf.txtautorizacion tesis electronica SIGNED.pdf.txtExtracted texttext/plain2161https://repositorio.uniandes.edu.co/bitstreams/4fda71f9-e9c7-4cb8-bc39-caeaa093619c/download4e217cd80f0fc7c26f6512e319ec84d1MD54Aprendizaje por refuerzo multiagente en entornos sociales.pdf.txtAprendizaje por refuerzo multiagente en entornos sociales.pdf.txtExtracted texttext/plain54074https://repositorio.uniandes.edu.co/bitstreams/c854b5f6-8900-4971-9e4f-517fea55666f/downloadc25d9ce36861a5ca7531efb2899da157MD56THUMBNAILautorizacion tesis electronica SIGNED.pdf.jpgautorizacion tesis electronica SIGNED.pdf.jpgGenerated Thumbnailimage/jpeg10884https://repositorio.uniandes.edu.co/bitstreams/71bca768-f3de-4e95-86f8-9e8bb68ef562/downloadaac9f3542722b250caf2d15db70da5baMD55Aprendizaje por refuerzo multiagente en entornos sociales.pdf.jpgAprendizaje por refuerzo multiagente en entornos sociales.pdf.jpgGenerated Thumbnailimage/jpeg5948https://repositorio.uniandes.edu.co/bitstreams/8682be1a-43c6-43a3-81d8-2e01e5773db6/download8d225258226b0dd0682a0158f1d99bbdMD571992/73833oai:repositorio.uniandes.edu.co:1992/738332024-03-05 14:46:49.551https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdfopen.accesshttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.coPGgzPjxzdHJvbmc+RGVzY2FyZ28gZGUgUmVzcG9uc2FiaWxpZGFkIC0gTGljZW5jaWEgZGUgQXV0b3JpemFjacOzbjwvc3Ryb25nPjwvaDM+CjxwPjxzdHJvbmc+UG9yIGZhdm9yIGxlZXIgYXRlbnRhbWVudGUgZXN0ZSBkb2N1bWVudG8gcXVlIHBlcm1pdGUgYWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBTw6luZWNhIHJlcHJvZHVjaXIgeSBkaXN0cmlidWlyIGxvcyByZWN1cnNvcyBkZSBpbmZvcm1hY2nDs24gZGVwb3NpdGFkb3MgbWVkaWFudGUgbGEgYXV0b3JpemFjacOzbiBkZSBsb3Mgc2lndWllbnRlcyB0w6lybWlub3M6PC9zdHJvbmc+PC9wPgo8cD5Db25jZWRhIGxhIGxpY2VuY2lhIGRlIGRlcMOzc2l0byBlc3TDoW5kYXIgc2VsZWNjaW9uYW5kbyBsYSBvcGNpw7NuIDxzdHJvbmc+J0FjZXB0YXIgbG9zIHTDqXJtaW5vcyBhbnRlcmlvcm1lbnRlIGRlc2NyaXRvcyc8L3N0cm9uZz4geSBjb250aW51YXIgZWwgcHJvY2VzbyBkZSBlbnbDrW8gbWVkaWFudGUgZWwgYm90w7NuIDxzdHJvbmc+J1NpZ3VpZW50ZScuPC9zdHJvbmc+PC9wPgo8aHI+CjxwPllvLCBlbiBtaSBjYWxpZGFkIGRlIGF1dG9yIGRlbCB0cmFiYWpvIGRlIHRlc2lzLCBtb25vZ3JhZsOtYSBvIHRyYWJham8gZGUgZ3JhZG8sIGhhZ28gZW50cmVnYSBkZWwgZWplbXBsYXIgcmVzcGVjdGl2byB5IGRlIHN1cyBhbmV4b3MgZGUgc2VyIGVsIGNhc28sIGVuIGZvcm1hdG8gZGlnaXRhbCB5L28gZWxlY3Ryw7NuaWNvIHkgYXV0b3Jpem8gYSBsYSBVbml2ZXJzaWRhZCBkZSBsb3MgQW5kZXMgcGFyYSBxdWUgcmVhbGljZSBsYSBwdWJsaWNhY2nDs24gZW4gZWwgU2lzdGVtYSBkZSBCaWJsaW90ZWNhcyBvIGVuIGN1YWxxdWllciBvdHJvIHNpc3RlbWEgbyBiYXNlIGRlIGRhdG9zIHByb3BpbyBvIGFqZW5vIGEgbGEgVW5pdmVyc2lkYWQgeSBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBBbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCB1dGlsaWNlIGVuIHRvZGFzIHN1cyBmb3JtYXMsIGxvcyBkZXJlY2hvcyBwYXRyaW1vbmlhbGVzIGRlIHJlcHJvZHVjY2nDs24sIGNvbXVuaWNhY2nDs24gcMO6YmxpY2EsIHRyYW5zZm9ybWFjacOzbiB5IGRpc3RyaWJ1Y2nDs24gKGFscXVpbGVyLCBwcsOpc3RhbW8gcMO6YmxpY28gZSBpbXBvcnRhY2nDs24pIHF1ZSBtZSBjb3JyZXNwb25kZW4gY29tbyBjcmVhZG9yIGRlIGxhIG9icmEgb2JqZXRvIGRlbCBwcmVzZW50ZSBkb2N1bWVudG8uPC9wPgo8cD5MYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIHNlIGVtaXRlIGVuIGNhbGlkYWQgZGUgYXV0b3IgZGUgbGEgb2JyYSBvYmpldG8gZGVsIHByZXNlbnRlIGRvY3VtZW50byB5IG5vIGNvcnJlc3BvbmRlIGEgY2VzacOzbiBkZSBkZXJlY2hvcywgc2lubyBhIGxhIGF1dG9yaXphY2nDs24gZGUgdXNvIGFjYWTDqW1pY28gZGUgY29uZm9ybWlkYWQgY29uIGxvIGFudGVyaW9ybWVudGUgc2XDsWFsYWRvLiBMYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIHNlIGhhY2UgZXh0ZW5zaXZhIG5vIHNvbG8gYSBsYXMgZmFjdWx0YWRlcyB5IGRlcmVjaG9zIGRlIHVzbyBzb2JyZSBsYSBvYnJhIGVuIGZvcm1hdG8gbyBzb3BvcnRlIG1hdGVyaWFsLCBzaW5vIHRhbWJpw6luIHBhcmEgZm9ybWF0byBlbGVjdHLDs25pY28sIHkgZW4gZ2VuZXJhbCBwYXJhIGN1YWxxdWllciBmb3JtYXRvIGNvbm9jaWRvIG8gcG9yIGNvbm9jZXIuPC9wPgo8cD5FbCBhdXRvciwgbWFuaWZpZXN0YSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8sIGxhIG9icmEgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgbGEgbWlzbWEuPC9wPgo8cD5FbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgZWwgYXV0b3IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBkZSBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVbml2ZXJzaWRhZCBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlLjwvcD4KPHA+U2kgdGllbmUgYWxndW5hIGR1ZGEgc29icmUgbGEgbGljZW5jaWEsIHBvciBmYXZvciwgY29udGFjdGUgY29uIGVsIDxhIGhyZWY9Im1haWx0bzpiaWJsaW90ZWNhQHVuaWFuZGVzLmVkdS5jbyIgdGFyZ2V0PSJfYmxhbmsiPkFkbWluaXN0cmFkb3IgZGVsIFNpc3RlbWEuPC9hPjwvcD4K