Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente
Este trabajo explora el campo emergente de la Inteligencia Artificial (IA) en contextos sociales complejos, evaluando dos enfoques distintos para el modelado de interacciones en sistemas multiagente: los modelos convencionales de Aprendizaje por Refuerzo Multiagente (MARL) y una alternativa innovado...
- Autores:
-
Pinzón Roncancio, Juan Sebastián
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2023
- Institución:
- Universidad de los Andes
- Repositorio:
- Séneca: repositorio Uniandes
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.uniandes.edu.co:1992/73833
- Acceso en línea:
- https://hdl.handle.net/1992/73833
- Palabra clave:
- Aprendizaje por refuerzo
Large Language Model
Escenarios sociales
Agentes autónomos
Ingeniería
- Rights
- openAccess
- License
- https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdf
id |
UNIANDES2_0d94523ee4fafb7f9923b37df3d5baa0 |
---|---|
oai_identifier_str |
oai:repositorio.uniandes.edu.co:1992/73833 |
network_acronym_str |
UNIANDES2 |
network_name_str |
Séneca: repositorio Uniandes |
repository_id_str |
|
dc.title.none.fl_str_mv |
Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente |
title |
Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente |
spellingShingle |
Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente Aprendizaje por refuerzo Large Language Model Escenarios sociales Agentes autónomos Ingeniería |
title_short |
Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente |
title_full |
Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente |
title_fullStr |
Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente |
title_full_unstemmed |
Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente |
title_sort |
Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagente |
dc.creator.fl_str_mv |
Pinzón Roncancio, Juan Sebastián |
dc.contributor.advisor.none.fl_str_mv |
Lozano Martínez, Fernando Enrique Manrique Piramanrique, Rubén Francisco |
dc.contributor.author.none.fl_str_mv |
Pinzón Roncancio, Juan Sebastián |
dc.contributor.jury.none.fl_str_mv |
Osma Cruz, Johann Faccelo |
dc.subject.keyword.none.fl_str_mv |
Aprendizaje por refuerzo Large Language Model Escenarios sociales Agentes autónomos |
topic |
Aprendizaje por refuerzo Large Language Model Escenarios sociales Agentes autónomos Ingeniería |
dc.subject.themes.spa.fl_str_mv |
Ingeniería |
description |
Este trabajo explora el campo emergente de la Inteligencia Artificial (IA) en contextos sociales complejos, evaluando dos enfoques distintos para el modelado de interacciones en sistemas multiagente: los modelos convencionales de Aprendizaje por Refuerzo Multiagente (MARL) y una alternativa innovadora que utiliza Modelos de Lenguaje de Gran Escala (LLMs) como planificadores para los agentes. Se pone especial énfasis en la integración de LLMs en la planificación multiagente, siguiendo la arquitectura propuesta por Park et al. (2023), y se evalúa comparativamente ambos enfoques en el escenario 'Commons Harvest Open' de Melting Pot. El estudio evidencia la alta sensibilidad de las arquitecturas de planeación basadas en LLM, influenciada tanto por la construcción de los prompts como por la información específica sobre los agentes incluida en ellos. Esto permite variaciones significativas en el comportamiento de los agentes sin necesidad de reentrenar los modelos. Por otro lado, los modelos de Aprendizaje por Refuerzo, demuestran ser superiores en algunos aspectos decisivos, como la prevención del consumo excesivo de recursos para maximizar el reward futuro, pero muestran limitaciones en el manejo de situaciones más complejas, tales como la identificación y confrontación de amenazas potenciales. Estos hallazgos subrayan la la flexibilidad en la adaptación de comportamientos para la gestión eficaz de agentes en entornos sociales complejos, abriendo caminos hacia aplicaciones potenciales en varios campos, como la robótica autónoma y el desarrollo de simuladores de entornos. |
publishDate |
2023 |
dc.date.issued.none.fl_str_mv |
2023-12 |
dc.date.accessioned.none.fl_str_mv |
2024-02-02T19:12:14Z |
dc.date.available.none.fl_str_mv |
2024-02-02T19:12:14Z |
dc.type.none.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.none.fl_str_mv |
Text |
dc.type.redcol.none.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/1992/73833 |
dc.identifier.instname.none.fl_str_mv |
instname:Universidad de los Andes |
dc.identifier.reponame.none.fl_str_mv |
reponame:Repositorio Institucional Séneca |
dc.identifier.repourl.none.fl_str_mv |
repourl:https://repositorio.uniandes.edu.co/ |
url |
https://hdl.handle.net/1992/73833 |
identifier_str_mv |
instname:Universidad de los Andes reponame:Repositorio Institucional Séneca repourl:https://repositorio.uniandes.edu.co/ |
dc.language.iso.none.fl_str_mv |
spa |
language |
spa |
dc.relation.references.none.fl_str_mv |
J. S. Park, J. C. O’Brien, C. J. Cai, M. R. Morris, P. Liang, M. S. Bernstein, Generative agents: Interactive simulacra of human behavior, arXiv 2304.03442. doi:10.48550/arXiv.2304.03442. URL https://doi.org/10.48550/arXiv.2304.03442 J. Hohenstein, R. F. Kizilcec, D. DiFranzo, Z. Aghajari, H. Mieczkowski, K. Levy, M. Naaman, J. Hancock, M. F. Jung, Artificial intelligence in communication impacts language and social relationships, Scientific Reports 13 (1) (2023) 5425. doi:10.1038/s41598-023-00000-1. J. Hohenstein, R. F. Kizilcec, D. DiFranzo, Z. Aghajari, H. Mieczkowski, K. Levy, M. Naaman, J. Hancock, M. F. Jung, Artificial intelligence in communication impacts language and social relationships, Scientific Reports 13 (1) (2023) 5425. doi:10.1038/s41598-023-00000-1. URL https://www.nature.com/articles/s41598-023-00000-1 C. Berner, G. Brockman, B. Chan, V. Cheung, P. Debiak, C. Dennison, D. Farhi, Q. Fischer, S. Hashme, C. Hesse, R. J ́ozefowicz, S. Gray, C. Olsson, J. Pachocki, M. Petrov, H. P. de Oliveira Pinto, J. Raiman, T. Salimans, J. Schlatter, J. Schneider, S. Sidor, I. Sutskever, J. Tang, F. Wolski, S. Zhang, Dota 2 with large scale deep reinforcement learning, arXiv, ArXiv preprint arXiv:1912.06680. URL https://arxiv.org/abs/1912.06680 M. B. Johanson, E. Hughes, F. Timbers, J. Z. Leibo, Emergent bartering behaviour in multi-agent reinforcement learning, arXiv, ArXiv preprint arXiv:2205.06760. URL https://arxiv.org/abs/2205.06760 R. S. Sutton, A. G. Barto, Reinforcement Learning: An Introduction, MIT Press, 1992. P. Ferraro, D. Loiacono, E. Malaguti, Multi-agent reinforcement learning: A review of challenges and applications, Applied Sciences 11 (11) (2021) 4948. doi:10.3390/app11114948. URL https://doi.org/10.3390/app11114948 J. Schulman, F. Wolski, P. Dhariwal, A. Radford, O. Klimov, Proximal policy optimization algorithms, arXiv, ArXiv:1707.06347. URL https://arxiv.org/abs/1707.06347 M. R. Douglas, Large language models, arXivdoi:10.48550/arXiv.2307.05782. URL https://doi.org/10.48550/arXiv.2307.05782 A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser, I. Polosukhin, Attention is all you need, in: Advances in Neural Information Processing Systems (NIPS), 2017, pp. 5998–6008. doi:10.5555/3295222.3295349. URL https://arxiv.org/abs/1706.03762 J. P. Agapiou, A. S. Vezhnevets, E. A. Du ́e ̃nez-Guzm ́an, J. Matyas, Y. Mao, P. Sunehag, R. K ̈oster, U. Madhushani, K. Kopparapu, R. Comanescu, D. J. Strouse, M. B. Johanson, S. Singh, J. Haas, I. Mordatch, D. Mobbs, J. Z. Leibo, Melting pot 2.0, arXiv 2211.13746. doi:10.48550/arXiv.2211.13746. URL https://arxiv.org/abs/2211.13746 M. R ́ıos Beltran, Understanding group dynamics: solving social dilemmas in artificial multi-agent systems. URL http://hdl.handle.net/1992/64248 J. S. Pinzon Roncancio, Large language models como planeadores multiagente en entornos sociales (Jan 2023). URL https://hdl.handle.net/1992/73756 T. Connors, J. Sny, H. Snyder, Gpteam: A multi-agent simulation, LangChain Series. J. Wei, X. Wang, D. Schuurmans, M. Bosma, F. Xia, E. Chi, Q. V. Le, D. Zhou, et al., Chain-of-thought prompting elicits reasoning in large language models, in: Proceedings of the Neural Information Processing Systems (NeurIPS), 2022. |
dc.rights.uri.none.fl_str_mv |
https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdf |
dc.rights.accessrights.none.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.none.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdf http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.extent.none.fl_str_mv |
29 páginas |
dc.format.mimetype.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidad de los Andes |
dc.publisher.program.none.fl_str_mv |
Ingeniería Electrónica |
dc.publisher.faculty.none.fl_str_mv |
Facultad de Ingeniería |
dc.publisher.department.none.fl_str_mv |
Departamento de Ingeniería Eléctrica y Electrónica |
publisher.none.fl_str_mv |
Universidad de los Andes |
institution |
Universidad de los Andes |
bitstream.url.fl_str_mv |
https://repositorio.uniandes.edu.co/bitstreams/f42c0eb2-31a9-4b67-a949-7ad41c0478d5/download https://repositorio.uniandes.edu.co/bitstreams/835fe625-3f74-49f4-95a0-be17fd893ac9/download https://repositorio.uniandes.edu.co/bitstreams/918b8c3f-4dbc-4dc3-be24-a2bb8719745a/download https://repositorio.uniandes.edu.co/bitstreams/4fda71f9-e9c7-4cb8-bc39-caeaa093619c/download https://repositorio.uniandes.edu.co/bitstreams/c854b5f6-8900-4971-9e4f-517fea55666f/download https://repositorio.uniandes.edu.co/bitstreams/71bca768-f3de-4e95-86f8-9e8bb68ef562/download https://repositorio.uniandes.edu.co/bitstreams/8682be1a-43c6-43a3-81d8-2e01e5773db6/download |
bitstream.checksum.fl_str_mv |
9f632567a4926e45cf116f1f3f739e43 c88ba46b0a303e3aba75daf19f96c6ef ae9e573a68e7f92501b6913cc846c39f 4e217cd80f0fc7c26f6512e319ec84d1 c25d9ce36861a5ca7531efb2899da157 aac9f3542722b250caf2d15db70da5ba 8d225258226b0dd0682a0158f1d99bbd |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio institucional Séneca |
repository.mail.fl_str_mv |
adminrepositorio@uniandes.edu.co |
_version_ |
1812133889311768576 |
spelling |
Lozano Martínez, Fernando EnriqueManrique Piramanrique, Rubén FranciscoPinzón Roncancio, Juan SebastiánOsma Cruz, Johann Faccelo2024-02-02T19:12:14Z2024-02-02T19:12:14Z2023-12https://hdl.handle.net/1992/73833instname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/Este trabajo explora el campo emergente de la Inteligencia Artificial (IA) en contextos sociales complejos, evaluando dos enfoques distintos para el modelado de interacciones en sistemas multiagente: los modelos convencionales de Aprendizaje por Refuerzo Multiagente (MARL) y una alternativa innovadora que utiliza Modelos de Lenguaje de Gran Escala (LLMs) como planificadores para los agentes. Se pone especial énfasis en la integración de LLMs en la planificación multiagente, siguiendo la arquitectura propuesta por Park et al. (2023), y se evalúa comparativamente ambos enfoques en el escenario 'Commons Harvest Open' de Melting Pot. El estudio evidencia la alta sensibilidad de las arquitecturas de planeación basadas en LLM, influenciada tanto por la construcción de los prompts como por la información específica sobre los agentes incluida en ellos. Esto permite variaciones significativas en el comportamiento de los agentes sin necesidad de reentrenar los modelos. Por otro lado, los modelos de Aprendizaje por Refuerzo, demuestran ser superiores en algunos aspectos decisivos, como la prevención del consumo excesivo de recursos para maximizar el reward futuro, pero muestran limitaciones en el manejo de situaciones más complejas, tales como la identificación y confrontación de amenazas potenciales. Estos hallazgos subrayan la la flexibilidad en la adaptación de comportamientos para la gestión eficaz de agentes en entornos sociales complejos, abriendo caminos hacia aplicaciones potenciales en varios campos, como la robótica autónoma y el desarrollo de simuladores de entornos.Ingeniero ElectrónicoPregrado29 páginasapplication/pdfspaUniversidad de los AndesIngeniería ElectrónicaFacultad de IngenieríaDepartamento de Ingeniería Eléctrica y Electrónicahttps://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdfinfo:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Aprendizaje por refuerzo multiagente en entornos sociales: comparación entre enfoques convencionales vs. la integración de LLMS como planeadores multiagenteTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1fTexthttp://purl.org/redcol/resource_type/TPAprendizaje por refuerzoLarge Language ModelEscenarios socialesAgentes autónomosIngenieríaJ. S. Park, J. C. O’Brien, C. J. Cai, M. R. Morris, P. Liang, M. S. Bernstein, Generative agents: Interactive simulacra of human behavior, arXiv 2304.03442. doi:10.48550/arXiv.2304.03442. URL https://doi.org/10.48550/arXiv.2304.03442J. Hohenstein, R. F. Kizilcec, D. DiFranzo, Z. Aghajari, H. Mieczkowski, K. Levy, M. Naaman, J. Hancock, M. F. Jung, Artificial intelligence in communication impacts language and social relationships, Scientific Reports 13 (1) (2023) 5425. doi:10.1038/s41598-023-00000-1.J. Hohenstein, R. F. Kizilcec, D. DiFranzo, Z. Aghajari, H. Mieczkowski, K. Levy, M. Naaman, J. Hancock, M. F. Jung, Artificial intelligence in communication impacts language and social relationships, Scientific Reports 13 (1) (2023) 5425. doi:10.1038/s41598-023-00000-1. URL https://www.nature.com/articles/s41598-023-00000-1C. Berner, G. Brockman, B. Chan, V. Cheung, P. Debiak, C. Dennison, D. Farhi, Q. Fischer, S. Hashme, C. Hesse, R. J ́ozefowicz, S. Gray, C. Olsson, J. Pachocki, M. Petrov, H. P. de Oliveira Pinto, J. Raiman, T. Salimans, J. Schlatter, J. Schneider, S. Sidor, I. Sutskever, J. Tang, F. Wolski, S. Zhang, Dota 2 with large scale deep reinforcement learning, arXiv, ArXiv preprint arXiv:1912.06680. URL https://arxiv.org/abs/1912.06680M. B. Johanson, E. Hughes, F. Timbers, J. Z. Leibo, Emergent bartering behaviour in multi-agent reinforcement learning, arXiv, ArXiv preprint arXiv:2205.06760. URL https://arxiv.org/abs/2205.06760R. S. Sutton, A. G. Barto, Reinforcement Learning: An Introduction, MIT Press, 1992.P. Ferraro, D. Loiacono, E. Malaguti, Multi-agent reinforcement learning: A review of challenges and applications, Applied Sciences 11 (11) (2021) 4948. doi:10.3390/app11114948. URL https://doi.org/10.3390/app11114948J. Schulman, F. Wolski, P. Dhariwal, A. Radford, O. Klimov, Proximal policy optimization algorithms, arXiv, ArXiv:1707.06347. URL https://arxiv.org/abs/1707.06347M. R. Douglas, Large language models, arXivdoi:10.48550/arXiv.2307.05782. URL https://doi.org/10.48550/arXiv.2307.05782A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser, I. Polosukhin, Attention is all you need, in: Advances in Neural Information Processing Systems (NIPS), 2017, pp. 5998–6008. doi:10.5555/3295222.3295349. URL https://arxiv.org/abs/1706.03762J. P. Agapiou, A. S. Vezhnevets, E. A. Du ́e ̃nez-Guzm ́an, J. Matyas, Y. Mao, P. Sunehag, R. K ̈oster, U. Madhushani, K. Kopparapu, R. Comanescu, D. J. Strouse, M. B. Johanson, S. Singh, J. Haas, I. Mordatch, D. Mobbs, J. Z. Leibo, Melting pot 2.0, arXiv 2211.13746. doi:10.48550/arXiv.2211.13746. URL https://arxiv.org/abs/2211.13746M. R ́ıos Beltran, Understanding group dynamics: solving social dilemmas in artificial multi-agent systems. URL http://hdl.handle.net/1992/64248J. S. Pinzon Roncancio, Large language models como planeadores multiagente en entornos sociales (Jan 2023). URL https://hdl.handle.net/1992/73756T. Connors, J. Sny, H. Snyder, Gpteam: A multi-agent simulation, LangChain Series.J. Wei, X. Wang, D. Schuurmans, M. Bosma, F. Xia, E. Chi, Q. V. Le, D. Zhou, et al., Chain-of-thought prompting elicits reasoning in large language models, in: Proceedings of the Neural Information Processing Systems (NeurIPS), 2022.2019157713PublicationORIGINALautorizacion tesis electronica SIGNED.pdfautorizacion tesis electronica SIGNED.pdfHIDEapplication/pdf239102https://repositorio.uniandes.edu.co/bitstreams/f42c0eb2-31a9-4b67-a949-7ad41c0478d5/download9f632567a4926e45cf116f1f3f739e43MD51Aprendizaje por refuerzo multiagente en entornos sociales.pdfAprendizaje por refuerzo multiagente en entornos sociales.pdfapplication/pdf857097https://repositorio.uniandes.edu.co/bitstreams/835fe625-3f74-49f4-95a0-be17fd893ac9/downloadc88ba46b0a303e3aba75daf19f96c6efMD52LICENSElicense.txtlicense.txttext/plain; charset=utf-82535https://repositorio.uniandes.edu.co/bitstreams/918b8c3f-4dbc-4dc3-be24-a2bb8719745a/downloadae9e573a68e7f92501b6913cc846c39fMD53TEXTautorizacion tesis electronica SIGNED.pdf.txtautorizacion tesis electronica SIGNED.pdf.txtExtracted texttext/plain2161https://repositorio.uniandes.edu.co/bitstreams/4fda71f9-e9c7-4cb8-bc39-caeaa093619c/download4e217cd80f0fc7c26f6512e319ec84d1MD54Aprendizaje por refuerzo multiagente en entornos sociales.pdf.txtAprendizaje por refuerzo multiagente en entornos sociales.pdf.txtExtracted texttext/plain54074https://repositorio.uniandes.edu.co/bitstreams/c854b5f6-8900-4971-9e4f-517fea55666f/downloadc25d9ce36861a5ca7531efb2899da157MD56THUMBNAILautorizacion tesis electronica SIGNED.pdf.jpgautorizacion tesis electronica SIGNED.pdf.jpgGenerated Thumbnailimage/jpeg10884https://repositorio.uniandes.edu.co/bitstreams/71bca768-f3de-4e95-86f8-9e8bb68ef562/downloadaac9f3542722b250caf2d15db70da5baMD55Aprendizaje por refuerzo multiagente en entornos sociales.pdf.jpgAprendizaje por refuerzo multiagente en entornos sociales.pdf.jpgGenerated Thumbnailimage/jpeg5948https://repositorio.uniandes.edu.co/bitstreams/8682be1a-43c6-43a3-81d8-2e01e5773db6/download8d225258226b0dd0682a0158f1d99bbdMD571992/73833oai:repositorio.uniandes.edu.co:1992/738332024-03-05 14:46:49.551https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdfopen.accesshttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.coPGgzPjxzdHJvbmc+RGVzY2FyZ28gZGUgUmVzcG9uc2FiaWxpZGFkIC0gTGljZW5jaWEgZGUgQXV0b3JpemFjacOzbjwvc3Ryb25nPjwvaDM+CjxwPjxzdHJvbmc+UG9yIGZhdm9yIGxlZXIgYXRlbnRhbWVudGUgZXN0ZSBkb2N1bWVudG8gcXVlIHBlcm1pdGUgYWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBTw6luZWNhIHJlcHJvZHVjaXIgeSBkaXN0cmlidWlyIGxvcyByZWN1cnNvcyBkZSBpbmZvcm1hY2nDs24gZGVwb3NpdGFkb3MgbWVkaWFudGUgbGEgYXV0b3JpemFjacOzbiBkZSBsb3Mgc2lndWllbnRlcyB0w6lybWlub3M6PC9zdHJvbmc+PC9wPgo8cD5Db25jZWRhIGxhIGxpY2VuY2lhIGRlIGRlcMOzc2l0byBlc3TDoW5kYXIgc2VsZWNjaW9uYW5kbyBsYSBvcGNpw7NuIDxzdHJvbmc+J0FjZXB0YXIgbG9zIHTDqXJtaW5vcyBhbnRlcmlvcm1lbnRlIGRlc2NyaXRvcyc8L3N0cm9uZz4geSBjb250aW51YXIgZWwgcHJvY2VzbyBkZSBlbnbDrW8gbWVkaWFudGUgZWwgYm90w7NuIDxzdHJvbmc+J1NpZ3VpZW50ZScuPC9zdHJvbmc+PC9wPgo8aHI+CjxwPllvLCBlbiBtaSBjYWxpZGFkIGRlIGF1dG9yIGRlbCB0cmFiYWpvIGRlIHRlc2lzLCBtb25vZ3JhZsOtYSBvIHRyYWJham8gZGUgZ3JhZG8sIGhhZ28gZW50cmVnYSBkZWwgZWplbXBsYXIgcmVzcGVjdGl2byB5IGRlIHN1cyBhbmV4b3MgZGUgc2VyIGVsIGNhc28sIGVuIGZvcm1hdG8gZGlnaXRhbCB5L28gZWxlY3Ryw7NuaWNvIHkgYXV0b3Jpem8gYSBsYSBVbml2ZXJzaWRhZCBkZSBsb3MgQW5kZXMgcGFyYSBxdWUgcmVhbGljZSBsYSBwdWJsaWNhY2nDs24gZW4gZWwgU2lzdGVtYSBkZSBCaWJsaW90ZWNhcyBvIGVuIGN1YWxxdWllciBvdHJvIHNpc3RlbWEgbyBiYXNlIGRlIGRhdG9zIHByb3BpbyBvIGFqZW5vIGEgbGEgVW5pdmVyc2lkYWQgeSBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBBbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCB1dGlsaWNlIGVuIHRvZGFzIHN1cyBmb3JtYXMsIGxvcyBkZXJlY2hvcyBwYXRyaW1vbmlhbGVzIGRlIHJlcHJvZHVjY2nDs24sIGNvbXVuaWNhY2nDs24gcMO6YmxpY2EsIHRyYW5zZm9ybWFjacOzbiB5IGRpc3RyaWJ1Y2nDs24gKGFscXVpbGVyLCBwcsOpc3RhbW8gcMO6YmxpY28gZSBpbXBvcnRhY2nDs24pIHF1ZSBtZSBjb3JyZXNwb25kZW4gY29tbyBjcmVhZG9yIGRlIGxhIG9icmEgb2JqZXRvIGRlbCBwcmVzZW50ZSBkb2N1bWVudG8uPC9wPgo8cD5MYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIHNlIGVtaXRlIGVuIGNhbGlkYWQgZGUgYXV0b3IgZGUgbGEgb2JyYSBvYmpldG8gZGVsIHByZXNlbnRlIGRvY3VtZW50byB5IG5vIGNvcnJlc3BvbmRlIGEgY2VzacOzbiBkZSBkZXJlY2hvcywgc2lubyBhIGxhIGF1dG9yaXphY2nDs24gZGUgdXNvIGFjYWTDqW1pY28gZGUgY29uZm9ybWlkYWQgY29uIGxvIGFudGVyaW9ybWVudGUgc2XDsWFsYWRvLiBMYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIHNlIGhhY2UgZXh0ZW5zaXZhIG5vIHNvbG8gYSBsYXMgZmFjdWx0YWRlcyB5IGRlcmVjaG9zIGRlIHVzbyBzb2JyZSBsYSBvYnJhIGVuIGZvcm1hdG8gbyBzb3BvcnRlIG1hdGVyaWFsLCBzaW5vIHRhbWJpw6luIHBhcmEgZm9ybWF0byBlbGVjdHLDs25pY28sIHkgZW4gZ2VuZXJhbCBwYXJhIGN1YWxxdWllciBmb3JtYXRvIGNvbm9jaWRvIG8gcG9yIGNvbm9jZXIuPC9wPgo8cD5FbCBhdXRvciwgbWFuaWZpZXN0YSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8sIGxhIG9icmEgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgbGEgbWlzbWEuPC9wPgo8cD5FbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgZWwgYXV0b3IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBkZSBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVbml2ZXJzaWRhZCBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlLjwvcD4KPHA+U2kgdGllbmUgYWxndW5hIGR1ZGEgc29icmUgbGEgbGljZW5jaWEsIHBvciBmYXZvciwgY29udGFjdGUgY29uIGVsIDxhIGhyZWY9Im1haWx0bzpiaWJsaW90ZWNhQHVuaWFuZGVzLmVkdS5jbyIgdGFyZ2V0PSJfYmxhbmsiPkFkbWluaXN0cmFkb3IgZGVsIFNpc3RlbWEuPC9hPjwvcD4K |