Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida

Este trabajo continúa con el uso de Aprendizaje por Refuerzo Profundo (en inglés Deep Reinforcement Learning o DRL) en simulaciones híbridas en tiempo real (en inglés Real-Time Hybrid Simulation o RTHS) para diseñar un agente capaz de realizar las acciones de control de seguimiento y compensación de...

Full description

Autores:
Amaya Carreño, Juan David
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2022
Institución:
Universidad de los Andes
Repositorio:
Séneca: repositorio Uniandes
Idioma:
spa
OAI Identifier:
oai:repositorio.uniandes.edu.co:1992/59341
Acceso en línea:
http://hdl.handle.net/1992/59341
Palabra clave:
Aprendizaje por Refuerzo
Real Time Hybrid Simulation
RTHS
Aprendizaje por Refuerzo Profundo
Control Estructural
Ingeniería
Rights
openAccess
License
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
id UNIANDES2_55eb2eec88f4028166702c67fedd3fa1
oai_identifier_str oai:repositorio.uniandes.edu.co:1992/59341
network_acronym_str UNIANDES2
network_name_str Séneca: repositorio Uniandes
repository_id_str
dc.title.none.fl_str_mv Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida
title Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida
spellingShingle Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida
Aprendizaje por Refuerzo
Real Time Hybrid Simulation
RTHS
Aprendizaje por Refuerzo Profundo
Control Estructural
Ingeniería
title_short Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida
title_full Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida
title_fullStr Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida
title_full_unstemmed Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida
title_sort Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida
dc.creator.fl_str_mv Amaya Carreño, Juan David
dc.contributor.advisor.none.fl_str_mv Giraldo Trujillo, Luis Felipe
dc.contributor.author.none.fl_str_mv Amaya Carreño, Juan David
dc.contributor.jury.none.fl_str_mv Zambrano Jacobo, Andrés Felipe
dc.subject.keyword.none.fl_str_mv Aprendizaje por Refuerzo
Real Time Hybrid Simulation
RTHS
Aprendizaje por Refuerzo Profundo
Control Estructural
topic Aprendizaje por Refuerzo
Real Time Hybrid Simulation
RTHS
Aprendizaje por Refuerzo Profundo
Control Estructural
Ingeniería
dc.subject.themes.es_CO.fl_str_mv Ingeniería
description Este trabajo continúa con el uso de Aprendizaje por Refuerzo Profundo (en inglés Deep Reinforcement Learning o DRL) en simulaciones híbridas en tiempo real (en inglés Real-Time Hybrid Simulation o RTHS) para diseñar un agente capaz de realizar las acciones de control de seguimiento y compensación de fase entre las respuestas de las particiones numérica y experimental del entorno de simulación. Los resultados obtenidos a partir de diferentes pruebas demuestran que el agente alcanzó un buen desempeño, incluso llegando a ser mejor en comparación a otras alternativas desarrolladas.
publishDate 2022
dc.date.accessioned.none.fl_str_mv 2022-07-29T12:25:59Z
dc.date.available.none.fl_str_mv 2022-07-29T12:25:59Z
dc.date.issued.none.fl_str_mv 2022-06-28
dc.type.none.fl_str_mv Trabajo de grado - Pregrado
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.es_CO.fl_str_mv Text
dc.type.redcol.none.fl_str_mv http://purl.org/redcol/resource_type/TP
format http://purl.org/coar/resource_type/c_7a1f
status_str acceptedVersion
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/1992/59341
dc.identifier.instname.none.fl_str_mv instname:Universidad de los Andes
dc.identifier.reponame.none.fl_str_mv reponame:Repositorio Institucional Séneca
dc.identifier.repourl.none.fl_str_mv repourl:https://repositorio.uniandes.edu.co/
url http://hdl.handle.net/1992/59341
identifier_str_mv instname:Universidad de los Andes
reponame:Repositorio Institucional Séneca
repourl:https://repositorio.uniandes.edu.co/
dc.language.iso.es_CO.fl_str_mv spa
language spa
dc.relation.references.es_CO.fl_str_mv A. F. Niño, A. P. Betacur, P. Miranda, J.D. Amaya, M. G. Soto, C. E. Silva y L. F. Giraldo, Using Deep Reinforcement Learning to design a tracking controller for a Real-Time Hybrid Simulation benchmark problem, tesis BA, Departamento de Ingeniería Eléctrica y Electrónica, Universidad de los Andes, Bogotá, 2021.
M. J. Harris y R. E. Christenson. (2020, jul.). Real-time hybrid simulation analysis of moat impacts in a base-isolated structure, Frontiers in Built Environment. DOI: http://dx.doi.org/10.3389/fbuil.2020.00120
G. Ou, A. Maghareh, X. Gao, N. Castaneda y S. J. Dyke. (s.f.). Cyber-Physical Instrument for Real-time Hybrid Structural Testing (MRI). [Internet]. Disponible en https://engineering.purdue.edu/Bowen/Projects/All/cyberphysical-instrument-for-realtime-hybrid-structural-testing-mri/CIRST-Highlights.pdf
E. E. Bas y M. A. Moustafa. (2020, jun.). Performance and Limitations of Real-Time Hybrid Simulation with Nonlinear Computational Substructures, Experimental Techniques. Vol. 44, pp. 715-734 (2020). DOI: https://doi.org/10.1007/s40799-020-00385-6
C. E. Silva, D. Gomez, A. Maghareh, S. J. Dyke y B. F. Spencer Jr. (2020, en.) Benchmark control problem for real-time hybrid simulation, Mechanical Systems and Signal Processing. Vol. 135, n.° 106381, 2020. DOI: https://doi.org/10.1016/j.ymssp.2019.106381
V. Mnih et al. (2015, febr.). Human-level control through deep reinforcement learning. Nature Vol. 518, pp. 529-533. DOI: https://doi.org/10.1038/nature14236
D. Silver, G. Lever, N. Heess, T. Degris, D. Wierstra y M. Riedmiller, Deterministic Policy Gradient Algorithms, en Proceedings of the 31st International Conference on Machine Learning, Beijing, China, 2014. En Proceedings of Machine Learning Research, Vol. 32(1), pp. 387-395. Disponible en https://www.davidsilver.uk/wp-content/uploads/2020/03/deterministic-policy-gradients.pdf
R. S. Sutton, D. McAllester, S. Singh y Y. Mansour, Policy gradient methods for reinforcement learning with function approximation, en Neural Information Processing Systems 12, Florham Park, New Jersey, 1999, pp. 1057-1063.
T. P. Lillicrap et al. (2016). Continuous control with deep reinforcement learning, CoRR, abs/1509.02971. Disponible en https://arxiv.org/abs/1509.02971
S. Ioffe y C. Szegedy, Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift, en International Conference on Machine Learning, 2015. Disponible en https://arxiv.org/abs/1502.03167
MathWorks. (s.f.). Deep Learning in MATLAB [Internet]. Disponible en https://www.mathworks.com/help/deeplearning/ug/deep-learning-in-matlab.html
N. P. Lawrence, M. G. Forbes, P. D. Loewen, D. G. McClement, J. U. Backstrom y R. B. Gopaluni. (2022). Deep Reinforcement Learning with Shallow Controllers: An Experimental Application to PID Tuning, ArXiv, abs/2111.07171. Disponible en https://arxiv.org/abs/2111.07171
L. Chan. (2021, mzo. 06). 3 Common Problems with Neural Network Initialization. [Internet] Disponible en https://towardsdatascience.com/3-common-problems-with-neural-network-initialisation-5e6cacfcd8e6
L. N. Smith, Cyclical Learning Rates for Training Neural Networks, en 2017 IEEE Winter Conference on Applications of Computer Vision, 2017. pp. 464-472. Disponible en https://arxiv.org/abs/1506.01186
MathWorks. (s.f.). rlDDPGAgentOptions. [Internet] Disponible en https://www.mathworks.com/help/reinforcement-learning/ref/rlddpgagentoptions.html
S. Zhang y R. S. Sutton. (2017). A Deeper Look at Experience Replay, ArXiv, abs/1712.01275. Disponible en https://arxiv.org/abs/1712.01275
J. E. Duque. (s.f.). 3. Controladores y acciones de control. [Internet]. Disponible en http://www.geocities.ws/joeldupar/control2/pid
Fundamentos del control de procesos usando el programa LVPROSIM, Lab-Volt Ltda., Canadá, 2004. Disponible en http://biblio3.url.edu.gt/Publi/Libros/2013/ManualesIng/FundamenP-O.pdf
MathWorks. (s.f.). Train Reinforcement Learning Agents. [Internet] Disponible en https://www.mathworks.com/help/reinforcement-learning/ug/train-reinforcement-learning-agents.html
C. Wu, A. Alomar y S. Jagwani. (2021, abr. 29) Lecture 19: Off-Policy Learning. [Internet]. Disponible en https://web.mit.edu/6.246/www/notes/L18-notes.pdf
dc.rights.license.spa.fl_str_mv Attribution-NonCommercial-NoDerivatives 4.0 Internacional
dc.rights.uri.*.fl_str_mv https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdf
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.coar.spa.fl_str_mv http://purl.org/coar/access_right/c_abf2
rights_invalid_str_mv Attribution-NonCommercial-NoDerivatives 4.0 Internacional
https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdf
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.es_CO.fl_str_mv 34 páginas
dc.format.mimetype.es_CO.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidad de los Andes
dc.publisher.program.es_CO.fl_str_mv Ingeniería Electrónica
dc.publisher.faculty.es_CO.fl_str_mv Facultad de Ingeniería
dc.publisher.department.es_CO.fl_str_mv Departamento de Ingeniería Eléctrica y Electrónica
publisher.none.fl_str_mv Universidad de los Andes
institution Universidad de los Andes
bitstream.url.fl_str_mv https://repositorio.uniandes.edu.co/bitstreams/41305613-9a96-4c21-8b56-42e0c210d434/download
https://repositorio.uniandes.edu.co/bitstreams/94b19b24-a25f-481f-be3c-0116b15a8d89/download
https://repositorio.uniandes.edu.co/bitstreams/8cd6a731-9d97-4cc5-b96f-b0215ae94a78/download
https://repositorio.uniandes.edu.co/bitstreams/49a7e949-0fd8-4d6b-a4d6-4fb964922ada/download
https://repositorio.uniandes.edu.co/bitstreams/4e623f66-63e8-4623-bdaf-364777c24482/download
https://repositorio.uniandes.edu.co/bitstreams/c3cc5e9b-1841-4d8c-a11d-1c1f84d100ff/download
https://repositorio.uniandes.edu.co/bitstreams/964a3808-80a1-458b-8f32-65e22a6602fc/download
bitstream.checksum.fl_str_mv 5aa5c691a1ffe97abd12c2966efcb8d6
0a5d93198ba9dfb59bdc2096525611e6
771269d6af4372dc734ad13089aab76a
37c28b5e4263f714c0f4c5f35091c45f
40cf2e167c11028bca18374cdb4ecb03
a6e659f8e24ef03c1ada0bd4d2ffcac9
2d1492282479299ee1580372fa002898
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio institucional Séneca
repository.mail.fl_str_mv adminrepositorio@uniandes.edu.co
_version_ 1808390402735079424
spelling Attribution-NonCommercial-NoDerivatives 4.0 Internacionalhttps://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdfinfo:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Giraldo Trujillo, Luis Felipevirtual::12499-1Amaya Carreño, Juan Davidde645e20-ae8f-4119-bc35-3c6462f18c20600Zambrano Jacobo, Andrés Felipe2022-07-29T12:25:59Z2022-07-29T12:25:59Z2022-06-28http://hdl.handle.net/1992/59341instname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/Este trabajo continúa con el uso de Aprendizaje por Refuerzo Profundo (en inglés Deep Reinforcement Learning o DRL) en simulaciones híbridas en tiempo real (en inglés Real-Time Hybrid Simulation o RTHS) para diseñar un agente capaz de realizar las acciones de control de seguimiento y compensación de fase entre las respuestas de las particiones numérica y experimental del entorno de simulación. Los resultados obtenidos a partir de diferentes pruebas demuestran que el agente alcanzó un buen desempeño, incluso llegando a ser mejor en comparación a otras alternativas desarrolladas.This paper continues with the use of Deep Reinforcement Learning (DRL) in Real-Time Hybrid Simulation (RTHS) to design an agent capable of doing both tracking control and phase-lead compensation between the responses of the numeric partition and the experimental partition in a virtual environment for simulation. The results obtained from different tests proved that the agent performed very well to even be better than other alternatives developed before.Ingeniero ElectrónicoPregrado34 páginasapplication/pdfspaUniversidad de los AndesIngeniería ElectrónicaFacultad de IngenieríaDepartamento de Ingeniería Eléctrica y ElectrónicaAprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbridaTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1fTexthttp://purl.org/redcol/resource_type/TPAprendizaje por RefuerzoReal Time Hybrid SimulationRTHSAprendizaje por Refuerzo ProfundoControl EstructuralIngenieríaA. F. Niño, A. P. Betacur, P. Miranda, J.D. Amaya, M. G. Soto, C. E. Silva y L. F. Giraldo, Using Deep Reinforcement Learning to design a tracking controller for a Real-Time Hybrid Simulation benchmark problem, tesis BA, Departamento de Ingeniería Eléctrica y Electrónica, Universidad de los Andes, Bogotá, 2021.M. J. Harris y R. E. Christenson. (2020, jul.). Real-time hybrid simulation analysis of moat impacts in a base-isolated structure, Frontiers in Built Environment. DOI: http://dx.doi.org/10.3389/fbuil.2020.00120G. Ou, A. Maghareh, X. Gao, N. Castaneda y S. J. Dyke. (s.f.). Cyber-Physical Instrument for Real-time Hybrid Structural Testing (MRI). [Internet]. Disponible en https://engineering.purdue.edu/Bowen/Projects/All/cyberphysical-instrument-for-realtime-hybrid-structural-testing-mri/CIRST-Highlights.pdfE. E. Bas y M. A. Moustafa. (2020, jun.). Performance and Limitations of Real-Time Hybrid Simulation with Nonlinear Computational Substructures, Experimental Techniques. Vol. 44, pp. 715-734 (2020). DOI: https://doi.org/10.1007/s40799-020-00385-6C. E. Silva, D. Gomez, A. Maghareh, S. J. Dyke y B. F. Spencer Jr. (2020, en.) Benchmark control problem for real-time hybrid simulation, Mechanical Systems and Signal Processing. Vol. 135, n.° 106381, 2020. DOI: https://doi.org/10.1016/j.ymssp.2019.106381V. Mnih et al. (2015, febr.). Human-level control through deep reinforcement learning. Nature Vol. 518, pp. 529-533. DOI: https://doi.org/10.1038/nature14236D. Silver, G. Lever, N. Heess, T. Degris, D. Wierstra y M. Riedmiller, Deterministic Policy Gradient Algorithms, en Proceedings of the 31st International Conference on Machine Learning, Beijing, China, 2014. En Proceedings of Machine Learning Research, Vol. 32(1), pp. 387-395. Disponible en https://www.davidsilver.uk/wp-content/uploads/2020/03/deterministic-policy-gradients.pdfR. S. Sutton, D. McAllester, S. Singh y Y. Mansour, Policy gradient methods for reinforcement learning with function approximation, en Neural Information Processing Systems 12, Florham Park, New Jersey, 1999, pp. 1057-1063.T. P. Lillicrap et al. (2016). Continuous control with deep reinforcement learning, CoRR, abs/1509.02971. Disponible en https://arxiv.org/abs/1509.02971S. Ioffe y C. Szegedy, Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift, en International Conference on Machine Learning, 2015. Disponible en https://arxiv.org/abs/1502.03167MathWorks. (s.f.). Deep Learning in MATLAB [Internet]. Disponible en https://www.mathworks.com/help/deeplearning/ug/deep-learning-in-matlab.htmlN. P. Lawrence, M. G. Forbes, P. D. Loewen, D. G. McClement, J. U. Backstrom y R. B. Gopaluni. (2022). Deep Reinforcement Learning with Shallow Controllers: An Experimental Application to PID Tuning, ArXiv, abs/2111.07171. Disponible en https://arxiv.org/abs/2111.07171L. Chan. (2021, mzo. 06). 3 Common Problems with Neural Network Initialization. [Internet] Disponible en https://towardsdatascience.com/3-common-problems-with-neural-network-initialisation-5e6cacfcd8e6L. N. Smith, Cyclical Learning Rates for Training Neural Networks, en 2017 IEEE Winter Conference on Applications of Computer Vision, 2017. pp. 464-472. Disponible en https://arxiv.org/abs/1506.01186MathWorks. (s.f.). rlDDPGAgentOptions. [Internet] Disponible en https://www.mathworks.com/help/reinforcement-learning/ref/rlddpgagentoptions.htmlS. Zhang y R. S. Sutton. (2017). A Deeper Look at Experience Replay, ArXiv, abs/1712.01275. Disponible en https://arxiv.org/abs/1712.01275J. E. Duque. (s.f.). 3. Controladores y acciones de control. [Internet]. Disponible en http://www.geocities.ws/joeldupar/control2/pidFundamentos del control de procesos usando el programa LVPROSIM, Lab-Volt Ltda., Canadá, 2004. Disponible en http://biblio3.url.edu.gt/Publi/Libros/2013/ManualesIng/FundamenP-O.pdfMathWorks. (s.f.). Train Reinforcement Learning Agents. [Internet] Disponible en https://www.mathworks.com/help/reinforcement-learning/ug/train-reinforcement-learning-agents.htmlC. Wu, A. Alomar y S. Jagwani. (2021, abr. 29) Lecture 19: Off-Policy Learning. [Internet]. Disponible en https://web.mit.edu/6.246/www/notes/L18-notes.pdf201816977Publicationhttps://scholar.google.es/citations?user=4TGvo8AAAAJvirtual::12499-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000802506virtual::12499-1eb386eec-3ec8-40c2-829d-ae8cbf0e384evirtual::12499-1eb386eec-3ec8-40c2-829d-ae8cbf0e384evirtual::12499-1LICENSElicense.txtlicense.txttext/plain; charset=utf-81810https://repositorio.uniandes.edu.co/bitstreams/41305613-9a96-4c21-8b56-42e0c210d434/download5aa5c691a1ffe97abd12c2966efcb8d6MD51TEXTDesarrollo de un controlador de seguimiento sin compensador de fase previo mediante Reinforcement Learning en Simulación Híbrida.pdf.txtDesarrollo de un controlador de seguimiento sin compensador de fase previo mediante Reinforcement Learning en Simulación Híbrida.pdf.txtExtracted texttext/plain48713https://repositorio.uniandes.edu.co/bitstreams/94b19b24-a25f-481f-be3c-0116b15a8d89/download0a5d93198ba9dfb59bdc2096525611e6MD54Formato de Autorización y Entrega de Tesis-Trabajo de Grado al Sistema de Bibliotecas.pdf.txtFormato de Autorización y Entrega de Tesis-Trabajo de Grado al Sistema de Bibliotecas.pdf.txtExtracted texttext/plain1192https://repositorio.uniandes.edu.co/bitstreams/8cd6a731-9d97-4cc5-b96f-b0215ae94a78/download771269d6af4372dc734ad13089aab76aMD56THUMBNAILDesarrollo de un controlador de seguimiento sin compensador de fase previo mediante Reinforcement Learning en Simulación Híbrida.pdf.jpgDesarrollo de un controlador de seguimiento sin compensador de fase previo mediante Reinforcement Learning en Simulación Híbrida.pdf.jpgIM Thumbnailimage/jpeg13187https://repositorio.uniandes.edu.co/bitstreams/49a7e949-0fd8-4d6b-a4d6-4fb964922ada/download37c28b5e4263f714c0f4c5f35091c45fMD55Formato de Autorización y Entrega de Tesis-Trabajo de Grado al Sistema de Bibliotecas.pdf.jpgFormato de Autorización y Entrega de Tesis-Trabajo de Grado al Sistema de Bibliotecas.pdf.jpgIM Thumbnailimage/jpeg15668https://repositorio.uniandes.edu.co/bitstreams/4e623f66-63e8-4623-bdaf-364777c24482/download40cf2e167c11028bca18374cdb4ecb03MD57ORIGINALDesarrollo de un controlador de seguimiento sin compensador de fase previo mediante Reinforcement Learning en Simulación Híbrida.pdfDesarrollo de un controlador de seguimiento sin compensador de fase previo mediante Reinforcement Learning en Simulación Híbrida.pdfTrabajo de gradoapplication/pdf1728505https://repositorio.uniandes.edu.co/bitstreams/c3cc5e9b-1841-4d8c-a11d-1c1f84d100ff/downloada6e659f8e24ef03c1ada0bd4d2ffcac9MD52Formato de Autorización y Entrega de Tesis-Trabajo de Grado al Sistema de Bibliotecas.pdfFormato de Autorización y Entrega de Tesis-Trabajo de Grado al Sistema de Bibliotecas.pdfHIDEapplication/pdf242593https://repositorio.uniandes.edu.co/bitstreams/964a3808-80a1-458b-8f32-65e22a6602fc/download2d1492282479299ee1580372fa002898MD531992/59341oai:repositorio.uniandes.edu.co:1992/593412024-03-13 14:42:05.616https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdfopen.accesshttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.coWW8sIGVuIG1pIGNhbGlkYWQgZGUgYXV0b3IgZGVsIHRyYWJham8gZGUgdGVzaXMsIG1vbm9ncmFmw61hIG8gdHJhYmFqbyBkZSBncmFkbywgaGFnbyBlbnRyZWdhIGRlbCBlamVtcGxhciByZXNwZWN0aXZvIHkgZGUgc3VzIGFuZXhvcyBkZSBzZXIgZWwgY2FzbywgZW4gZm9ybWF0byBkaWdpdGFsIHkvbyBlbGVjdHLDs25pY28geSBhdXRvcml6byBhIGxhIFVuaXZlcnNpZGFkIGRlIGxvcyBBbmRlcyBwYXJhIHF1ZSByZWFsaWNlIGxhIHB1YmxpY2FjacOzbiBlbiBlbCBTaXN0ZW1hIGRlIEJpYmxpb3RlY2FzIG8gZW4gY3VhbHF1aWVyIG90cm8gc2lzdGVtYSBvIGJhc2UgZGUgZGF0b3MgcHJvcGlvIG8gYWplbm8gYSBsYSBVbml2ZXJzaWRhZCB5IHBhcmEgcXVlIGVuIGxvcyB0w6lybWlub3MgZXN0YWJsZWNpZG9zIGVuIGxhIExleSAyMyBkZSAxOTgyLCBMZXkgNDQgZGUgMTk5MywgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5MywgRGVjcmV0byA0NjAgZGUgMTk5NSB5IGRlbcOhcyBub3JtYXMgZ2VuZXJhbGVzIHNvYnJlIGxhIG1hdGVyaWEsIHV0aWxpY2UgZW4gdG9kYXMgc3VzIGZvcm1hcywgbG9zIGRlcmVjaG9zIHBhdHJpbW9uaWFsZXMgZGUgcmVwcm9kdWNjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSwgdHJhbnNmb3JtYWNpw7NuIHkgZGlzdHJpYnVjacOzbiAoYWxxdWlsZXIsIHByw6lzdGFtbyBww7pibGljbyBlIGltcG9ydGFjacOzbikgcXVlIG1lIGNvcnJlc3BvbmRlbiBjb21vIGNyZWFkb3IgZGUgbGEgb2JyYSBvYmpldG8gZGVsIHByZXNlbnRlIGRvY3VtZW50by4gIAoKCkxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gc2UgZW1pdGUgZW4gY2FsaWRhZCBkZSBhdXRvciBkZSBsYSBvYnJhIG9iamV0byBkZWwgcHJlc2VudGUgZG9jdW1lbnRvIHkgbm8gY29ycmVzcG9uZGUgYSBjZXNpw7NuIGRlIGRlcmVjaG9zLCBzaW5vIGEgbGEgYXV0b3JpemFjacOzbiBkZSB1c28gYWNhZMOpbWljbyBkZSBjb25mb3JtaWRhZCBjb24gbG8gYW50ZXJpb3JtZW50ZSBzZcOxYWxhZG8uIExhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gc2UgaGFjZSBleHRlbnNpdmEgbm8gc29sbyBhIGxhcyBmYWN1bHRhZGVzIHkgZGVyZWNob3MgZGUgdXNvIHNvYnJlIGxhIG9icmEgZW4gZm9ybWF0byBvIHNvcG9ydGUgbWF0ZXJpYWwsIHNpbm8gdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGVsZWN0csOzbmljbywgeSBlbiBnZW5lcmFsIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gCgoKRWwgYXV0b3IsIG1hbmlmaWVzdGEgcXVlIGxhIG9icmEgb2JqZXRvIGRlIGxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gZXMgb3JpZ2luYWwgeSBsYSByZWFsaXrDsyBzaW4gdmlvbGFyIG8gdXN1cnBhciBkZXJlY2hvcyBkZSBhdXRvciBkZSB0ZXJjZXJvcywgcG9yIGxvIHRhbnRvLCBsYSBvYnJhIGVzIGRlIHN1IGV4Y2x1c2l2YSBhdXRvcsOtYSB5IHRpZW5lIGxhIHRpdHVsYXJpZGFkIHNvYnJlIGxhIG1pc21hLiAKCgpFbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgZWwgYXV0b3IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBkZSBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVbml2ZXJzaWRhZCBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlLiAKCg==