Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida
Este trabajo continúa con el uso de Aprendizaje por Refuerzo Profundo (en inglés Deep Reinforcement Learning o DRL) en simulaciones híbridas en tiempo real (en inglés Real-Time Hybrid Simulation o RTHS) para diseñar un agente capaz de realizar las acciones de control de seguimiento y compensación de...
- Autores:
-
Amaya Carreño, Juan David
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2022
- Institución:
- Universidad de los Andes
- Repositorio:
- Séneca: repositorio Uniandes
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.uniandes.edu.co:1992/59341
- Acceso en línea:
- http://hdl.handle.net/1992/59341
- Palabra clave:
- Aprendizaje por Refuerzo
Real Time Hybrid Simulation
RTHS
Aprendizaje por Refuerzo Profundo
Control Estructural
Ingeniería
- Rights
- openAccess
- License
- Attribution-NonCommercial-NoDerivatives 4.0 Internacional
id |
UNIANDES2_55eb2eec88f4028166702c67fedd3fa1 |
---|---|
oai_identifier_str |
oai:repositorio.uniandes.edu.co:1992/59341 |
network_acronym_str |
UNIANDES2 |
network_name_str |
Séneca: repositorio Uniandes |
repository_id_str |
|
dc.title.none.fl_str_mv |
Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida |
title |
Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida |
spellingShingle |
Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida Aprendizaje por Refuerzo Real Time Hybrid Simulation RTHS Aprendizaje por Refuerzo Profundo Control Estructural Ingeniería |
title_short |
Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida |
title_full |
Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida |
title_fullStr |
Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida |
title_full_unstemmed |
Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida |
title_sort |
Aprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbrida |
dc.creator.fl_str_mv |
Amaya Carreño, Juan David |
dc.contributor.advisor.none.fl_str_mv |
Giraldo Trujillo, Luis Felipe |
dc.contributor.author.none.fl_str_mv |
Amaya Carreño, Juan David |
dc.contributor.jury.none.fl_str_mv |
Zambrano Jacobo, Andrés Felipe |
dc.subject.keyword.none.fl_str_mv |
Aprendizaje por Refuerzo Real Time Hybrid Simulation RTHS Aprendizaje por Refuerzo Profundo Control Estructural |
topic |
Aprendizaje por Refuerzo Real Time Hybrid Simulation RTHS Aprendizaje por Refuerzo Profundo Control Estructural Ingeniería |
dc.subject.themes.es_CO.fl_str_mv |
Ingeniería |
description |
Este trabajo continúa con el uso de Aprendizaje por Refuerzo Profundo (en inglés Deep Reinforcement Learning o DRL) en simulaciones híbridas en tiempo real (en inglés Real-Time Hybrid Simulation o RTHS) para diseñar un agente capaz de realizar las acciones de control de seguimiento y compensación de fase entre las respuestas de las particiones numérica y experimental del entorno de simulación. Los resultados obtenidos a partir de diferentes pruebas demuestran que el agente alcanzó un buen desempeño, incluso llegando a ser mejor en comparación a otras alternativas desarrolladas. |
publishDate |
2022 |
dc.date.accessioned.none.fl_str_mv |
2022-07-29T12:25:59Z |
dc.date.available.none.fl_str_mv |
2022-07-29T12:25:59Z |
dc.date.issued.none.fl_str_mv |
2022-06-28 |
dc.type.none.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.es_CO.fl_str_mv |
Text |
dc.type.redcol.none.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/1992/59341 |
dc.identifier.instname.none.fl_str_mv |
instname:Universidad de los Andes |
dc.identifier.reponame.none.fl_str_mv |
reponame:Repositorio Institucional Séneca |
dc.identifier.repourl.none.fl_str_mv |
repourl:https://repositorio.uniandes.edu.co/ |
url |
http://hdl.handle.net/1992/59341 |
identifier_str_mv |
instname:Universidad de los Andes reponame:Repositorio Institucional Séneca repourl:https://repositorio.uniandes.edu.co/ |
dc.language.iso.es_CO.fl_str_mv |
spa |
language |
spa |
dc.relation.references.es_CO.fl_str_mv |
A. F. Niño, A. P. Betacur, P. Miranda, J.D. Amaya, M. G. Soto, C. E. Silva y L. F. Giraldo, Using Deep Reinforcement Learning to design a tracking controller for a Real-Time Hybrid Simulation benchmark problem, tesis BA, Departamento de Ingeniería Eléctrica y Electrónica, Universidad de los Andes, Bogotá, 2021. M. J. Harris y R. E. Christenson. (2020, jul.). Real-time hybrid simulation analysis of moat impacts in a base-isolated structure, Frontiers in Built Environment. DOI: http://dx.doi.org/10.3389/fbuil.2020.00120 G. Ou, A. Maghareh, X. Gao, N. Castaneda y S. J. Dyke. (s.f.). Cyber-Physical Instrument for Real-time Hybrid Structural Testing (MRI). [Internet]. Disponible en https://engineering.purdue.edu/Bowen/Projects/All/cyberphysical-instrument-for-realtime-hybrid-structural-testing-mri/CIRST-Highlights.pdf E. E. Bas y M. A. Moustafa. (2020, jun.). Performance and Limitations of Real-Time Hybrid Simulation with Nonlinear Computational Substructures, Experimental Techniques. Vol. 44, pp. 715-734 (2020). DOI: https://doi.org/10.1007/s40799-020-00385-6 C. E. Silva, D. Gomez, A. Maghareh, S. J. Dyke y B. F. Spencer Jr. (2020, en.) Benchmark control problem for real-time hybrid simulation, Mechanical Systems and Signal Processing. Vol. 135, n.° 106381, 2020. DOI: https://doi.org/10.1016/j.ymssp.2019.106381 V. Mnih et al. (2015, febr.). Human-level control through deep reinforcement learning. Nature Vol. 518, pp. 529-533. DOI: https://doi.org/10.1038/nature14236 D. Silver, G. Lever, N. Heess, T. Degris, D. Wierstra y M. Riedmiller, Deterministic Policy Gradient Algorithms, en Proceedings of the 31st International Conference on Machine Learning, Beijing, China, 2014. En Proceedings of Machine Learning Research, Vol. 32(1), pp. 387-395. Disponible en https://www.davidsilver.uk/wp-content/uploads/2020/03/deterministic-policy-gradients.pdf R. S. Sutton, D. McAllester, S. Singh y Y. Mansour, Policy gradient methods for reinforcement learning with function approximation, en Neural Information Processing Systems 12, Florham Park, New Jersey, 1999, pp. 1057-1063. T. P. Lillicrap et al. (2016). Continuous control with deep reinforcement learning, CoRR, abs/1509.02971. Disponible en https://arxiv.org/abs/1509.02971 S. Ioffe y C. Szegedy, Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift, en International Conference on Machine Learning, 2015. Disponible en https://arxiv.org/abs/1502.03167 MathWorks. (s.f.). Deep Learning in MATLAB [Internet]. Disponible en https://www.mathworks.com/help/deeplearning/ug/deep-learning-in-matlab.html N. P. Lawrence, M. G. Forbes, P. D. Loewen, D. G. McClement, J. U. Backstrom y R. B. Gopaluni. (2022). Deep Reinforcement Learning with Shallow Controllers: An Experimental Application to PID Tuning, ArXiv, abs/2111.07171. Disponible en https://arxiv.org/abs/2111.07171 L. Chan. (2021, mzo. 06). 3 Common Problems with Neural Network Initialization. [Internet] Disponible en https://towardsdatascience.com/3-common-problems-with-neural-network-initialisation-5e6cacfcd8e6 L. N. Smith, Cyclical Learning Rates for Training Neural Networks, en 2017 IEEE Winter Conference on Applications of Computer Vision, 2017. pp. 464-472. Disponible en https://arxiv.org/abs/1506.01186 MathWorks. (s.f.). rlDDPGAgentOptions. [Internet] Disponible en https://www.mathworks.com/help/reinforcement-learning/ref/rlddpgagentoptions.html S. Zhang y R. S. Sutton. (2017). A Deeper Look at Experience Replay, ArXiv, abs/1712.01275. Disponible en https://arxiv.org/abs/1712.01275 J. E. Duque. (s.f.). 3. Controladores y acciones de control. [Internet]. Disponible en http://www.geocities.ws/joeldupar/control2/pid Fundamentos del control de procesos usando el programa LVPROSIM, Lab-Volt Ltda., Canadá, 2004. Disponible en http://biblio3.url.edu.gt/Publi/Libros/2013/ManualesIng/FundamenP-O.pdf MathWorks. (s.f.). Train Reinforcement Learning Agents. [Internet] Disponible en https://www.mathworks.com/help/reinforcement-learning/ug/train-reinforcement-learning-agents.html C. Wu, A. Alomar y S. Jagwani. (2021, abr. 29) Lecture 19: Off-Policy Learning. [Internet]. Disponible en https://web.mit.edu/6.246/www/notes/L18-notes.pdf |
dc.rights.license.spa.fl_str_mv |
Attribution-NonCommercial-NoDerivatives 4.0 Internacional |
dc.rights.uri.*.fl_str_mv |
https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdf |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.spa.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
Attribution-NonCommercial-NoDerivatives 4.0 Internacional https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdf http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.extent.es_CO.fl_str_mv |
34 páginas |
dc.format.mimetype.es_CO.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidad de los Andes |
dc.publisher.program.es_CO.fl_str_mv |
Ingeniería Electrónica |
dc.publisher.faculty.es_CO.fl_str_mv |
Facultad de Ingeniería |
dc.publisher.department.es_CO.fl_str_mv |
Departamento de Ingeniería Eléctrica y Electrónica |
publisher.none.fl_str_mv |
Universidad de los Andes |
institution |
Universidad de los Andes |
bitstream.url.fl_str_mv |
https://repositorio.uniandes.edu.co/bitstreams/41305613-9a96-4c21-8b56-42e0c210d434/download https://repositorio.uniandes.edu.co/bitstreams/94b19b24-a25f-481f-be3c-0116b15a8d89/download https://repositorio.uniandes.edu.co/bitstreams/8cd6a731-9d97-4cc5-b96f-b0215ae94a78/download https://repositorio.uniandes.edu.co/bitstreams/49a7e949-0fd8-4d6b-a4d6-4fb964922ada/download https://repositorio.uniandes.edu.co/bitstreams/4e623f66-63e8-4623-bdaf-364777c24482/download https://repositorio.uniandes.edu.co/bitstreams/c3cc5e9b-1841-4d8c-a11d-1c1f84d100ff/download https://repositorio.uniandes.edu.co/bitstreams/964a3808-80a1-458b-8f32-65e22a6602fc/download |
bitstream.checksum.fl_str_mv |
5aa5c691a1ffe97abd12c2966efcb8d6 0a5d93198ba9dfb59bdc2096525611e6 771269d6af4372dc734ad13089aab76a 37c28b5e4263f714c0f4c5f35091c45f 40cf2e167c11028bca18374cdb4ecb03 a6e659f8e24ef03c1ada0bd4d2ffcac9 2d1492282479299ee1580372fa002898 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio institucional Séneca |
repository.mail.fl_str_mv |
adminrepositorio@uniandes.edu.co |
_version_ |
1812133997785907200 |
spelling |
Attribution-NonCommercial-NoDerivatives 4.0 Internacionalhttps://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdfinfo:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Giraldo Trujillo, Luis Felipevirtual::12499-1Amaya Carreño, Juan Davidde645e20-ae8f-4119-bc35-3c6462f18c20600Zambrano Jacobo, Andrés Felipe2022-07-29T12:25:59Z2022-07-29T12:25:59Z2022-06-28http://hdl.handle.net/1992/59341instname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/Este trabajo continúa con el uso de Aprendizaje por Refuerzo Profundo (en inglés Deep Reinforcement Learning o DRL) en simulaciones híbridas en tiempo real (en inglés Real-Time Hybrid Simulation o RTHS) para diseñar un agente capaz de realizar las acciones de control de seguimiento y compensación de fase entre las respuestas de las particiones numérica y experimental del entorno de simulación. Los resultados obtenidos a partir de diferentes pruebas demuestran que el agente alcanzó un buen desempeño, incluso llegando a ser mejor en comparación a otras alternativas desarrolladas.This paper continues with the use of Deep Reinforcement Learning (DRL) in Real-Time Hybrid Simulation (RTHS) to design an agent capable of doing both tracking control and phase-lead compensation between the responses of the numeric partition and the experimental partition in a virtual environment for simulation. The results obtained from different tests proved that the agent performed very well to even be better than other alternatives developed before.Ingeniero ElectrónicoPregrado34 páginasapplication/pdfspaUniversidad de los AndesIngeniería ElectrónicaFacultad de IngenieríaDepartamento de Ingeniería Eléctrica y ElectrónicaAprendizaje por refuerzo profundo para la compensación de fase y control de seguimiento en simulación híbridaTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1fTexthttp://purl.org/redcol/resource_type/TPAprendizaje por RefuerzoReal Time Hybrid SimulationRTHSAprendizaje por Refuerzo ProfundoControl EstructuralIngenieríaA. F. Niño, A. P. Betacur, P. Miranda, J.D. Amaya, M. G. Soto, C. E. Silva y L. F. Giraldo, Using Deep Reinforcement Learning to design a tracking controller for a Real-Time Hybrid Simulation benchmark problem, tesis BA, Departamento de Ingeniería Eléctrica y Electrónica, Universidad de los Andes, Bogotá, 2021.M. J. Harris y R. E. Christenson. (2020, jul.). Real-time hybrid simulation analysis of moat impacts in a base-isolated structure, Frontiers in Built Environment. DOI: http://dx.doi.org/10.3389/fbuil.2020.00120G. Ou, A. Maghareh, X. Gao, N. Castaneda y S. J. Dyke. (s.f.). Cyber-Physical Instrument for Real-time Hybrid Structural Testing (MRI). [Internet]. Disponible en https://engineering.purdue.edu/Bowen/Projects/All/cyberphysical-instrument-for-realtime-hybrid-structural-testing-mri/CIRST-Highlights.pdfE. E. Bas y M. A. Moustafa. (2020, jun.). Performance and Limitations of Real-Time Hybrid Simulation with Nonlinear Computational Substructures, Experimental Techniques. Vol. 44, pp. 715-734 (2020). DOI: https://doi.org/10.1007/s40799-020-00385-6C. E. Silva, D. Gomez, A. Maghareh, S. J. Dyke y B. F. Spencer Jr. (2020, en.) Benchmark control problem for real-time hybrid simulation, Mechanical Systems and Signal Processing. Vol. 135, n.° 106381, 2020. DOI: https://doi.org/10.1016/j.ymssp.2019.106381V. Mnih et al. (2015, febr.). Human-level control through deep reinforcement learning. Nature Vol. 518, pp. 529-533. DOI: https://doi.org/10.1038/nature14236D. Silver, G. Lever, N. Heess, T. Degris, D. Wierstra y M. Riedmiller, Deterministic Policy Gradient Algorithms, en Proceedings of the 31st International Conference on Machine Learning, Beijing, China, 2014. En Proceedings of Machine Learning Research, Vol. 32(1), pp. 387-395. Disponible en https://www.davidsilver.uk/wp-content/uploads/2020/03/deterministic-policy-gradients.pdfR. S. Sutton, D. McAllester, S. Singh y Y. Mansour, Policy gradient methods for reinforcement learning with function approximation, en Neural Information Processing Systems 12, Florham Park, New Jersey, 1999, pp. 1057-1063.T. P. Lillicrap et al. (2016). Continuous control with deep reinforcement learning, CoRR, abs/1509.02971. Disponible en https://arxiv.org/abs/1509.02971S. Ioffe y C. Szegedy, Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift, en International Conference on Machine Learning, 2015. Disponible en https://arxiv.org/abs/1502.03167MathWorks. (s.f.). Deep Learning in MATLAB [Internet]. Disponible en https://www.mathworks.com/help/deeplearning/ug/deep-learning-in-matlab.htmlN. P. Lawrence, M. G. Forbes, P. D. Loewen, D. G. McClement, J. U. Backstrom y R. B. Gopaluni. (2022). Deep Reinforcement Learning with Shallow Controllers: An Experimental Application to PID Tuning, ArXiv, abs/2111.07171. Disponible en https://arxiv.org/abs/2111.07171L. Chan. (2021, mzo. 06). 3 Common Problems with Neural Network Initialization. [Internet] Disponible en https://towardsdatascience.com/3-common-problems-with-neural-network-initialisation-5e6cacfcd8e6L. N. Smith, Cyclical Learning Rates for Training Neural Networks, en 2017 IEEE Winter Conference on Applications of Computer Vision, 2017. pp. 464-472. Disponible en https://arxiv.org/abs/1506.01186MathWorks. (s.f.). rlDDPGAgentOptions. [Internet] Disponible en https://www.mathworks.com/help/reinforcement-learning/ref/rlddpgagentoptions.htmlS. Zhang y R. S. Sutton. (2017). A Deeper Look at Experience Replay, ArXiv, abs/1712.01275. Disponible en https://arxiv.org/abs/1712.01275J. E. Duque. (s.f.). 3. Controladores y acciones de control. [Internet]. Disponible en http://www.geocities.ws/joeldupar/control2/pidFundamentos del control de procesos usando el programa LVPROSIM, Lab-Volt Ltda., Canadá, 2004. Disponible en http://biblio3.url.edu.gt/Publi/Libros/2013/ManualesIng/FundamenP-O.pdfMathWorks. (s.f.). Train Reinforcement Learning Agents. [Internet] Disponible en https://www.mathworks.com/help/reinforcement-learning/ug/train-reinforcement-learning-agents.htmlC. Wu, A. Alomar y S. Jagwani. (2021, abr. 29) Lecture 19: Off-Policy Learning. [Internet]. Disponible en https://web.mit.edu/6.246/www/notes/L18-notes.pdf201816977Publicationhttps://scholar.google.es/citations?user=4TGvo8AAAAJvirtual::12499-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000802506virtual::12499-1eb386eec-3ec8-40c2-829d-ae8cbf0e384evirtual::12499-1eb386eec-3ec8-40c2-829d-ae8cbf0e384evirtual::12499-1LICENSElicense.txtlicense.txttext/plain; charset=utf-81810https://repositorio.uniandes.edu.co/bitstreams/41305613-9a96-4c21-8b56-42e0c210d434/download5aa5c691a1ffe97abd12c2966efcb8d6MD51TEXTDesarrollo de un controlador de seguimiento sin compensador de fase previo mediante Reinforcement Learning en Simulación Híbrida.pdf.txtDesarrollo de un controlador de seguimiento sin compensador de fase previo mediante Reinforcement Learning en Simulación Híbrida.pdf.txtExtracted texttext/plain48713https://repositorio.uniandes.edu.co/bitstreams/94b19b24-a25f-481f-be3c-0116b15a8d89/download0a5d93198ba9dfb59bdc2096525611e6MD54Formato de Autorización y Entrega de Tesis-Trabajo de Grado al Sistema de Bibliotecas.pdf.txtFormato de Autorización y Entrega de Tesis-Trabajo de Grado al Sistema de Bibliotecas.pdf.txtExtracted texttext/plain1192https://repositorio.uniandes.edu.co/bitstreams/8cd6a731-9d97-4cc5-b96f-b0215ae94a78/download771269d6af4372dc734ad13089aab76aMD56THUMBNAILDesarrollo de un controlador de seguimiento sin compensador de fase previo mediante Reinforcement Learning en Simulación Híbrida.pdf.jpgDesarrollo de un controlador de seguimiento sin compensador de fase previo mediante Reinforcement Learning en Simulación Híbrida.pdf.jpgIM Thumbnailimage/jpeg13187https://repositorio.uniandes.edu.co/bitstreams/49a7e949-0fd8-4d6b-a4d6-4fb964922ada/download37c28b5e4263f714c0f4c5f35091c45fMD55Formato de Autorización y Entrega de Tesis-Trabajo de Grado al Sistema de Bibliotecas.pdf.jpgFormato de Autorización y Entrega de Tesis-Trabajo de Grado al Sistema de Bibliotecas.pdf.jpgIM Thumbnailimage/jpeg15668https://repositorio.uniandes.edu.co/bitstreams/4e623f66-63e8-4623-bdaf-364777c24482/download40cf2e167c11028bca18374cdb4ecb03MD57ORIGINALDesarrollo de un controlador de seguimiento sin compensador de fase previo mediante Reinforcement Learning en Simulación Híbrida.pdfDesarrollo de un controlador de seguimiento sin compensador de fase previo mediante Reinforcement Learning en Simulación Híbrida.pdfTrabajo de gradoapplication/pdf1728505https://repositorio.uniandes.edu.co/bitstreams/c3cc5e9b-1841-4d8c-a11d-1c1f84d100ff/downloada6e659f8e24ef03c1ada0bd4d2ffcac9MD52Formato de Autorización y Entrega de Tesis-Trabajo de Grado al Sistema de Bibliotecas.pdfFormato de Autorización y Entrega de Tesis-Trabajo de Grado al Sistema de Bibliotecas.pdfHIDEapplication/pdf242593https://repositorio.uniandes.edu.co/bitstreams/964a3808-80a1-458b-8f32-65e22a6602fc/download2d1492282479299ee1580372fa002898MD531992/59341oai:repositorio.uniandes.edu.co:1992/593412024-03-13 14:42:05.616https://repositorio.uniandes.edu.co/static/pdf/aceptacion_uso_es.pdfopen.accesshttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.coWW8sIGVuIG1pIGNhbGlkYWQgZGUgYXV0b3IgZGVsIHRyYWJham8gZGUgdGVzaXMsIG1vbm9ncmFmw61hIG8gdHJhYmFqbyBkZSBncmFkbywgaGFnbyBlbnRyZWdhIGRlbCBlamVtcGxhciByZXNwZWN0aXZvIHkgZGUgc3VzIGFuZXhvcyBkZSBzZXIgZWwgY2FzbywgZW4gZm9ybWF0byBkaWdpdGFsIHkvbyBlbGVjdHLDs25pY28geSBhdXRvcml6byBhIGxhIFVuaXZlcnNpZGFkIGRlIGxvcyBBbmRlcyBwYXJhIHF1ZSByZWFsaWNlIGxhIHB1YmxpY2FjacOzbiBlbiBlbCBTaXN0ZW1hIGRlIEJpYmxpb3RlY2FzIG8gZW4gY3VhbHF1aWVyIG90cm8gc2lzdGVtYSBvIGJhc2UgZGUgZGF0b3MgcHJvcGlvIG8gYWplbm8gYSBsYSBVbml2ZXJzaWRhZCB5IHBhcmEgcXVlIGVuIGxvcyB0w6lybWlub3MgZXN0YWJsZWNpZG9zIGVuIGxhIExleSAyMyBkZSAxOTgyLCBMZXkgNDQgZGUgMTk5MywgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5MywgRGVjcmV0byA0NjAgZGUgMTk5NSB5IGRlbcOhcyBub3JtYXMgZ2VuZXJhbGVzIHNvYnJlIGxhIG1hdGVyaWEsIHV0aWxpY2UgZW4gdG9kYXMgc3VzIGZvcm1hcywgbG9zIGRlcmVjaG9zIHBhdHJpbW9uaWFsZXMgZGUgcmVwcm9kdWNjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSwgdHJhbnNmb3JtYWNpw7NuIHkgZGlzdHJpYnVjacOzbiAoYWxxdWlsZXIsIHByw6lzdGFtbyBww7pibGljbyBlIGltcG9ydGFjacOzbikgcXVlIG1lIGNvcnJlc3BvbmRlbiBjb21vIGNyZWFkb3IgZGUgbGEgb2JyYSBvYmpldG8gZGVsIHByZXNlbnRlIGRvY3VtZW50by4gIAoKCkxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gc2UgZW1pdGUgZW4gY2FsaWRhZCBkZSBhdXRvciBkZSBsYSBvYnJhIG9iamV0byBkZWwgcHJlc2VudGUgZG9jdW1lbnRvIHkgbm8gY29ycmVzcG9uZGUgYSBjZXNpw7NuIGRlIGRlcmVjaG9zLCBzaW5vIGEgbGEgYXV0b3JpemFjacOzbiBkZSB1c28gYWNhZMOpbWljbyBkZSBjb25mb3JtaWRhZCBjb24gbG8gYW50ZXJpb3JtZW50ZSBzZcOxYWxhZG8uIExhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gc2UgaGFjZSBleHRlbnNpdmEgbm8gc29sbyBhIGxhcyBmYWN1bHRhZGVzIHkgZGVyZWNob3MgZGUgdXNvIHNvYnJlIGxhIG9icmEgZW4gZm9ybWF0byBvIHNvcG9ydGUgbWF0ZXJpYWwsIHNpbm8gdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGVsZWN0csOzbmljbywgeSBlbiBnZW5lcmFsIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gCgoKRWwgYXV0b3IsIG1hbmlmaWVzdGEgcXVlIGxhIG9icmEgb2JqZXRvIGRlIGxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gZXMgb3JpZ2luYWwgeSBsYSByZWFsaXrDsyBzaW4gdmlvbGFyIG8gdXN1cnBhciBkZXJlY2hvcyBkZSBhdXRvciBkZSB0ZXJjZXJvcywgcG9yIGxvIHRhbnRvLCBsYSBvYnJhIGVzIGRlIHN1IGV4Y2x1c2l2YSBhdXRvcsOtYSB5IHRpZW5lIGxhIHRpdHVsYXJpZGFkIHNvYnJlIGxhIG1pc21hLiAKCgpFbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgZWwgYXV0b3IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBkZSBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVbml2ZXJzaWRhZCBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlLiAKCg== |