Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual

En este proyecto se realiza la implementación de un algoritmo de navegación autónoma basado en información visual, usando aprendizaje profundo por refuerzo (DRL, por sus siglas en inglés Deep Reinforcement Learning). El algoritmo le enseña a un agente a identificar patrones visuales para navegar hac...

Full description

Autores:
Aponte Vargas, Daniel Felipe
Martínez Méndez, Erika Dayanna
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2023
Institución:
Universidad Santo Tomás
Repositorio:
Repositorio Institucional USTA
Idioma:
spa
OAI Identifier:
oai:repository.usta.edu.co:11634/49272
Acceso en línea:
http://hdl.handle.net/11634/49272
Palabra clave:
Deep Reinforcement Learning
Replay Memory
Deep Q Networks
Autonomous Navigation
Visual Information
Robótica
Machine Learning
Ingeniería Electrónica
Aprendizaje Profundo por Refuerzo
Redes Q Profundas
Replay Memory
Navegación Autónoma
Información Visual
Rights
openAccess
License
Atribución-NoComercial-SinDerivadas 2.5 Colombia
id SANTTOMAS2_bade619ce4f204aeb03cc5754810a47e
oai_identifier_str oai:repository.usta.edu.co:11634/49272
network_acronym_str SANTTOMAS2
network_name_str Repositorio Institucional USTA
repository_id_str
dc.title.spa.fl_str_mv Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual
title Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual
spellingShingle Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual
Deep Reinforcement Learning
Replay Memory
Deep Q Networks
Autonomous Navigation
Visual Information
Robótica
Machine Learning
Ingeniería Electrónica
Aprendizaje Profundo por Refuerzo
Redes Q Profundas
Replay Memory
Navegación Autónoma
Información Visual
title_short Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual
title_full Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual
title_fullStr Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual
title_full_unstemmed Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual
title_sort Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual
dc.creator.fl_str_mv Aponte Vargas, Daniel Felipe
Martínez Méndez, Erika Dayanna
dc.contributor.advisor.none.fl_str_mv Calderón Chávez, Juan Manuel
dc.contributor.author.none.fl_str_mv Aponte Vargas, Daniel Felipe
Martínez Méndez, Erika Dayanna
dc.contributor.orcid.spa.fl_str_mv https://orcid.org/0000-0002-4471-3980
dc.contributor.cvlac.spa.fl_str_mv https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000380938
https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001723305
dc.contributor.corporatename.spa.fl_str_mv Universidad Santo Tomás
dc.subject.keyword.spa.fl_str_mv Deep Reinforcement Learning
Replay Memory
Deep Q Networks
Autonomous Navigation
Visual Information
topic Deep Reinforcement Learning
Replay Memory
Deep Q Networks
Autonomous Navigation
Visual Information
Robótica
Machine Learning
Ingeniería Electrónica
Aprendizaje Profundo por Refuerzo
Redes Q Profundas
Replay Memory
Navegación Autónoma
Información Visual
dc.subject.lemb.spa.fl_str_mv Robótica
Machine Learning
Ingeniería Electrónica
dc.subject.proposal.spa.fl_str_mv Aprendizaje Profundo por Refuerzo
Redes Q Profundas
Replay Memory
Navegación Autónoma
Información Visual
description En este proyecto se realiza la implementación de un algoritmo de navegación autónoma basado en información visual, usando aprendizaje profundo por refuerzo (DRL, por sus siglas en inglés Deep Reinforcement Learning). El algoritmo le enseña a un agente a identificar patrones visuales para navegar hacia un objetivo en un entorno cerrado y desconocido. El proceso de aprendizaje se compone de tres etapas: clasificación, imitación y entrenamiento, y un sistema de Replay Memory. Las etapas de aprendizaje brindan al agente diferentes herramientas para categorizar la información y tomar una decisión, transfiriendo el conocimiento adquirido en cada una. Por su parte, el sistema de Replay Memory le proveé información al agente de experiencias pasadas para entender y resolver entornos desconocidos. A su vez, el algoritmo se basa en un modelo de entrenamiento redes Q profundas (DQN, por sus siglas en inglés Deep Q Network), con una recompensa hacia el agente en cada interacción con el entorno. La evaluación del algoritmo se realiza a través de experimentos basados en la interacción con entornos simulados de diferentes tamaños, rutas y caracteracterísticas.
publishDate 2023
dc.date.accessioned.none.fl_str_mv 2023-02-02T17:22:29Z
dc.date.available.none.fl_str_mv 2023-02-02T17:22:29Z
dc.date.issued.none.fl_str_mv 2023-01-31
dc.type.local.spa.fl_str_mv Trabajo de grado
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.drive.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
format http://purl.org/coar/resource_type/c_7a1f
status_str acceptedVersion
dc.identifier.citation.spa.fl_str_mv Aponte Vargas, D. F., y Martínez Méndez, E. D. (2023). Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual. [Trabajo de Grado, Universidad Santo Tomás]. Repositorio Institucional.
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/11634/49272
dc.identifier.reponame.spa.fl_str_mv reponame:Repositorio Institucional Universidad Santo Tomás
dc.identifier.instname.spa.fl_str_mv instname:Universidad Santo Tomás
dc.identifier.repourl.spa.fl_str_mv repourl:https://repository.usta.edu.co
identifier_str_mv Aponte Vargas, D. F., y Martínez Méndez, E. D. (2023). Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual. [Trabajo de Grado, Universidad Santo Tomás]. Repositorio Institucional.
reponame:Repositorio Institucional Universidad Santo Tomás
instname:Universidad Santo Tomás
repourl:https://repository.usta.edu.co
url http://hdl.handle.net/11634/49272
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.spa.fl_str_mv G. Tesauro, “Temporal difference learning and td-gammon,” Commun. ACM, vol. 38, no. 3, p. 58–68, mar 1995. [Online]. Available: https://doi.org/10.1145/203330.203343
K. Arulkumaran, M. Deisenroth, M. Brundage, and A. Bharath, “A brief survey of deep reinforcement learning,” IEEE Signal Processing Magazine, vol. 34, 08 2017.
S. J. Russell, P. Norvig, M. C. R. Juan, and J. L. Aguilar. Pearson Educacion, 2011.
“Banco de bogotá y otras organizaciones lideran el proyecto inteligencia artificial colombia: Actualícese,” Aug 2022. [Online]. Available: https://actualicese.com/banco-de-bogota-y-otras-organizaciones-lideran-el-proyecto-inteligencia-artificial-colombia/
J. Zhong, C. Ling, A. Cangelosi, A. Lotfi, and X. Liu, “On the gap between domestic robotic applications and computational intelligence,” Electronics, vol. 10, no. 7, 2021. [Online]. Available: https://www.mdpi.com/2079-9292/10/7/793
F. Zeng, C. Wang, and S. Ge, “A survey on visual navigation for artificial agents with deep reinforcement learning,” IEEE Access, vol. PP, 07 2020.
G. o. J. METI, “Japan’s new robot strategy,” p. 6, 04 2018.
M. D. G. V. A. L. P. E. N. G. C. S. F. N. T. J. CRISTINA URDIALES GARCÍA, JUAN ANTONIO FERNÁNDEZ BERNAT, “https://sd2.ugr.es/wpcontent/uploads/2019/10/losrobotsparaelcuidadodelosmayores.pdf,” p. 13, 2017
C.-A. Smarr, T. Mitzner, J. Beer, A. Prakash, T. Chen, C. Kemp, and W. Rogers, “Domestic robots for older adults: Attitudes, preferences, and potential,” International journal of social robotics, vol. 6, pp. 229– 247, 04 2014.
DANE’, “Personas mayores en colombia.” [Online]. Available: https://www.dane.gov.co/files/investigaciones/notas-estadisticas/ nov-2021-nota-estadistica-personas-mayores-en-colombia.pdf
W. Quesada, “Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo.” 03 2019
P. Mirowski, R. Pascanu, F. Viola, H. Soyer, A. Ballard, A. Banino, M. Denil, R. Goroshin, L. Sifre, K. Kavukcuoglu, D. Kumaran, and R. Hadsell, “Learning to navigate in complex environments,” 11 2016.
V. Mnih, K. Kavukcuoglu, D. Silver, A. Graves, I. Antonoglou, D. Wierstra, and M. Riedmiller, “Playing atari with deep reinforcement learning,” 12 2013.
A. Perez, A. Gomez Garcia, E. Rojas-Martínez, C. Rodríguez-Rojas, J. Lopez-Jimenez, and J. Calderon, “Edge detection algorithm based on fuzzy logic theory for a local vision system of robocup humanoid league,” Tecno Lógicas, vol. 30, pp. 33–50, 06 2013.
J. Calderon, A. Obando, and D. Jaimes, “Road detection algorithm for an autonomous ugv based on monocular vision,” in Proceedings of the Electronics, Robotics and Automotive Mechanics Conference, ser. CERMA ’07. USA: IEEE Computer Society, 2007, p. 253–259.
G. Cardona and J. Calderon, “Robot swarm navigation and victim detection using rendezvous consensus in search and rescue operations,” Applied Sciences, vol. 9, p. 1702, 04 2019.
J. Leon Leon, G. Cardona, A. Botello, and J. Calderon, “Robot swarms theory applicable to seek and rescue operation,” 12 2016.
G. A. Cardona, C. Bravo, W. Quesada, D. Ruiz, M. Obeng, X. Wu, and J. M. Calderon, “Autonomous navigation for exploration of unknown environments and collision avoidance in mobile robots using reinforcement learning,” in 2019 SoutheastCon, 2019, pp. 1–7.
F. S. Caparrini and W. W. Work, “Introducción al aprendizaje automático.” [Online]. Available: http://www.cs.us.es/~fsancho/?e=75
R. S. Sutton, F. Bach, and A. G. Barto, 1. MIT Press Ltd, 2018.
T. Matiisen, “Demystifying deep reinforcement learning,” Dec 2015. [Online]. Available: https://neuro.cs.ut.ee/ demystifying-deep-reinforcement-learning/
M. Vallejo del Moral, 2021. [Online]. Available: https://academica-e.unavarra.es/bitstream/handle/2454/40521/ TFG_Mikel_Vallejo.pdf?sequence=1&isAllowed=y
F. Zhuang, Z. Qi, K. Duan, D. Xi, Y. Zhu, H. Zhu, H. Xiong, and Q. He, “A comprehensive survey on transfer learning,” Proceedings of the IEEE, vol. PP, pp. 1–34, 07 2020.
J. Hua, L. Zeng, G. Li, and Z. Ju, “Learning for a robot: Deep reinforcement learning, imitation learning, transfer learning,” Sensors, vol. 21, no. 4, 2021. [Online]. Available: https://www.mdpi.com/ 1424-8220/21/4/1278
Z. Lőrincz, “A brief overview of imitation learning,” Sep 2019. [Online]. Available: https://smartlabai.medium.com/ a-brief-overview-of-imitation-learning-8a8a75c44a9c
M. Lahtela and P. P. Kaplan, “¿qué es una red neuronal?” 1966. [Online]. Available: https://aws.amazon.com/es/what-is/ neural-network/
dc.rights.*.fl_str_mv Atribución-NoComercial-SinDerivadas 2.5 Colombia
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/2.5/co/
dc.rights.local.spa.fl_str_mv Abierto (Texto Completo)
dc.rights.accessrights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.coar.spa.fl_str_mv http://purl.org/coar/access_right/c_abf2
rights_invalid_str_mv Atribución-NoComercial-SinDerivadas 2.5 Colombia
http://creativecommons.org/licenses/by-nc-nd/2.5/co/
Abierto (Texto Completo)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.mimetype.spa.fl_str_mv application/pdf
dc.coverage.campus.spa.fl_str_mv CRAI-USTA Bogotá
dc.publisher.spa.fl_str_mv Universidad Santo Tomás
dc.publisher.program.spa.fl_str_mv Pregrado Ingeniería Electrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería Electrónica
institution Universidad Santo Tomás
bitstream.url.fl_str_mv https://repository.usta.edu.co/bitstream/11634/49272/6/2023DanielAponteErikaMartinez.pdf.jpg
https://repository.usta.edu.co/bitstream/11634/49272/7/Carta_aprobacion_Biblioteca%20%20APONTE%20Y%20MARTINEZ.pdf.jpg
https://repository.usta.edu.co/bitstream/11634/49272/8/CartaDerechosAutorDanielAponteErikaMartinez.pdf.jpg
https://repository.usta.edu.co/bitstream/11634/49272/1/2023DanielAponteErikaMartinez.pdf
https://repository.usta.edu.co/bitstream/11634/49272/2/Carta_aprobacion_Biblioteca%20%20APONTE%20Y%20MARTINEZ.pdf
https://repository.usta.edu.co/bitstream/11634/49272/3/CartaDerechosAutorDanielAponteErikaMartinez.pdf
https://repository.usta.edu.co/bitstream/11634/49272/4/license_rdf
https://repository.usta.edu.co/bitstream/11634/49272/5/license.txt
bitstream.checksum.fl_str_mv e4b28053edb3c3b03ad0f79a934ef4f2
7eef1e283464bbabfa3c7ab3da811451
e31b7c49e49881ffaab9bcea9096e822
5617814b61c1c42b57c4b4e08267e25e
d05ff84b7c284bb782b760ae8b268e55
be131ea28641f510291b4be5dc49066c
217700a34da79ed616c2feb68d4c5e06
aedeaf396fcd827b537c73d23464fc27
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Universidad Santo Tomás
repository.mail.fl_str_mv repositorio@usantotomas.edu.co
_version_ 1782026192108388352
spelling Calderón Chávez, Juan ManuelAponte Vargas, Daniel FelipeMartínez Méndez, Erika Dayannahttps://orcid.org/0000-0002-4471-3980https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000380938https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001723305Universidad Santo Tomás2023-02-02T17:22:29Z2023-02-02T17:22:29Z2023-01-31Aponte Vargas, D. F., y Martínez Méndez, E. D. (2023). Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual. [Trabajo de Grado, Universidad Santo Tomás]. Repositorio Institucional.http://hdl.handle.net/11634/49272reponame:Repositorio Institucional Universidad Santo Tomásinstname:Universidad Santo Tomásrepourl:https://repository.usta.edu.coEn este proyecto se realiza la implementación de un algoritmo de navegación autónoma basado en información visual, usando aprendizaje profundo por refuerzo (DRL, por sus siglas en inglés Deep Reinforcement Learning). El algoritmo le enseña a un agente a identificar patrones visuales para navegar hacia un objetivo en un entorno cerrado y desconocido. El proceso de aprendizaje se compone de tres etapas: clasificación, imitación y entrenamiento, y un sistema de Replay Memory. Las etapas de aprendizaje brindan al agente diferentes herramientas para categorizar la información y tomar una decisión, transfiriendo el conocimiento adquirido en cada una. Por su parte, el sistema de Replay Memory le proveé información al agente de experiencias pasadas para entender y resolver entornos desconocidos. A su vez, el algoritmo se basa en un modelo de entrenamiento redes Q profundas (DQN, por sus siglas en inglés Deep Q Network), con una recompensa hacia el agente en cada interacción con el entorno. La evaluación del algoritmo se realiza a través de experimentos basados en la interacción con entornos simulados de diferentes tamaños, rutas y caracteracterísticas.This project proposes the implementation of an algorithm autonomous navigation based on visual information using deep reinforcement learning. The algorithm aims to teach an agent to identify visual patterns to navigate to a goal in closed and unknown environments. The learning process is made out of three stages: Classification, Imitation and Training, and a Replay Memory system. The Learning stages provide the agent with different tools to classify the information and make a decision, transferring the knowledge acquired in each one. Meanwhile, the replay memory provides the agent information from past experiences to understand and solve unfamiliar environments. At the same time, the algorithm is based on a Deep Q Network (DQN) model, with a reward to the agent in each interaction with the environment. The evaluation of the algorithm is performed through experiments based on the interaction with simulated environments of different sizes, routes and features.Ingeniero ElectronicoPregradoapplication/pdfspaUniversidad Santo TomásPregrado Ingeniería ElectrónicaFacultad de Ingeniería ElectrónicaAtribución-NoComercial-SinDerivadas 2.5 Colombiahttp://creativecommons.org/licenses/by-nc-nd/2.5/co/Abierto (Texto Completo)info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información VisualDeep Reinforcement LearningReplay MemoryDeep Q NetworksAutonomous NavigationVisual InformationRobóticaMachine LearningIngeniería ElectrónicaAprendizaje Profundo por RefuerzoRedes Q ProfundasReplay MemoryNavegación AutónomaInformación VisualTrabajo de gradoinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1finfo:eu-repo/semantics/bachelorThesisCRAI-USTA BogotáG. Tesauro, “Temporal difference learning and td-gammon,” Commun. ACM, vol. 38, no. 3, p. 58–68, mar 1995. [Online]. Available: https://doi.org/10.1145/203330.203343K. Arulkumaran, M. Deisenroth, M. Brundage, and A. Bharath, “A brief survey of deep reinforcement learning,” IEEE Signal Processing Magazine, vol. 34, 08 2017.S. J. Russell, P. Norvig, M. C. R. Juan, and J. L. Aguilar. Pearson Educacion, 2011.“Banco de bogotá y otras organizaciones lideran el proyecto inteligencia artificial colombia: Actualícese,” Aug 2022. [Online]. Available: https://actualicese.com/banco-de-bogota-y-otras-organizaciones-lideran-el-proyecto-inteligencia-artificial-colombia/J. Zhong, C. Ling, A. Cangelosi, A. Lotfi, and X. Liu, “On the gap between domestic robotic applications and computational intelligence,” Electronics, vol. 10, no. 7, 2021. [Online]. Available: https://www.mdpi.com/2079-9292/10/7/793F. Zeng, C. Wang, and S. Ge, “A survey on visual navigation for artificial agents with deep reinforcement learning,” IEEE Access, vol. PP, 07 2020.G. o. J. METI, “Japan’s new robot strategy,” p. 6, 04 2018.M. D. G. V. A. L. P. E. N. G. C. S. F. N. T. J. CRISTINA URDIALES GARCÍA, JUAN ANTONIO FERNÁNDEZ BERNAT, “https://sd2.ugr.es/wpcontent/uploads/2019/10/losrobotsparaelcuidadodelosmayores.pdf,” p. 13, 2017C.-A. Smarr, T. Mitzner, J. Beer, A. Prakash, T. Chen, C. Kemp, and W. Rogers, “Domestic robots for older adults: Attitudes, preferences, and potential,” International journal of social robotics, vol. 6, pp. 229– 247, 04 2014.DANE’, “Personas mayores en colombia.” [Online]. Available: https://www.dane.gov.co/files/investigaciones/notas-estadisticas/ nov-2021-nota-estadistica-personas-mayores-en-colombia.pdfW. Quesada, “Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo.” 03 2019P. Mirowski, R. Pascanu, F. Viola, H. Soyer, A. Ballard, A. Banino, M. Denil, R. Goroshin, L. Sifre, K. Kavukcuoglu, D. Kumaran, and R. Hadsell, “Learning to navigate in complex environments,” 11 2016.V. Mnih, K. Kavukcuoglu, D. Silver, A. Graves, I. Antonoglou, D. Wierstra, and M. Riedmiller, “Playing atari with deep reinforcement learning,” 12 2013.A. Perez, A. Gomez Garcia, E. Rojas-Martínez, C. Rodríguez-Rojas, J. Lopez-Jimenez, and J. Calderon, “Edge detection algorithm based on fuzzy logic theory for a local vision system of robocup humanoid league,” Tecno Lógicas, vol. 30, pp. 33–50, 06 2013.J. Calderon, A. Obando, and D. Jaimes, “Road detection algorithm for an autonomous ugv based on monocular vision,” in Proceedings of the Electronics, Robotics and Automotive Mechanics Conference, ser. CERMA ’07. USA: IEEE Computer Society, 2007, p. 253–259.G. Cardona and J. Calderon, “Robot swarm navigation and victim detection using rendezvous consensus in search and rescue operations,” Applied Sciences, vol. 9, p. 1702, 04 2019.J. Leon Leon, G. Cardona, A. Botello, and J. Calderon, “Robot swarms theory applicable to seek and rescue operation,” 12 2016.G. A. Cardona, C. Bravo, W. Quesada, D. Ruiz, M. Obeng, X. Wu, and J. M. Calderon, “Autonomous navigation for exploration of unknown environments and collision avoidance in mobile robots using reinforcement learning,” in 2019 SoutheastCon, 2019, pp. 1–7.F. S. Caparrini and W. W. Work, “Introducción al aprendizaje automático.” [Online]. Available: http://www.cs.us.es/~fsancho/?e=75R. S. Sutton, F. Bach, and A. G. Barto, 1. MIT Press Ltd, 2018.T. Matiisen, “Demystifying deep reinforcement learning,” Dec 2015. [Online]. Available: https://neuro.cs.ut.ee/ demystifying-deep-reinforcement-learning/M. Vallejo del Moral, 2021. [Online]. Available: https://academica-e.unavarra.es/bitstream/handle/2454/40521/ TFG_Mikel_Vallejo.pdf?sequence=1&isAllowed=yF. Zhuang, Z. Qi, K. Duan, D. Xi, Y. Zhu, H. Zhu, H. Xiong, and Q. He, “A comprehensive survey on transfer learning,” Proceedings of the IEEE, vol. PP, pp. 1–34, 07 2020.J. Hua, L. Zeng, G. Li, and Z. Ju, “Learning for a robot: Deep reinforcement learning, imitation learning, transfer learning,” Sensors, vol. 21, no. 4, 2021. [Online]. Available: https://www.mdpi.com/ 1424-8220/21/4/1278Z. Lőrincz, “A brief overview of imitation learning,” Sep 2019. [Online]. Available: https://smartlabai.medium.com/ a-brief-overview-of-imitation-learning-8a8a75c44a9cM. Lahtela and P. P. Kaplan, “¿qué es una red neuronal?” 1966. [Online]. Available: https://aws.amazon.com/es/what-is/ neural-network/THUMBNAIL2023DanielAponteErikaMartinez.pdf.jpg2023DanielAponteErikaMartinez.pdf.jpgIM Thumbnailimage/jpeg5122https://repository.usta.edu.co/bitstream/11634/49272/6/2023DanielAponteErikaMartinez.pdf.jpge4b28053edb3c3b03ad0f79a934ef4f2MD56open accessCarta_aprobacion_Biblioteca APONTE Y MARTINEZ.pdf.jpgCarta_aprobacion_Biblioteca APONTE Y MARTINEZ.pdf.jpgIM Thumbnailimage/jpeg7118https://repository.usta.edu.co/bitstream/11634/49272/7/Carta_aprobacion_Biblioteca%20%20APONTE%20Y%20MARTINEZ.pdf.jpg7eef1e283464bbabfa3c7ab3da811451MD57open accessCartaDerechosAutorDanielAponteErikaMartinez.pdf.jpgCartaDerechosAutorDanielAponteErikaMartinez.pdf.jpgIM Thumbnailimage/jpeg9605https://repository.usta.edu.co/bitstream/11634/49272/8/CartaDerechosAutorDanielAponteErikaMartinez.pdf.jpge31b7c49e49881ffaab9bcea9096e822MD58open accessORIGINAL2023DanielAponteErikaMartinez.pdf2023DanielAponteErikaMartinez.pdfTrabajo de Gradoapplication/pdf16414392https://repository.usta.edu.co/bitstream/11634/49272/1/2023DanielAponteErikaMartinez.pdf5617814b61c1c42b57c4b4e08267e25eMD51open accessCarta_aprobacion_Biblioteca APONTE Y MARTINEZ.pdfCarta_aprobacion_Biblioteca APONTE Y MARTINEZ.pdfCarta Aprobacion Facultadapplication/pdf352516https://repository.usta.edu.co/bitstream/11634/49272/2/Carta_aprobacion_Biblioteca%20%20APONTE%20Y%20MARTINEZ.pdfd05ff84b7c284bb782b760ae8b268e55MD52metadata only accessCartaDerechosAutorDanielAponteErikaMartinez.pdfCartaDerechosAutorDanielAponteErikaMartinez.pdfCarta Derechos de Autorapplication/pdf1306341https://repository.usta.edu.co/bitstream/11634/49272/3/CartaDerechosAutorDanielAponteErikaMartinez.pdfbe131ea28641f510291b4be5dc49066cMD53metadata only accessCC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8811https://repository.usta.edu.co/bitstream/11634/49272/4/license_rdf217700a34da79ed616c2feb68d4c5e06MD54open accessLICENSElicense.txtlicense.txttext/plain; charset=utf-8807https://repository.usta.edu.co/bitstream/11634/49272/5/license.txtaedeaf396fcd827b537c73d23464fc27MD55open access11634/49272oai:repository.usta.edu.co:11634/492722023-05-09 09:09:51.843open accessRepositorio Universidad Santo Tomásrepositorio@usantotomas.edu.coQXV0b3Jpem8gYWwgQ2VudHJvIGRlIFJlY3Vyc29zIHBhcmEgZWwgQXByZW5kaXphamUgeSBsYSBJbnZlc3RpZ2FjacOzbiwgQ1JBSS1VU1RBCmRlIGxhIFVuaXZlcnNpZGFkIFNhbnRvIFRvbcOhcywgcGFyYSBxdWUgY29uIGZpbmVzIGFjYWTDqW1pY29zIGFsbWFjZW5lIGxhCmluZm9ybWFjacOzbiBpbmdyZXNhZGEgcHJldmlhbWVudGUuCgpTZSBwZXJtaXRlIGxhIGNvbnN1bHRhLCByZXByb2R1Y2Npw7NuIHBhcmNpYWwsIHRvdGFsIG8gY2FtYmlvIGRlIGZvcm1hdG8gY29uCmZpbmVzIGRlIGNvbnNlcnZhY2nDs24sIGEgbG9zIHVzdWFyaW9zIGludGVyZXNhZG9zIGVuIGVsIGNvbnRlbmlkbyBkZSBlc3RlCnRyYWJham8sIHBhcmEgdG9kb3MgbG9zIHVzb3MgcXVlIHRlbmdhbiBmaW5hbGlkYWQgYWNhZMOpbWljYSwgc2llbXByZSB5IGN1YW5kbwptZWRpYW50ZSBsYSBjb3JyZXNwb25kaWVudGUgY2l0YSBiaWJsaW9ncsOhZmljYSBzZSBsZSBkw6kgY3LDqWRpdG8gYWwgdHJhYmFqbyBkZQpncmFkbyB5IGEgc3UgYXV0b3IuIERlIGNvbmZvcm1pZGFkIGNvbiBsbyBlc3RhYmxlY2lkbyBlbiBlbCBhcnTDrWN1bG8gMzAgZGUgbGEKTGV5IDIzIGRlIDE5ODIgeSBlbCBhcnTDrWN1bG8gMTEgZGUgbGEgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5Mywg4oCcTG9zIGRlcmVjaG9zCm1vcmFsZXMgc29icmUgZWwgdHJhYmFqbyBzb24gcHJvcGllZGFkIGRlIGxvcyBhdXRvcmVz4oCdLCBsb3MgY3VhbGVzIHNvbgppcnJlbnVuY2lhYmxlcywgaW1wcmVzY3JpcHRpYmxlcywgaW5lbWJhcmdhYmxlcyBlIGluYWxpZW5hYmxlcy4K