Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual
En este proyecto se realiza la implementación de un algoritmo de navegación autónoma basado en información visual, usando aprendizaje profundo por refuerzo (DRL, por sus siglas en inglés Deep Reinforcement Learning). El algoritmo le enseña a un agente a identificar patrones visuales para navegar hac...
- Autores:
-
Aponte Vargas, Daniel Felipe
Martínez Méndez, Erika Dayanna
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2023
- Institución:
- Universidad Santo Tomás
- Repositorio:
- Repositorio Institucional USTA
- Idioma:
- spa
- OAI Identifier:
- oai:repository.usta.edu.co:11634/49272
- Acceso en línea:
- http://hdl.handle.net/11634/49272
- Palabra clave:
- Deep Reinforcement Learning
Replay Memory
Deep Q Networks
Autonomous Navigation
Visual Information
Robótica
Machine Learning
Ingeniería Electrónica
Aprendizaje Profundo por Refuerzo
Redes Q Profundas
Replay Memory
Navegación Autónoma
Información Visual
- Rights
- openAccess
- License
- Atribución-NoComercial-SinDerivadas 2.5 Colombia
id |
SANTTOMAS2_bade619ce4f204aeb03cc5754810a47e |
---|---|
oai_identifier_str |
oai:repository.usta.edu.co:11634/49272 |
network_acronym_str |
SANTTOMAS2 |
network_name_str |
Repositorio Institucional USTA |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual |
title |
Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual |
spellingShingle |
Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual Deep Reinforcement Learning Replay Memory Deep Q Networks Autonomous Navigation Visual Information Robótica Machine Learning Ingeniería Electrónica Aprendizaje Profundo por Refuerzo Redes Q Profundas Replay Memory Navegación Autónoma Información Visual |
title_short |
Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual |
title_full |
Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual |
title_fullStr |
Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual |
title_full_unstemmed |
Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual |
title_sort |
Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual |
dc.creator.fl_str_mv |
Aponte Vargas, Daniel Felipe Martínez Méndez, Erika Dayanna |
dc.contributor.advisor.none.fl_str_mv |
Calderón Chávez, Juan Manuel |
dc.contributor.author.none.fl_str_mv |
Aponte Vargas, Daniel Felipe Martínez Méndez, Erika Dayanna |
dc.contributor.orcid.spa.fl_str_mv |
https://orcid.org/0000-0002-4471-3980 |
dc.contributor.cvlac.spa.fl_str_mv |
https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000380938 https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001723305 |
dc.contributor.corporatename.spa.fl_str_mv |
Universidad Santo Tomás |
dc.subject.keyword.spa.fl_str_mv |
Deep Reinforcement Learning Replay Memory Deep Q Networks Autonomous Navigation Visual Information |
topic |
Deep Reinforcement Learning Replay Memory Deep Q Networks Autonomous Navigation Visual Information Robótica Machine Learning Ingeniería Electrónica Aprendizaje Profundo por Refuerzo Redes Q Profundas Replay Memory Navegación Autónoma Información Visual |
dc.subject.lemb.spa.fl_str_mv |
Robótica Machine Learning Ingeniería Electrónica |
dc.subject.proposal.spa.fl_str_mv |
Aprendizaje Profundo por Refuerzo Redes Q Profundas Replay Memory Navegación Autónoma Información Visual |
description |
En este proyecto se realiza la implementación de un algoritmo de navegación autónoma basado en información visual, usando aprendizaje profundo por refuerzo (DRL, por sus siglas en inglés Deep Reinforcement Learning). El algoritmo le enseña a un agente a identificar patrones visuales para navegar hacia un objetivo en un entorno cerrado y desconocido. El proceso de aprendizaje se compone de tres etapas: clasificación, imitación y entrenamiento, y un sistema de Replay Memory. Las etapas de aprendizaje brindan al agente diferentes herramientas para categorizar la información y tomar una decisión, transfiriendo el conocimiento adquirido en cada una. Por su parte, el sistema de Replay Memory le proveé información al agente de experiencias pasadas para entender y resolver entornos desconocidos. A su vez, el algoritmo se basa en un modelo de entrenamiento redes Q profundas (DQN, por sus siglas en inglés Deep Q Network), con una recompensa hacia el agente en cada interacción con el entorno. La evaluación del algoritmo se realiza a través de experimentos basados en la interacción con entornos simulados de diferentes tamaños, rutas y caracteracterísticas. |
publishDate |
2023 |
dc.date.accessioned.none.fl_str_mv |
2023-02-02T17:22:29Z |
dc.date.available.none.fl_str_mv |
2023-02-02T17:22:29Z |
dc.date.issued.none.fl_str_mv |
2023-01-31 |
dc.type.local.spa.fl_str_mv |
Trabajo de grado |
dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.drive.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.citation.spa.fl_str_mv |
Aponte Vargas, D. F., y Martínez Méndez, E. D. (2023). Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual. [Trabajo de Grado, Universidad Santo Tomás]. Repositorio Institucional. |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/11634/49272 |
dc.identifier.reponame.spa.fl_str_mv |
reponame:Repositorio Institucional Universidad Santo Tomás |
dc.identifier.instname.spa.fl_str_mv |
instname:Universidad Santo Tomás |
dc.identifier.repourl.spa.fl_str_mv |
repourl:https://repository.usta.edu.co |
identifier_str_mv |
Aponte Vargas, D. F., y Martínez Méndez, E. D. (2023). Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual. [Trabajo de Grado, Universidad Santo Tomás]. Repositorio Institucional. reponame:Repositorio Institucional Universidad Santo Tomás instname:Universidad Santo Tomás repourl:https://repository.usta.edu.co |
url |
http://hdl.handle.net/11634/49272 |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.references.spa.fl_str_mv |
G. Tesauro, “Temporal difference learning and td-gammon,” Commun. ACM, vol. 38, no. 3, p. 58–68, mar 1995. [Online]. Available: https://doi.org/10.1145/203330.203343 K. Arulkumaran, M. Deisenroth, M. Brundage, and A. Bharath, “A brief survey of deep reinforcement learning,” IEEE Signal Processing Magazine, vol. 34, 08 2017. S. J. Russell, P. Norvig, M. C. R. Juan, and J. L. Aguilar. Pearson Educacion, 2011. “Banco de bogotá y otras organizaciones lideran el proyecto inteligencia artificial colombia: Actualícese,” Aug 2022. [Online]. Available: https://actualicese.com/banco-de-bogota-y-otras-organizaciones-lideran-el-proyecto-inteligencia-artificial-colombia/ J. Zhong, C. Ling, A. Cangelosi, A. Lotfi, and X. Liu, “On the gap between domestic robotic applications and computational intelligence,” Electronics, vol. 10, no. 7, 2021. [Online]. Available: https://www.mdpi.com/2079-9292/10/7/793 F. Zeng, C. Wang, and S. Ge, “A survey on visual navigation for artificial agents with deep reinforcement learning,” IEEE Access, vol. PP, 07 2020. G. o. J. METI, “Japan’s new robot strategy,” p. 6, 04 2018. M. D. G. V. A. L. P. E. N. G. C. S. F. N. T. J. CRISTINA URDIALES GARCÍA, JUAN ANTONIO FERNÁNDEZ BERNAT, “https://sd2.ugr.es/wpcontent/uploads/2019/10/losrobotsparaelcuidadodelosmayores.pdf,” p. 13, 2017 C.-A. Smarr, T. Mitzner, J. Beer, A. Prakash, T. Chen, C. Kemp, and W. Rogers, “Domestic robots for older adults: Attitudes, preferences, and potential,” International journal of social robotics, vol. 6, pp. 229– 247, 04 2014. DANE’, “Personas mayores en colombia.” [Online]. Available: https://www.dane.gov.co/files/investigaciones/notas-estadisticas/ nov-2021-nota-estadistica-personas-mayores-en-colombia.pdf W. Quesada, “Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo.” 03 2019 P. Mirowski, R. Pascanu, F. Viola, H. Soyer, A. Ballard, A. Banino, M. Denil, R. Goroshin, L. Sifre, K. Kavukcuoglu, D. Kumaran, and R. Hadsell, “Learning to navigate in complex environments,” 11 2016. V. Mnih, K. Kavukcuoglu, D. Silver, A. Graves, I. Antonoglou, D. Wierstra, and M. Riedmiller, “Playing atari with deep reinforcement learning,” 12 2013. A. Perez, A. Gomez Garcia, E. Rojas-Martínez, C. Rodríguez-Rojas, J. Lopez-Jimenez, and J. Calderon, “Edge detection algorithm based on fuzzy logic theory for a local vision system of robocup humanoid league,” Tecno Lógicas, vol. 30, pp. 33–50, 06 2013. J. Calderon, A. Obando, and D. Jaimes, “Road detection algorithm for an autonomous ugv based on monocular vision,” in Proceedings of the Electronics, Robotics and Automotive Mechanics Conference, ser. CERMA ’07. USA: IEEE Computer Society, 2007, p. 253–259. G. Cardona and J. Calderon, “Robot swarm navigation and victim detection using rendezvous consensus in search and rescue operations,” Applied Sciences, vol. 9, p. 1702, 04 2019. J. Leon Leon, G. Cardona, A. Botello, and J. Calderon, “Robot swarms theory applicable to seek and rescue operation,” 12 2016. G. A. Cardona, C. Bravo, W. Quesada, D. Ruiz, M. Obeng, X. Wu, and J. M. Calderon, “Autonomous navigation for exploration of unknown environments and collision avoidance in mobile robots using reinforcement learning,” in 2019 SoutheastCon, 2019, pp. 1–7. F. S. Caparrini and W. W. Work, “Introducción al aprendizaje automático.” [Online]. Available: http://www.cs.us.es/~fsancho/?e=75 R. S. Sutton, F. Bach, and A. G. Barto, 1. MIT Press Ltd, 2018. T. Matiisen, “Demystifying deep reinforcement learning,” Dec 2015. [Online]. Available: https://neuro.cs.ut.ee/ demystifying-deep-reinforcement-learning/ M. Vallejo del Moral, 2021. [Online]. Available: https://academica-e.unavarra.es/bitstream/handle/2454/40521/ TFG_Mikel_Vallejo.pdf?sequence=1&isAllowed=y F. Zhuang, Z. Qi, K. Duan, D. Xi, Y. Zhu, H. Zhu, H. Xiong, and Q. He, “A comprehensive survey on transfer learning,” Proceedings of the IEEE, vol. PP, pp. 1–34, 07 2020. J. Hua, L. Zeng, G. Li, and Z. Ju, “Learning for a robot: Deep reinforcement learning, imitation learning, transfer learning,” Sensors, vol. 21, no. 4, 2021. [Online]. Available: https://www.mdpi.com/ 1424-8220/21/4/1278 Z. Lőrincz, “A brief overview of imitation learning,” Sep 2019. [Online]. Available: https://smartlabai.medium.com/ a-brief-overview-of-imitation-learning-8a8a75c44a9c M. Lahtela and P. P. Kaplan, “¿qué es una red neuronal?” 1966. [Online]. Available: https://aws.amazon.com/es/what-is/ neural-network/ |
dc.rights.*.fl_str_mv |
Atribución-NoComercial-SinDerivadas 2.5 Colombia |
dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/2.5/co/ |
dc.rights.local.spa.fl_str_mv |
Abierto (Texto Completo) |
dc.rights.accessrights.none.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.spa.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
Atribución-NoComercial-SinDerivadas 2.5 Colombia http://creativecommons.org/licenses/by-nc-nd/2.5/co/ Abierto (Texto Completo) http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.mimetype.spa.fl_str_mv |
application/pdf |
dc.coverage.campus.spa.fl_str_mv |
CRAI-USTA Bogotá |
dc.publisher.spa.fl_str_mv |
Universidad Santo Tomás |
dc.publisher.program.spa.fl_str_mv |
Pregrado Ingeniería Electrónica |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ingeniería Electrónica |
institution |
Universidad Santo Tomás |
bitstream.url.fl_str_mv |
https://repository.usta.edu.co/bitstream/11634/49272/6/2023DanielAponteErikaMartinez.pdf.jpg https://repository.usta.edu.co/bitstream/11634/49272/7/Carta_aprobacion_Biblioteca%20%20APONTE%20Y%20MARTINEZ.pdf.jpg https://repository.usta.edu.co/bitstream/11634/49272/8/CartaDerechosAutorDanielAponteErikaMartinez.pdf.jpg https://repository.usta.edu.co/bitstream/11634/49272/1/2023DanielAponteErikaMartinez.pdf https://repository.usta.edu.co/bitstream/11634/49272/2/Carta_aprobacion_Biblioteca%20%20APONTE%20Y%20MARTINEZ.pdf https://repository.usta.edu.co/bitstream/11634/49272/3/CartaDerechosAutorDanielAponteErikaMartinez.pdf https://repository.usta.edu.co/bitstream/11634/49272/4/license_rdf https://repository.usta.edu.co/bitstream/11634/49272/5/license.txt |
bitstream.checksum.fl_str_mv |
e4b28053edb3c3b03ad0f79a934ef4f2 7eef1e283464bbabfa3c7ab3da811451 e31b7c49e49881ffaab9bcea9096e822 5617814b61c1c42b57c4b4e08267e25e d05ff84b7c284bb782b760ae8b268e55 be131ea28641f510291b4be5dc49066c 217700a34da79ed616c2feb68d4c5e06 aedeaf396fcd827b537c73d23464fc27 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Universidad Santo Tomás |
repository.mail.fl_str_mv |
repositorio@usantotomas.edu.co |
_version_ |
1782026192108388352 |
spelling |
Calderón Chávez, Juan ManuelAponte Vargas, Daniel FelipeMartínez Méndez, Erika Dayannahttps://orcid.org/0000-0002-4471-3980https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000380938https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001723305Universidad Santo Tomás2023-02-02T17:22:29Z2023-02-02T17:22:29Z2023-01-31Aponte Vargas, D. F., y Martínez Méndez, E. D. (2023). Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información Visual. [Trabajo de Grado, Universidad Santo Tomás]. Repositorio Institucional.http://hdl.handle.net/11634/49272reponame:Repositorio Institucional Universidad Santo Tomásinstname:Universidad Santo Tomásrepourl:https://repository.usta.edu.coEn este proyecto se realiza la implementación de un algoritmo de navegación autónoma basado en información visual, usando aprendizaje profundo por refuerzo (DRL, por sus siglas en inglés Deep Reinforcement Learning). El algoritmo le enseña a un agente a identificar patrones visuales para navegar hacia un objetivo en un entorno cerrado y desconocido. El proceso de aprendizaje se compone de tres etapas: clasificación, imitación y entrenamiento, y un sistema de Replay Memory. Las etapas de aprendizaje brindan al agente diferentes herramientas para categorizar la información y tomar una decisión, transfiriendo el conocimiento adquirido en cada una. Por su parte, el sistema de Replay Memory le proveé información al agente de experiencias pasadas para entender y resolver entornos desconocidos. A su vez, el algoritmo se basa en un modelo de entrenamiento redes Q profundas (DQN, por sus siglas en inglés Deep Q Network), con una recompensa hacia el agente en cada interacción con el entorno. La evaluación del algoritmo se realiza a través de experimentos basados en la interacción con entornos simulados de diferentes tamaños, rutas y caracteracterísticas.This project proposes the implementation of an algorithm autonomous navigation based on visual information using deep reinforcement learning. The algorithm aims to teach an agent to identify visual patterns to navigate to a goal in closed and unknown environments. The learning process is made out of three stages: Classification, Imitation and Training, and a Replay Memory system. The Learning stages provide the agent with different tools to classify the information and make a decision, transferring the knowledge acquired in each one. Meanwhile, the replay memory provides the agent information from past experiences to understand and solve unfamiliar environments. At the same time, the algorithm is based on a Deep Q Network (DQN) model, with a reward to the agent in each interaction with the environment. The evaluation of the algorithm is performed through experiments based on the interaction with simulated environments of different sizes, routes and features.Ingeniero ElectronicoPregradoapplication/pdfspaUniversidad Santo TomásPregrado Ingeniería ElectrónicaFacultad de Ingeniería ElectrónicaAtribución-NoComercial-SinDerivadas 2.5 Colombiahttp://creativecommons.org/licenses/by-nc-nd/2.5/co/Abierto (Texto Completo)info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Desarrollo de un Algoritmo de Navegación Autónoma Basado en Técnicas de Aprendizaje por Refuerzo Usando Información VisualDeep Reinforcement LearningReplay MemoryDeep Q NetworksAutonomous NavigationVisual InformationRobóticaMachine LearningIngeniería ElectrónicaAprendizaje Profundo por RefuerzoRedes Q ProfundasReplay MemoryNavegación AutónomaInformación VisualTrabajo de gradoinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1finfo:eu-repo/semantics/bachelorThesisCRAI-USTA BogotáG. Tesauro, “Temporal difference learning and td-gammon,” Commun. ACM, vol. 38, no. 3, p. 58–68, mar 1995. [Online]. Available: https://doi.org/10.1145/203330.203343K. Arulkumaran, M. Deisenroth, M. Brundage, and A. Bharath, “A brief survey of deep reinforcement learning,” IEEE Signal Processing Magazine, vol. 34, 08 2017.S. J. Russell, P. Norvig, M. C. R. Juan, and J. L. Aguilar. Pearson Educacion, 2011.“Banco de bogotá y otras organizaciones lideran el proyecto inteligencia artificial colombia: Actualícese,” Aug 2022. [Online]. Available: https://actualicese.com/banco-de-bogota-y-otras-organizaciones-lideran-el-proyecto-inteligencia-artificial-colombia/J. Zhong, C. Ling, A. Cangelosi, A. Lotfi, and X. Liu, “On the gap between domestic robotic applications and computational intelligence,” Electronics, vol. 10, no. 7, 2021. [Online]. Available: https://www.mdpi.com/2079-9292/10/7/793F. Zeng, C. Wang, and S. Ge, “A survey on visual navigation for artificial agents with deep reinforcement learning,” IEEE Access, vol. PP, 07 2020.G. o. J. METI, “Japan’s new robot strategy,” p. 6, 04 2018.M. D. G. V. A. L. P. E. N. G. C. S. F. N. T. J. CRISTINA URDIALES GARCÍA, JUAN ANTONIO FERNÁNDEZ BERNAT, “https://sd2.ugr.es/wpcontent/uploads/2019/10/losrobotsparaelcuidadodelosmayores.pdf,” p. 13, 2017C.-A. Smarr, T. Mitzner, J. Beer, A. Prakash, T. Chen, C. Kemp, and W. Rogers, “Domestic robots for older adults: Attitudes, preferences, and potential,” International journal of social robotics, vol. 6, pp. 229– 247, 04 2014.DANE’, “Personas mayores en colombia.” [Online]. Available: https://www.dane.gov.co/files/investigaciones/notas-estadisticas/ nov-2021-nota-estadistica-personas-mayores-en-colombia.pdfW. Quesada, “Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo.” 03 2019P. Mirowski, R. Pascanu, F. Viola, H. Soyer, A. Ballard, A. Banino, M. Denil, R. Goroshin, L. Sifre, K. Kavukcuoglu, D. Kumaran, and R. Hadsell, “Learning to navigate in complex environments,” 11 2016.V. Mnih, K. Kavukcuoglu, D. Silver, A. Graves, I. Antonoglou, D. Wierstra, and M. Riedmiller, “Playing atari with deep reinforcement learning,” 12 2013.A. Perez, A. Gomez Garcia, E. Rojas-Martínez, C. Rodríguez-Rojas, J. Lopez-Jimenez, and J. Calderon, “Edge detection algorithm based on fuzzy logic theory for a local vision system of robocup humanoid league,” Tecno Lógicas, vol. 30, pp. 33–50, 06 2013.J. Calderon, A. Obando, and D. Jaimes, “Road detection algorithm for an autonomous ugv based on monocular vision,” in Proceedings of the Electronics, Robotics and Automotive Mechanics Conference, ser. CERMA ’07. USA: IEEE Computer Society, 2007, p. 253–259.G. Cardona and J. Calderon, “Robot swarm navigation and victim detection using rendezvous consensus in search and rescue operations,” Applied Sciences, vol. 9, p. 1702, 04 2019.J. Leon Leon, G. Cardona, A. Botello, and J. Calderon, “Robot swarms theory applicable to seek and rescue operation,” 12 2016.G. A. Cardona, C. Bravo, W. Quesada, D. Ruiz, M. Obeng, X. Wu, and J. M. Calderon, “Autonomous navigation for exploration of unknown environments and collision avoidance in mobile robots using reinforcement learning,” in 2019 SoutheastCon, 2019, pp. 1–7.F. S. Caparrini and W. W. Work, “Introducción al aprendizaje automático.” [Online]. Available: http://www.cs.us.es/~fsancho/?e=75R. S. Sutton, F. Bach, and A. G. Barto, 1. MIT Press Ltd, 2018.T. Matiisen, “Demystifying deep reinforcement learning,” Dec 2015. [Online]. Available: https://neuro.cs.ut.ee/ demystifying-deep-reinforcement-learning/M. Vallejo del Moral, 2021. [Online]. Available: https://academica-e.unavarra.es/bitstream/handle/2454/40521/ TFG_Mikel_Vallejo.pdf?sequence=1&isAllowed=yF. Zhuang, Z. Qi, K. Duan, D. Xi, Y. Zhu, H. Zhu, H. Xiong, and Q. He, “A comprehensive survey on transfer learning,” Proceedings of the IEEE, vol. PP, pp. 1–34, 07 2020.J. Hua, L. Zeng, G. Li, and Z. Ju, “Learning for a robot: Deep reinforcement learning, imitation learning, transfer learning,” Sensors, vol. 21, no. 4, 2021. [Online]. Available: https://www.mdpi.com/ 1424-8220/21/4/1278Z. Lőrincz, “A brief overview of imitation learning,” Sep 2019. [Online]. Available: https://smartlabai.medium.com/ a-brief-overview-of-imitation-learning-8a8a75c44a9cM. Lahtela and P. P. Kaplan, “¿qué es una red neuronal?” 1966. [Online]. Available: https://aws.amazon.com/es/what-is/ neural-network/THUMBNAIL2023DanielAponteErikaMartinez.pdf.jpg2023DanielAponteErikaMartinez.pdf.jpgIM Thumbnailimage/jpeg5122https://repository.usta.edu.co/bitstream/11634/49272/6/2023DanielAponteErikaMartinez.pdf.jpge4b28053edb3c3b03ad0f79a934ef4f2MD56open accessCarta_aprobacion_Biblioteca APONTE Y MARTINEZ.pdf.jpgCarta_aprobacion_Biblioteca APONTE Y MARTINEZ.pdf.jpgIM Thumbnailimage/jpeg7118https://repository.usta.edu.co/bitstream/11634/49272/7/Carta_aprobacion_Biblioteca%20%20APONTE%20Y%20MARTINEZ.pdf.jpg7eef1e283464bbabfa3c7ab3da811451MD57open accessCartaDerechosAutorDanielAponteErikaMartinez.pdf.jpgCartaDerechosAutorDanielAponteErikaMartinez.pdf.jpgIM Thumbnailimage/jpeg9605https://repository.usta.edu.co/bitstream/11634/49272/8/CartaDerechosAutorDanielAponteErikaMartinez.pdf.jpge31b7c49e49881ffaab9bcea9096e822MD58open accessORIGINAL2023DanielAponteErikaMartinez.pdf2023DanielAponteErikaMartinez.pdfTrabajo de Gradoapplication/pdf16414392https://repository.usta.edu.co/bitstream/11634/49272/1/2023DanielAponteErikaMartinez.pdf5617814b61c1c42b57c4b4e08267e25eMD51open accessCarta_aprobacion_Biblioteca APONTE Y MARTINEZ.pdfCarta_aprobacion_Biblioteca APONTE Y MARTINEZ.pdfCarta Aprobacion Facultadapplication/pdf352516https://repository.usta.edu.co/bitstream/11634/49272/2/Carta_aprobacion_Biblioteca%20%20APONTE%20Y%20MARTINEZ.pdfd05ff84b7c284bb782b760ae8b268e55MD52metadata only accessCartaDerechosAutorDanielAponteErikaMartinez.pdfCartaDerechosAutorDanielAponteErikaMartinez.pdfCarta Derechos de Autorapplication/pdf1306341https://repository.usta.edu.co/bitstream/11634/49272/3/CartaDerechosAutorDanielAponteErikaMartinez.pdfbe131ea28641f510291b4be5dc49066cMD53metadata only accessCC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8811https://repository.usta.edu.co/bitstream/11634/49272/4/license_rdf217700a34da79ed616c2feb68d4c5e06MD54open accessLICENSElicense.txtlicense.txttext/plain; charset=utf-8807https://repository.usta.edu.co/bitstream/11634/49272/5/license.txtaedeaf396fcd827b537c73d23464fc27MD55open access11634/49272oai:repository.usta.edu.co:11634/492722023-05-09 09:09:51.843open accessRepositorio Universidad Santo Tomásrepositorio@usantotomas.edu.coQXV0b3Jpem8gYWwgQ2VudHJvIGRlIFJlY3Vyc29zIHBhcmEgZWwgQXByZW5kaXphamUgeSBsYSBJbnZlc3RpZ2FjacOzbiwgQ1JBSS1VU1RBCmRlIGxhIFVuaXZlcnNpZGFkIFNhbnRvIFRvbcOhcywgcGFyYSBxdWUgY29uIGZpbmVzIGFjYWTDqW1pY29zIGFsbWFjZW5lIGxhCmluZm9ybWFjacOzbiBpbmdyZXNhZGEgcHJldmlhbWVudGUuCgpTZSBwZXJtaXRlIGxhIGNvbnN1bHRhLCByZXByb2R1Y2Npw7NuIHBhcmNpYWwsIHRvdGFsIG8gY2FtYmlvIGRlIGZvcm1hdG8gY29uCmZpbmVzIGRlIGNvbnNlcnZhY2nDs24sIGEgbG9zIHVzdWFyaW9zIGludGVyZXNhZG9zIGVuIGVsIGNvbnRlbmlkbyBkZSBlc3RlCnRyYWJham8sIHBhcmEgdG9kb3MgbG9zIHVzb3MgcXVlIHRlbmdhbiBmaW5hbGlkYWQgYWNhZMOpbWljYSwgc2llbXByZSB5IGN1YW5kbwptZWRpYW50ZSBsYSBjb3JyZXNwb25kaWVudGUgY2l0YSBiaWJsaW9ncsOhZmljYSBzZSBsZSBkw6kgY3LDqWRpdG8gYWwgdHJhYmFqbyBkZQpncmFkbyB5IGEgc3UgYXV0b3IuIERlIGNvbmZvcm1pZGFkIGNvbiBsbyBlc3RhYmxlY2lkbyBlbiBlbCBhcnTDrWN1bG8gMzAgZGUgbGEKTGV5IDIzIGRlIDE5ODIgeSBlbCBhcnTDrWN1bG8gMTEgZGUgbGEgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5Mywg4oCcTG9zIGRlcmVjaG9zCm1vcmFsZXMgc29icmUgZWwgdHJhYmFqbyBzb24gcHJvcGllZGFkIGRlIGxvcyBhdXRvcmVz4oCdLCBsb3MgY3VhbGVzIHNvbgppcnJlbnVuY2lhYmxlcywgaW1wcmVzY3JpcHRpYmxlcywgaW5lbWJhcmdhYmxlcyBlIGluYWxpZW5hYmxlcy4K |