Reducción de Tiempos de Entrenamiento de Algoritmos de Aprendizaje de Máquina a través de Tutoría por parte de un Experto Externo
Este proyecto de grado presenta el planteamiento e implementación de una política de aprendizaje para redes neuronales, basándose y refinando técnicas ya existentes entrenado mediante experiencias de un agente externo (experto), tomando como referencia una arquitectura de red neuronal convolucional....
- Autores:
-
Salazar Villareal, Carlos Enrique
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2023
- Institución:
- Universidad Santo Tomás
- Repositorio:
- Repositorio Institucional USTA
- Idioma:
- spa
- OAI Identifier:
- oai:repository.usta.edu.co:11634/52386
- Acceso en línea:
- http://hdl.handle.net/11634/52386
- Palabra clave:
- Artificial Intelligence
Learning Policies
Imitation Learning
Reinforcement Learning
Expert Learning
Ingeniería Electrónica
Teología
Tendencia de la Investigación
Inteligencia Artificial
Políticas de Aprendizaje
Aprendizaje por Imitación
Aprendizaje por Refuerzo
Aprendizaje por Experto
- Rights
- openAccess
- License
- Atribución-NoComercial-SinDerivadas 2.5 Colombia
id |
SANTTOMAS2_4b0926ad4380071b858087bc04512d95 |
---|---|
oai_identifier_str |
oai:repository.usta.edu.co:11634/52386 |
network_acronym_str |
SANTTOMAS2 |
network_name_str |
Repositorio Institucional USTA |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Reducción de Tiempos de Entrenamiento de Algoritmos de Aprendizaje de Máquina a través de Tutoría por parte de un Experto Externo |
title |
Reducción de Tiempos de Entrenamiento de Algoritmos de Aprendizaje de Máquina a través de Tutoría por parte de un Experto Externo |
spellingShingle |
Reducción de Tiempos de Entrenamiento de Algoritmos de Aprendizaje de Máquina a través de Tutoría por parte de un Experto Externo Artificial Intelligence Learning Policies Imitation Learning Reinforcement Learning Expert Learning Ingeniería Electrónica Teología Tendencia de la Investigación Inteligencia Artificial Políticas de Aprendizaje Aprendizaje por Imitación Aprendizaje por Refuerzo Aprendizaje por Experto |
title_short |
Reducción de Tiempos de Entrenamiento de Algoritmos de Aprendizaje de Máquina a través de Tutoría por parte de un Experto Externo |
title_full |
Reducción de Tiempos de Entrenamiento de Algoritmos de Aprendizaje de Máquina a través de Tutoría por parte de un Experto Externo |
title_fullStr |
Reducción de Tiempos de Entrenamiento de Algoritmos de Aprendizaje de Máquina a través de Tutoría por parte de un Experto Externo |
title_full_unstemmed |
Reducción de Tiempos de Entrenamiento de Algoritmos de Aprendizaje de Máquina a través de Tutoría por parte de un Experto Externo |
title_sort |
Reducción de Tiempos de Entrenamiento de Algoritmos de Aprendizaje de Máquina a través de Tutoría por parte de un Experto Externo |
dc.creator.fl_str_mv |
Salazar Villareal, Carlos Enrique |
dc.contributor.advisor.none.fl_str_mv |
Calderon Chavez, Juan Manuel |
dc.contributor.author.none.fl_str_mv |
Salazar Villareal, Carlos Enrique |
dc.contributor.orcid.spa.fl_str_mv |
https://orcid.org/0000-0002-4471-3980 https://orcid.org/0000-0002-3454-3711 |
dc.contributor.cvlac.spa.fl_str_mv |
https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000380938 |
dc.contributor.corporatename.spa.fl_str_mv |
Universidad Santo Tomás |
dc.subject.keyword.spa.fl_str_mv |
Artificial Intelligence Learning Policies Imitation Learning Reinforcement Learning Expert Learning |
topic |
Artificial Intelligence Learning Policies Imitation Learning Reinforcement Learning Expert Learning Ingeniería Electrónica Teología Tendencia de la Investigación Inteligencia Artificial Políticas de Aprendizaje Aprendizaje por Imitación Aprendizaje por Refuerzo Aprendizaje por Experto |
dc.subject.lemb.spa.fl_str_mv |
Ingeniería Electrónica Teología Tendencia de la Investigación |
dc.subject.proposal.spa.fl_str_mv |
Inteligencia Artificial Políticas de Aprendizaje Aprendizaje por Imitación Aprendizaje por Refuerzo Aprendizaje por Experto |
description |
Este proyecto de grado presenta el planteamiento e implementación de una política de aprendizaje para redes neuronales, basándose y refinando técnicas ya existentes entrenado mediante experiencias de un agente externo (experto), tomando como referencia una arquitectura de red neuronal convolucional. Se detalla el proceso de selección del ambiente problemático, la arquitectura y el paradigma seleccionado. Así mismo, se realizan pruebas múltiples para confirmar el desempeño. Se entrenan con distintas políticas de entrenamiento. Finalmente se evalúa el rendimiento de las distintas políticas entrenado con respecto a una política base \textit{exploración/explotación}. Como producto final se presenta: el dataset experto de referencia, un repositorio con los programas realizados para el desarrollo junto a la implementación de la política. |
publishDate |
2023 |
dc.date.accessioned.none.fl_str_mv |
2023-09-26T00:26:45Z |
dc.date.available.none.fl_str_mv |
2023-09-26T00:26:45Z |
dc.date.issued.none.fl_str_mv |
2023-09-25 |
dc.type.local.spa.fl_str_mv |
Trabajo de grado |
dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.drive.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.citation.spa.fl_str_mv |
Salazar Villareal, C. E. (2023). Reducción de Tiempos de Entrenamiento de Algoritmos de Aprendizaje de Máquina a través de Tutoría por parte de un Experto Externo. [Trabajo de Grado, Universidad Santo Tomás]. Repositorio Institucional. |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/11634/52386 |
dc.identifier.reponame.spa.fl_str_mv |
reponame:Repositorio Institucional Universidad Santo Tomás |
dc.identifier.instname.spa.fl_str_mv |
instname:Universidad Santo Tomás |
dc.identifier.repourl.spa.fl_str_mv |
repourl:https://repository.usta.edu.co |
identifier_str_mv |
Salazar Villareal, C. E. (2023). Reducción de Tiempos de Entrenamiento de Algoritmos de Aprendizaje de Máquina a través de Tutoría por parte de un Experto Externo. [Trabajo de Grado, Universidad Santo Tomás]. Repositorio Institucional. reponame:Repositorio Institucional Universidad Santo Tomás instname:Universidad Santo Tomás repourl:https://repository.usta.edu.co |
url |
http://hdl.handle.net/11634/52386 |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.references.spa.fl_str_mv |
A. Rimassa, J. Luciano, C. Zurita, J. Paul, V. Bautista y S. Francisco, «Reconocimiento de tumores y patologías cerebrales mediante inteligencia artificial.,» 2022. dirección: http://www.dspace.uce.edu.ec/handle/25000/27244. S. Ben-David, E. Kushilevitz e Y. Mansour, «Online Learning versus Offline Learning,» Machine Learning, vol. 29, mayo de 1997. doi: 10. 1023/A:1007465907571. Y. Lecun, L. Bottou, Y. Bengio y P. Haffner, «Gradient-based learning applied to document recognition,» Proceedings of the IEEE, vol. 86, n.o 11, págs. 2278-2324, 1998. doi: 10.1109/5.726791. E. Strubell, A. Ganesh y A. McCallum, Energy and Policy Considerations for Deep Learning in NLP, 2019. doi: 10 . 48550 / ARXIV . 1906 . 02243. dirección: https://arxiv.org/abs/1906.02243. S. Chaudhury, D. Kimura, T. Inoue y R. Tachibana, Model-based imitation learning from state trajectories, 2018. dirección: https://openreview.net/forum?id=S1GDXzb0b. K. Judah, A. Fern, P. Tadepalli y R. Goetschalckx, «Imitation Learning with Demonstrations and Shaping Rewards,» Proceedings of the AAAI Conference on Artificial Intelligence, vol. 28, n.o 1, jun. de 2014. doi: 10 . 1609 / aaai . v28i1 . 9024. dirección: https : / / ojs . aaai . org / index.php/AAAI/article/view/9024. X. Guo, S. Chang, M. Yu, M. Liu y G. Tesauro, Faster Reinforcement Learning with Expert State Sequences, 2018. dirección: https://openreview.net/forum?id=BJ7d0fW0b. I. Radosavovic, X. Wang, L. Pinto y J. Malik, «State-Only Imitation Learning for Dexterous Manipulation,» en 2021 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2021, págs. 7865-7871. doi: 10.1109/IROS51168.2021.9636557. F. Torabi, G. Warnell y P. Stone, Recent Advances in Imitation Learning from Observation, 2019. arXiv: 1905.13566 [cs.RO]. H. M. L. Yisong Yue, IMITATION LEARNING TUTORIAL, 2018. dirección: https://sites.google.com/view/icml2018-imitation- learning/. S. Singh, What is Imitation Learning? 2019. dirección: https : / / deeplearninguniversity.com/what-is-imitation-learning/. M. Schaarschmidt, A. Kuhnle, B. Ellis, K. Fricke, F. Gessert y E. Yoneki, LIFT: Reinforcement Learning in Computer Systems by Learning From Demonstrations, 2018. doi: 10 . 48550 / ARXIV . 1808 . 07903. dirección: https://arxiv.org/abs/1808.07903. R. Marcus, P. Negi, H. Mao, N. Tatbul, M. Alizadeh y T. Kraska, «Bao: Making Learned Query Optimization Practical,» en Proceedings of the 2021 International Conference on Management of Data, ép. SIGMOD ’21, Virtual Event, China: Association for Computing Machinery, 2021, págs. 1275-1288, isbn: 9781450383431. doi: 10 . 1145 / 3448016 . 3452838. dirección: https://doi.org/10.1145/3448016.3452838. R. Marcus, P. Negi, H. Mao et al., «Neo,» Proceedings of the VLDB Endowment, vol. 12, n.o 11, págs. 1705-1718, jul. de 2019. doi: 10. 14778/3342263.3342644. dirección: https://doi.org/10.14778% 2F3342263.3342644. M. F. Argerich, J. Fürst y B. Cheng, «Tutor4RL: Guiding Reinforcement Learning with External Knowledge.,» en AAAI Spring Symposium: Combining Machine Learning with Knowledge Engineering (1), 2020. O. Rivlin, Reinforcement Learning Using a Single Demonstration, 2019. dirección: https://towardsdatascience.com/reinforcement- learning-using-a-single-demonstration-7889fe5e9f41. X. Guo, S. Chang, M. Yu, G. Tesauro y M. Campbell, Hybrid Reinforcement Learning with Expert State Sequences, 2019. doi: 10 . 48550 / ARXIV . 1903 . 04110. dirección: https://arxiv.org/abs/1903.04110. R. Zhang, F. Torabi, L. Guan, D. H. Ballard y P. Stone, Leveraging Human Guidance for Deep Reinforcement Learning Tasks, 2019. arXiv: 1909.09906 [cs.AI] A. Aflakian, A. Rastegharpanah y R. Stolkin, «Boosting Performance of Visual Servoing Using Deep Reinforcement Learning From Multiple Demonstrations,» IEEE Access, vol. 11, págs. 26 512-26 520, 2023. doi: 10.1109/ACCESS.2023.3256724 A. M. Metelli, M. Pirotta y M. Restelli, «Compatible Reward Inverse Reinforcement Learning,» en The Thirty-first Annual Conference on Neural Information Processing Systems - NIPS 2017, Long Beach, United States, dic. de 2017. dirección: https://hal.inria.fr/hal- 01653328. R. M. J. V. M., «Efectividad, eficacia y eficiencia en equipos de trabajo,» Espacios, 2017. E. Elibol, J. Calderon, M. Llofriu, C. Quintero, W. Moreno y A. Weitzenfeld, «Power usage reduction of humanoid standing process using q-learning,» en RoboCup 2015: Robot World Cup XIX 19, Springer, 2015, págs. 251-263. G. Cardona, C. Bravo, W. Quesada et al., «Autonomous navigation for exploration of unknown environments and collision avoidance in mobile robots using reinforcement learning,» en 2019 SoutheastCon, IEEE, 2019, págs. 1-7. L. J. P. Reyes, N. B. Oviedo, E. C. Camacho y J. M. Calderon, «Adaptable Recommendation System for Outfit Selection with Deep Learning Approach,» IFAC-PapersOnLine, vol. 54, n.o 13, págs. 605-610, 2021. J. A. Cárdenas, U. E. Carrero, E. C. Camacho y J. M. Calderón, «Optimal PID ø axis Control for UAV Quadrotor based on Multi- Objective PSO,» IFAC-PapersOnLine, vol. 55, n.o 14, págs. 101-106, 2022. J. A. Cardenas, U. E. Carrero, E. C. Camacho y J. M. Calderon, «Intelligent Position Controller for Unmanned Aerial Vehicles (UAV) Based on Supervised Deep Learning,» Machines, vol. 11, n.o 6, pág. 606, 2023. A. M. Pedro Larranaga ~ Inaki ~ Inza, Tema 8. Redes Neuronales. J. Schmidhuber, «Deep Learning in Neural Networks: An Overview,» CoRR, vol. abs/1404.7828, 2014. arXiv: 1404.7828. dirección: http: //arxiv.org/abs/1404.7828. A. Gleave, M. Taufeeque, J. Rocamonde et al., imitation: Clean Imitation Learning Implementations, 2022. arXiv: 2211 . 11972 [cs.LG]. B. Zheng, S. Verma, J. Zhou, I. Tsang y F. Chen, Imitation Learning: Progress, Taxonomies and Challenges, 2022. arXiv: 2106 . 12177 [cs.LG]. A. Dosovitskiy, G. Ros, F. Codevilla, A. Lopez y V. Koltun, CARLA: An Open Urban Driving Simulator, 2017. arXiv: 1711.03938 [cs.LG]. W. O. Quesada, J. I. Rodriguez, J. C. Murillo et al., «Leader-follower formation for UAV robot swarm based on fuzzy logic theory,» en Artificial Intelligence and Soft Computing: 17th International Conference, ICAISC 2018, Zakopane, Poland, June 3-7, 2018, Proceedings, Part II 17, Springer, 2018, págs. 740-751. D. Paez, J. P. Romero, B. Noriega, G. A. Cardona y J. M. Calderon, «Distributed particle swarm optimization for multi-robot system in search and rescue operations,» IFAC-PapersOnLine, vol. 54, n.o 4, págs. 1-6, 2021. J. León, G. A. Cardona, A. Botello y J. M. Calderón, «Robot swarms theory applicable to seek and rescue operation,» en Intelligent Systems Design and Applications: 16th International Conference on Intelligent Systems Design and Applications (ISDA 2016) held in Porto, Portugal, December 16-18, 2016, Springer, 2017, págs. 1061-1070. G. A. Cardona y J. M. Calderon, «Robot swarm navigation and victim detection using rendezvous consensus in search and rescue operations,» Applied Sciences, vol. 9, n.o 8, pág. 1702, 2019. N. Gómez, N. Peña, S. Rincón, S. Amaya y J. Calderon, «Leader- follower behavior in multi-agent systems for search and rescue based on pso approach,» en SoutheastCon 2022, IEEE, 2022, págs. 413-420 B. Pallares, T. Rozo, E. C. Camacho, J. G. Guarnizo, J. M. Calderon et al., «Design and construction of a cost-oriented mobile robot for domestic assistance,» IFAC-PapersOnLine, vol. 54, n.o 13, págs. 293-298, 2021. L. G. Jaimes y J. M. Calderon, «An UAV-based incentive mechanism for Crowdsensing with budget constraints,» en 2020 IEEE 17th Annual Consumer Communications & Networking Conference (CCNC), IEEE, 2020, págs. 1-6. G. A. Cardona, J. Ramirez-Rugeles, E. Mojica-Nava y J. M. Calderon, «Visual victim detection and quadrotor-swarm coordination control in search and rescue environment,» International Journal of Electrical and Computer Engineering, vol. 11, n.o 3, pág. 2079, 2021. G. Cardona, M. Arevalo-Castiblanco, D. Tellez-Castro, J. Calderon y E. Mojica-Nava, «Robust Adaptive Synchronization of Interconnected Heterogeneous Quadrotors Transporting a Cable-Suspended Load,» en 2021 IEEE International Conference on Robotics and Automation (ICRA), IEEE, 2021, págs. 31-37. G. Cardona, D. Tellez-Castr, J. Calderon y E. Mojica-Nava, «Adaptive Multi-Quadrotor Control for Cooperative Transportation of a Cable-Suspended Load,» en 2021 European Control Conference (ECC), IEEE, 2021, págs. 696-701 E. Elibol, J. Calderon, M. Llofriu, W. Moreno y A. Weitzenfeld, «Analyzing and reducing energy usage in a humanoid robot during standing up and sitting down tasks,» International Journal of Humanoid Robotics, vol. 13, n.o 04, pág. 1 650 014, 2016. 68 |
dc.rights.*.fl_str_mv |
Atribución-NoComercial-SinDerivadas 2.5 Colombia |
dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/2.5/co/ |
dc.rights.local.spa.fl_str_mv |
Abierto (Texto Completo) |
dc.rights.accessrights.none.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.spa.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
Atribución-NoComercial-SinDerivadas 2.5 Colombia http://creativecommons.org/licenses/by-nc-nd/2.5/co/ Abierto (Texto Completo) http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.mimetype.spa.fl_str_mv |
application/pdf |
dc.coverage.campus.spa.fl_str_mv |
CRAI-USTA Bogotá |
dc.publisher.spa.fl_str_mv |
Universidad Santo Tomás |
dc.publisher.program.spa.fl_str_mv |
Pregrado Ingeniería Electrónica |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ingeniería Electrónica |
institution |
Universidad Santo Tomás |
bitstream.url.fl_str_mv |
https://repository.usta.edu.co/bitstream/11634/52386/1/2023carlossalazar.pdf https://repository.usta.edu.co/bitstream/11634/52386/2/Carta%20Aprovacion%20Facultad.pdf https://repository.usta.edu.co/bitstream/11634/52386/5/Carta%20Derechos%20de%20Autor.pdf https://repository.usta.edu.co/bitstream/11634/52386/3/license_rdf https://repository.usta.edu.co/bitstream/11634/52386/6/license.txt https://repository.usta.edu.co/bitstream/11634/52386/7/2023carlossalazar.pdf.jpg https://repository.usta.edu.co/bitstream/11634/52386/8/Carta%20Aprovacion%20Facultad.pdf.jpg https://repository.usta.edu.co/bitstream/11634/52386/9/Carta%20Derechos%20de%20Autor.pdf.jpg |
bitstream.checksum.fl_str_mv |
01789bc44b64cc6f32b84dc9907e7e5d 23b2c938b9d22384baf37ad4bc2bcfed 75b88ed9c8fe4393b5bb9a54e73925e5 217700a34da79ed616c2feb68d4c5e06 aedeaf396fcd827b537c73d23464fc27 d2c7501b365b24fc24e99c719687d81f e79cf3d9eacc2ead51322217114f3d70 a59a30f07a7cfef2275bcdbc1bb8b9ee |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Universidad Santo Tomás |
repository.mail.fl_str_mv |
noreply@usta.edu.co |
_version_ |
1782026204777283584 |
spelling |
Calderon Chavez, Juan Manuelwill be generated::orcid::0000-0002-4471-3980600Salazar Villareal, Carlos Enriquewill be generated::orcid::0000-0002-3454-3711600https://orcid.org/0000-0002-4471-3980https://orcid.org/0000-0002-3454-3711https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000380938Universidad Santo Tomás2023-09-26T00:26:45Z2023-09-26T00:26:45Z2023-09-25Salazar Villareal, C. E. (2023). Reducción de Tiempos de Entrenamiento de Algoritmos de Aprendizaje de Máquina a través de Tutoría por parte de un Experto Externo. [Trabajo de Grado, Universidad Santo Tomás]. Repositorio Institucional.http://hdl.handle.net/11634/52386reponame:Repositorio Institucional Universidad Santo Tomásinstname:Universidad Santo Tomásrepourl:https://repository.usta.edu.coEste proyecto de grado presenta el planteamiento e implementación de una política de aprendizaje para redes neuronales, basándose y refinando técnicas ya existentes entrenado mediante experiencias de un agente externo (experto), tomando como referencia una arquitectura de red neuronal convolucional. Se detalla el proceso de selección del ambiente problemático, la arquitectura y el paradigma seleccionado. Así mismo, se realizan pruebas múltiples para confirmar el desempeño. Se entrenan con distintas políticas de entrenamiento. Finalmente se evalúa el rendimiento de las distintas políticas entrenado con respecto a una política base \textit{exploración/explotación}. Como producto final se presenta: el dataset experto de referencia, un repositorio con los programas realizados para el desarrollo junto a la implementación de la política.This degree project presents the approach and implementation of a learning policy for neural networks, based on and refining existing techniques trained through the experience of an external agent (expert), taking as reference a convolutional neural network architecture. The selection process of the problematic environment, the architecture and the selected paradigm are detailed. Likewise, multiple tests are performed to confirm the performance. They are trained with different training policies. Finally, the performance of the different trained policies is evaluated with respect to a base policy \textit{exploration/exploitation}. As a final product we present: the reference expert dataset, a repository with the programs made for the development together with the implementation of the policy.Ingeniero ElectronicoPregradoapplication/pdfspaUniversidad Santo TomásPregrado Ingeniería ElectrónicaFacultad de Ingeniería ElectrónicaAtribución-NoComercial-SinDerivadas 2.5 Colombiahttp://creativecommons.org/licenses/by-nc-nd/2.5/co/Abierto (Texto Completo)info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Reducción de Tiempos de Entrenamiento de Algoritmos de Aprendizaje de Máquina a través de Tutoría por parte de un Experto ExternoArtificial IntelligenceLearning PoliciesImitation LearningReinforcement LearningExpert LearningIngeniería ElectrónicaTeologíaTendencia de la InvestigaciónInteligencia ArtificialPolíticas de AprendizajeAprendizaje por ImitaciónAprendizaje por RefuerzoAprendizaje por ExpertoTrabajo de gradoinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1finfo:eu-repo/semantics/bachelorThesisCRAI-USTA BogotáA. Rimassa, J. Luciano, C. Zurita, J. Paul, V. Bautista y S. Francisco, «Reconocimiento de tumores y patologías cerebrales mediante inteligencia artificial.,» 2022. dirección: http://www.dspace.uce.edu.ec/handle/25000/27244.S. Ben-David, E. Kushilevitz e Y. Mansour, «Online Learning versus Offline Learning,» Machine Learning, vol. 29, mayo de 1997. doi: 10. 1023/A:1007465907571.Y. Lecun, L. Bottou, Y. Bengio y P. Haffner, «Gradient-based learning applied to document recognition,» Proceedings of the IEEE, vol. 86, n.o 11, págs. 2278-2324, 1998. doi: 10.1109/5.726791.E. Strubell, A. Ganesh y A. McCallum, Energy and Policy Considerations for Deep Learning in NLP, 2019. doi: 10 . 48550 / ARXIV . 1906 . 02243. dirección: https://arxiv.org/abs/1906.02243.S. Chaudhury, D. Kimura, T. Inoue y R. Tachibana, Model-based imitation learning from state trajectories, 2018. dirección: https://openreview.net/forum?id=S1GDXzb0b.K. Judah, A. Fern, P. Tadepalli y R. Goetschalckx, «Imitation Learning with Demonstrations and Shaping Rewards,» Proceedings of the AAAI Conference on Artificial Intelligence, vol. 28, n.o 1, jun. de 2014. doi: 10 . 1609 / aaai . v28i1 . 9024. dirección: https : / / ojs . aaai . org / index.php/AAAI/article/view/9024.X. Guo, S. Chang, M. Yu, M. Liu y G. Tesauro, Faster Reinforcement Learning with Expert State Sequences, 2018. dirección: https://openreview.net/forum?id=BJ7d0fW0b.I. Radosavovic, X. Wang, L. Pinto y J. Malik, «State-Only Imitation Learning for Dexterous Manipulation,» en 2021 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2021, págs. 7865-7871. doi: 10.1109/IROS51168.2021.9636557.F. Torabi, G. Warnell y P. Stone, Recent Advances in Imitation Learning from Observation, 2019. arXiv: 1905.13566 [cs.RO].H. M. L. Yisong Yue, IMITATION LEARNING TUTORIAL, 2018. dirección: https://sites.google.com/view/icml2018-imitation- learning/.S. Singh, What is Imitation Learning? 2019. dirección: https : / / deeplearninguniversity.com/what-is-imitation-learning/.M. Schaarschmidt, A. Kuhnle, B. Ellis, K. Fricke, F. Gessert y E. Yoneki, LIFT: Reinforcement Learning in Computer Systems by Learning From Demonstrations, 2018. doi: 10 . 48550 / ARXIV . 1808 . 07903. dirección: https://arxiv.org/abs/1808.07903.R. Marcus, P. Negi, H. Mao, N. Tatbul, M. Alizadeh y T. Kraska, «Bao: Making Learned Query Optimization Practical,» en Proceedings of the 2021 International Conference on Management of Data, ép. SIGMOD ’21, Virtual Event, China: Association for Computing Machinery, 2021, págs. 1275-1288, isbn: 9781450383431. doi: 10 . 1145 / 3448016 . 3452838. dirección: https://doi.org/10.1145/3448016.3452838.R. Marcus, P. Negi, H. Mao et al., «Neo,» Proceedings of the VLDB Endowment, vol. 12, n.o 11, págs. 1705-1718, jul. de 2019. doi: 10. 14778/3342263.3342644. dirección: https://doi.org/10.14778% 2F3342263.3342644.M. F. Argerich, J. Fürst y B. Cheng, «Tutor4RL: Guiding Reinforcement Learning with External Knowledge.,» en AAAI Spring Symposium: Combining Machine Learning with Knowledge Engineering (1), 2020.O. Rivlin, Reinforcement Learning Using a Single Demonstration, 2019. dirección: https://towardsdatascience.com/reinforcement- learning-using-a-single-demonstration-7889fe5e9f41.X. Guo, S. Chang, M. Yu, G. Tesauro y M. Campbell, Hybrid Reinforcement Learning with Expert State Sequences, 2019. doi: 10 . 48550 / ARXIV . 1903 . 04110. dirección: https://arxiv.org/abs/1903.04110.R. Zhang, F. Torabi, L. Guan, D. H. Ballard y P. Stone, Leveraging Human Guidance for Deep Reinforcement Learning Tasks, 2019. arXiv: 1909.09906 [cs.AI]A. Aflakian, A. Rastegharpanah y R. Stolkin, «Boosting Performance of Visual Servoing Using Deep Reinforcement Learning From Multiple Demonstrations,» IEEE Access, vol. 11, págs. 26 512-26 520, 2023. doi: 10.1109/ACCESS.2023.3256724A. M. Metelli, M. Pirotta y M. Restelli, «Compatible Reward Inverse Reinforcement Learning,» en The Thirty-first Annual Conference on Neural Information Processing Systems - NIPS 2017, Long Beach, United States, dic. de 2017. dirección: https://hal.inria.fr/hal- 01653328.R. M. J. V. M., «Efectividad, eficacia y eficiencia en equipos de trabajo,» Espacios, 2017.E. Elibol, J. Calderon, M. Llofriu, C. Quintero, W. Moreno y A. Weitzenfeld, «Power usage reduction of humanoid standing process using q-learning,» en RoboCup 2015: Robot World Cup XIX 19, Springer, 2015, págs. 251-263.G. Cardona, C. Bravo, W. Quesada et al., «Autonomous navigation for exploration of unknown environments and collision avoidance in mobile robots using reinforcement learning,» en 2019 SoutheastCon, IEEE, 2019, págs. 1-7.L. J. P. Reyes, N. B. Oviedo, E. C. Camacho y J. M. Calderon, «Adaptable Recommendation System for Outfit Selection with Deep Learning Approach,» IFAC-PapersOnLine, vol. 54, n.o 13, págs. 605-610, 2021.J. A. Cárdenas, U. E. Carrero, E. C. Camacho y J. M. Calderón, «Optimal PID ø axis Control for UAV Quadrotor based on Multi- Objective PSO,» IFAC-PapersOnLine, vol. 55, n.o 14, págs. 101-106, 2022.J. A. Cardenas, U. E. Carrero, E. C. Camacho y J. M. Calderon, «Intelligent Position Controller for Unmanned Aerial Vehicles (UAV) Based on Supervised Deep Learning,» Machines, vol. 11, n.o 6, pág. 606, 2023.A. M. Pedro Larranaga ~ Inaki ~ Inza, Tema 8. Redes Neuronales.J. Schmidhuber, «Deep Learning in Neural Networks: An Overview,» CoRR, vol. abs/1404.7828, 2014. arXiv: 1404.7828. dirección: http: //arxiv.org/abs/1404.7828.A. Gleave, M. Taufeeque, J. Rocamonde et al., imitation: Clean Imitation Learning Implementations, 2022. arXiv: 2211 . 11972 [cs.LG].B. Zheng, S. Verma, J. Zhou, I. Tsang y F. Chen, Imitation Learning: Progress, Taxonomies and Challenges, 2022. arXiv: 2106 . 12177 [cs.LG].A. Dosovitskiy, G. Ros, F. Codevilla, A. Lopez y V. Koltun, CARLA: An Open Urban Driving Simulator, 2017. arXiv: 1711.03938 [cs.LG].W. O. Quesada, J. I. Rodriguez, J. C. Murillo et al., «Leader-follower formation for UAV robot swarm based on fuzzy logic theory,» en Artificial Intelligence and Soft Computing: 17th International Conference, ICAISC 2018, Zakopane, Poland, June 3-7, 2018, Proceedings, Part II 17, Springer, 2018, págs. 740-751.D. Paez, J. P. Romero, B. Noriega, G. A. Cardona y J. M. Calderon, «Distributed particle swarm optimization for multi-robot system in search and rescue operations,» IFAC-PapersOnLine, vol. 54, n.o 4, págs. 1-6, 2021.J. León, G. A. Cardona, A. Botello y J. M. Calderón, «Robot swarms theory applicable to seek and rescue operation,» en Intelligent Systems Design and Applications: 16th International Conference on Intelligent Systems Design and Applications (ISDA 2016) held in Porto, Portugal, December 16-18, 2016, Springer, 2017, págs. 1061-1070.G. A. Cardona y J. M. Calderon, «Robot swarm navigation and victim detection using rendezvous consensus in search and rescue operations,» Applied Sciences, vol. 9, n.o 8, pág. 1702, 2019.N. Gómez, N. Peña, S. Rincón, S. Amaya y J. Calderon, «Leader- follower behavior in multi-agent systems for search and rescue based on pso approach,» en SoutheastCon 2022, IEEE, 2022, págs. 413-420B. Pallares, T. Rozo, E. C. Camacho, J. G. Guarnizo, J. M. Calderon et al., «Design and construction of a cost-oriented mobile robot for domestic assistance,» IFAC-PapersOnLine, vol. 54, n.o 13, págs. 293-298, 2021.L. G. Jaimes y J. M. Calderon, «An UAV-based incentive mechanism for Crowdsensing with budget constraints,» en 2020 IEEE 17th Annual Consumer Communications & Networking Conference (CCNC), IEEE, 2020, págs. 1-6.G. A. Cardona, J. Ramirez-Rugeles, E. Mojica-Nava y J. M. Calderon, «Visual victim detection and quadrotor-swarm coordination control in search and rescue environment,» International Journal of Electrical and Computer Engineering, vol. 11, n.o 3, pág. 2079, 2021.G. Cardona, M. Arevalo-Castiblanco, D. Tellez-Castro, J. Calderon y E. Mojica-Nava, «Robust Adaptive Synchronization of Interconnected Heterogeneous Quadrotors Transporting a Cable-Suspended Load,» en 2021 IEEE International Conference on Robotics and Automation (ICRA), IEEE, 2021, págs. 31-37.G. Cardona, D. Tellez-Castr, J. Calderon y E. Mojica-Nava, «Adaptive Multi-Quadrotor Control for Cooperative Transportation of a Cable-Suspended Load,» en 2021 European Control Conference (ECC), IEEE, 2021, págs. 696-701E. Elibol, J. Calderon, M. Llofriu, W. Moreno y A. Weitzenfeld, «Analyzing and reducing energy usage in a humanoid robot during standing up and sitting down tasks,» International Journal of Humanoid Robotics, vol. 13, n.o 04, pág. 1 650 014, 2016. 68ORIGINAL2023carlossalazar.pdf2023carlossalazar.pdfTrabajo de Gradoapplication/pdf5597682https://repository.usta.edu.co/bitstream/11634/52386/1/2023carlossalazar.pdf01789bc44b64cc6f32b84dc9907e7e5dMD51open accessCarta Aprovacion Facultad.pdfCarta Aprovacion Facultad.pdfCarta Aprovacion Facultadapplication/pdf159133https://repository.usta.edu.co/bitstream/11634/52386/2/Carta%20Aprovacion%20Facultad.pdf23b2c938b9d22384baf37ad4bc2bcfedMD52metadata only accessCarta Derechos de Autor.pdfCarta Derechos de Autor.pdfCarta Derechos de Autorapplication/pdf278542https://repository.usta.edu.co/bitstream/11634/52386/5/Carta%20Derechos%20de%20Autor.pdf75b88ed9c8fe4393b5bb9a54e73925e5MD55metadata only accessCC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8811https://repository.usta.edu.co/bitstream/11634/52386/3/license_rdf217700a34da79ed616c2feb68d4c5e06MD53open accessLICENSElicense.txtlicense.txttext/plain; charset=utf-8807https://repository.usta.edu.co/bitstream/11634/52386/6/license.txtaedeaf396fcd827b537c73d23464fc27MD56open accessTHUMBNAIL2023carlossalazar.pdf.jpg2023carlossalazar.pdf.jpgIM Thumbnailimage/jpeg3813https://repository.usta.edu.co/bitstream/11634/52386/7/2023carlossalazar.pdf.jpgd2c7501b365b24fc24e99c719687d81fMD57open accessCarta Aprovacion Facultad.pdf.jpgCarta Aprovacion Facultad.pdf.jpgIM Thumbnailimage/jpeg6951https://repository.usta.edu.co/bitstream/11634/52386/8/Carta%20Aprovacion%20Facultad.pdf.jpge79cf3d9eacc2ead51322217114f3d70MD58open accessCarta Derechos de Autor.pdf.jpgCarta Derechos de Autor.pdf.jpgIM Thumbnailimage/jpeg7220https://repository.usta.edu.co/bitstream/11634/52386/9/Carta%20Derechos%20de%20Autor.pdf.jpga59a30f07a7cfef2275bcdbc1bb8b9eeMD59open access11634/52386oai:repository.usta.edu.co:11634/523862023-09-26 03:03:18.922open accessRepositorio Universidad Santo Tomásnoreply@usta.edu.coQXV0b3Jpem8gYWwgQ2VudHJvIGRlIFJlY3Vyc29zIHBhcmEgZWwgQXByZW5kaXphamUgeSBsYSBJbnZlc3RpZ2FjacOzbiwgQ1JBSS1VU1RBCmRlIGxhIFVuaXZlcnNpZGFkIFNhbnRvIFRvbcOhcywgcGFyYSBxdWUgY29uIGZpbmVzIGFjYWTDqW1pY29zIGFsbWFjZW5lIGxhCmluZm9ybWFjacOzbiBpbmdyZXNhZGEgcHJldmlhbWVudGUuCgpTZSBwZXJtaXRlIGxhIGNvbnN1bHRhLCByZXByb2R1Y2Npw7NuIHBhcmNpYWwsIHRvdGFsIG8gY2FtYmlvIGRlIGZvcm1hdG8gY29uCmZpbmVzIGRlIGNvbnNlcnZhY2nDs24sIGEgbG9zIHVzdWFyaW9zIGludGVyZXNhZG9zIGVuIGVsIGNvbnRlbmlkbyBkZSBlc3RlCnRyYWJham8sIHBhcmEgdG9kb3MgbG9zIHVzb3MgcXVlIHRlbmdhbiBmaW5hbGlkYWQgYWNhZMOpbWljYSwgc2llbXByZSB5IGN1YW5kbwptZWRpYW50ZSBsYSBjb3JyZXNwb25kaWVudGUgY2l0YSBiaWJsaW9ncsOhZmljYSBzZSBsZSBkw6kgY3LDqWRpdG8gYWwgdHJhYmFqbyBkZQpncmFkbyB5IGEgc3UgYXV0b3IuIERlIGNvbmZvcm1pZGFkIGNvbiBsbyBlc3RhYmxlY2lkbyBlbiBlbCBhcnTDrWN1bG8gMzAgZGUgbGEKTGV5IDIzIGRlIDE5ODIgeSBlbCBhcnTDrWN1bG8gMTEgZGUgbGEgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5Mywg4oCcTG9zIGRlcmVjaG9zCm1vcmFsZXMgc29icmUgZWwgdHJhYmFqbyBzb24gcHJvcGllZGFkIGRlIGxvcyBhdXRvcmVz4oCdLCBsb3MgY3VhbGVzIHNvbgppcnJlbnVuY2lhYmxlcywgaW1wcmVzY3JpcHRpYmxlcywgaW5lbWJhcmdhYmxlcyBlIGluYWxpZW5hYmxlcy4K |