Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo.
En este trabajo se hace uso de técnicas de aprendizaje por refuerzo (Q-Learning) con el objetivo de entrenar un grupo de robots para generar comportamientos de enjambre. Se presentan dos posibles soluciones con diferentes enfoques. En la primera solución propuesta se establecen los estados del robot...
- Autores:
-
Quesada Moncayo, Wilson Orlando
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2019
- Institución:
- Universidad Santo Tomás
- Repositorio:
- Repositorio Institucional USTA
- Idioma:
- spa
- OAI Identifier:
- oai:repository.usta.edu.co:11634/15223
- Acceso en línea:
- http://hdl.handle.net/11634/15223
- Palabra clave:
- Machine learning
Multi-agent systems
Q–Learning
Reinforcement learning
Swarm intelligence
Swarm robotics
Inteligencia artificial
Inteligencia de enjambre
Robótica
Aprendizaje automático
Aprendizaje por refuerzo
Inteligencia de enjambre
Q–Learning
Robótica de enjambre
Sistemas multiagente
- Rights
- openAccess
- License
- Atribución-NoComercial-SinDerivadas 2.5 Colombia
id |
SANTTOMAS2_b957f3e3a6828fb0f121c2fd8137692b |
---|---|
oai_identifier_str |
oai:repository.usta.edu.co:11634/15223 |
network_acronym_str |
SANTTOMAS2 |
network_name_str |
Repositorio Institucional USTA |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo. |
title |
Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo. |
spellingShingle |
Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo. Machine learning Multi-agent systems Q–Learning Reinforcement learning Swarm intelligence Swarm robotics Inteligencia artificial Inteligencia de enjambre Robótica Aprendizaje automático Aprendizaje por refuerzo Inteligencia de enjambre Q–Learning Robótica de enjambre Sistemas multiagente |
title_short |
Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo. |
title_full |
Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo. |
title_fullStr |
Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo. |
title_full_unstemmed |
Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo. |
title_sort |
Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo. |
dc.creator.fl_str_mv |
Quesada Moncayo, Wilson Orlando |
dc.contributor.advisor.spa.fl_str_mv |
Calderón Chávez, Juan Manuel |
dc.contributor.author.spa.fl_str_mv |
Quesada Moncayo, Wilson Orlando |
dc.subject.keyword.spa.fl_str_mv |
Machine learning Multi-agent systems Q–Learning Reinforcement learning Swarm intelligence Swarm robotics |
topic |
Machine learning Multi-agent systems Q–Learning Reinforcement learning Swarm intelligence Swarm robotics Inteligencia artificial Inteligencia de enjambre Robótica Aprendizaje automático Aprendizaje por refuerzo Inteligencia de enjambre Q–Learning Robótica de enjambre Sistemas multiagente |
dc.subject.lemb.spa.fl_str_mv |
Inteligencia artificial Inteligencia de enjambre Robótica |
dc.subject.proposal.spa.fl_str_mv |
Aprendizaje automático Aprendizaje por refuerzo Inteligencia de enjambre Q–Learning Robótica de enjambre Sistemas multiagente |
description |
En este trabajo se hace uso de técnicas de aprendizaje por refuerzo (Q-Learning) con el objetivo de entrenar un grupo de robots para generar comportamientos de enjambre. Se presentan dos posibles soluciones con diferentes enfoques. En la primera solución propuesta se establecen los estados del robot en función de la distancia de sus dos vecinos más cercanos. En la segunda solución propuesta se definen un radio de atracción y otro radio de repulsión, y los estados se establecen según la cantidad de vecinos dentro de cada uno de los radios divididos en los cuatro cuadrantes locales del robot. Para cada solución propuesta se definen las acciones del robot y se propone una política de premios y castigos. Cada robot se conecta con sus vecinos una vez que ha alcanzado una distancia prudente. Se hace uso de teoría de grafos para medir la conectividad del enjambre y saber si la topología del grafo que forma el enjambre al final de la simulación es conexo o no. En este trabajo se asume que la comunicación de cada agente con sus vecinos ya está resuelta. Se realizan varias pruebas en Matlab para cada una de las soluciones propuestas variando el número de robots del enjambre. Finalmente se prueba la segunda solución propuesta en V-rep usando robots cuadricópteros virtuales. Este documento está estructurado de la siguiente forma: En el capítulo 1 y 2 se define el problema y la justificación. El capítulo 3 y 4 contienen una revisión de trabajos relacionados con robótica de enjambre y se definen los objetivos del proyecto. En el capítulo 5 se presentan los conceptos teóricos necesarios utilizados en el desarrollo de este proyecto. En el capítulo 6 y 7 se muestra el diseño metodológico, la administración del proyecto, cronograma de actividades y presupuesto para el proyecto. En el capítulo 8 se muestra el trabajo previo a la realización de este proyecto usando lógica difusa. En el capítulo 9 y 10 se muestra el diseño del proyecto, el planteamiento de las soluciones propuestas, - las pruebas y resultados de las dos soluciones. Finalmente, las conclusiones se muestran en el capítulo 11. |
publishDate |
2019 |
dc.date.accessioned.spa.fl_str_mv |
2019-02-01T14:13:46Z |
dc.date.available.spa.fl_str_mv |
2019-02-01T14:13:46Z |
dc.date.issued.spa.fl_str_mv |
2019-01-31 |
dc.type.local.spa.fl_str_mv |
Trabajo de grado |
dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
dc.type.category.spa.fl_str_mv |
Formación de Recurso Humano para la Ctel: Trabajo de grado de pregrado |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.drive.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.citation.spa.fl_str_mv |
Quesada Moncayo, W. O. (2019). Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo. |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/11634/15223 |
dc.identifier.reponame.spa.fl_str_mv |
reponame:Repositorio Institucional Universidad Santo Tomás |
dc.identifier.instname.spa.fl_str_mv |
instname:Universidad Santo Tomás |
dc.identifier.repourl.spa.fl_str_mv |
repourl:https://repository.usta.edu.co |
identifier_str_mv |
Quesada Moncayo, W. O. (2019). Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo. reponame:Repositorio Institucional Universidad Santo Tomás instname:Universidad Santo Tomás repourl:https://repository.usta.edu.co |
url |
http://hdl.handle.net/11634/15223 |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.references.spa.fl_str_mv |
[1] Centre for research on the epidemiology of disasters CRED, “The human cost of natural disasters: A global perspective”, 2015. [2] Yoon, H., Shiftehfar, R., Cho, S., Spencer, B. F., Nelson, M. E., & Agha, G. A. (2016). “Victim Localization and Assessment System for Emergency Responders”. Journal of Computing in Civil Engineering, 30(2), [04015011]. [3] Rodrıguez, Saith, Eyberth Rojas, Katherın Pérez, Carlos Quintero, Oswaldo Pena, Andrés Reyes, and Juan Calderón. "STOx’s 2013 Team Description Paper." (2013). [4] Quintero, Carlos, Saith Rodríguez, Katherín Pérez, Jorge López, Eyberth Rojas, and Juan Calderón. "Learning soccer drills for the small size league of robocup." In Robot Soccer World Cup, pp. 395-406. Springer, Cham, 2014. [5] Rodríguez, Saith, Eyberth Rojas, Katherín Pérez, Jorge López, Carlos Quintero, and Juan Calderón. "Fast path planning algorithm for the robocup small size league." In Robot Soccer World Cup, pp. 407-418. Springer, Cham, 2014. [6] Rodrıguez, Saith, Eyberth Rojas, Katherın Pérez, Jorge López, Carlos Quintero, Juan Manuel Calderón, and Oswaldo Pena. "STOx’s 2015 Extended Team Description Paper." Joao Pessoa, Brazil (2014). [7] Cardona, Gustavo A., Wilfrido Moreno, Alfredo Weitzenfeld, and Juan M. Calderon. "Reduction of impact force in falling robots using variable stiffness." In SoutheastCon, 2016, pp. 1-6. IEEE, 2016. [8] Elibol, Ercan, Juan Calderon, Martin Llofriu, Carlos Quintero, Wilfrido Moreno, and Alfredo Weitzenfeld. "Power usage reduction of humanoid standing process using q-learning." In Robot Soccer World Cup, pp. 251-263. Springer, Cham, 2015. [9] Calderón, Juan M., Wilfrido Moreno, and Alfredo Weitzenfeld. "Fuzzy variable stiffness in landing phase for jumping robot." In Innovations in bio-inspired computing and applications, pp. 511-522. Springer, Cham, 2016. [10] Elibol, Ercan, Juan Calderon, Martin Llofriu, Wilfrido Moreno, and Alfredo Weitzenfeld. "Analyzing and Reducing Energy Usage in a Humanoid Robot During Standing Up and Sitting Down Tasks." International Journal of Humanoid Robotics 13, no. 04 (2016): 1650014. [11] Calderon, Juan, Gustavo A. Cardona, Martin Llofriu, Muhaimen Shamsi, Fallon Williams, Wilfrido Moreno, and Alfredo Weitzenfeld. "Impact Force Reduction Using Variable Stiffness with an Optimal Approach for Falling Robots." In Robot World Cup, pp. 404-415. Springer, Cham, 2016. [12] Calderon, Juan M., Eyberth R. Rojas, Saith Rodriguez, Heyson R. Baez, and Jorge A. Lopez. "A Robot soccer team as a strategy to develop educational iniciatives." In Latin American and Caribbean Conference for Engineering and Technology, Panama City, Panama. 2012. [13] Baez, Heyson, Katherin Perez, Eyberth Rojas, Saith Rodriguez, Jorge Lopez, Carlos Quintero, and Juan Manuel Calderon. "Application of an educational strategy based on a soccer robotic platform." In Advanced Robotics (ICAR), 2013 16th International Conference on, pp. 1-6. IEEE, 2013. [14] M.J. Mataric, “Reinforcement Learning in the Multi-Robot Domain”, Autonomous Robots 4, 73–83 (1997) [15] A Roadmap for US Robotics: From Internet to Robotics. 2016 Edition. Disponible en internet. URL: http://jacobsschool.ucsd.edu/contextualrobotics/docs/rm3-final-rs.pdf [16] Y. Zennir, “Apprentissage par renforcement et système distribués: application a l'apprentissage de la marche d'un robot hexapode”, Ph.D Thesis, Institut National Des Sciences Appliquées De Lyon, 2004. Disponible en internet. URL: http://theses.insa-lyon.fr/publication/2004ISAL0034/these.pdf [17] J. León, “Simulación De Enjambres De Robots En Labores De Exploración Para Detección De Posibles Víctimas”, Tesis de maestría en ingeniería electrónica, Universidad Santo Tomás Bogotá DC, 2017. [18] M. Brambilla, E. Ferrante, M. Birattari, and M. Dorigo, “Swarm robotics: a review from the swarm engineering perspective”, Swarm Intelligence, vol. 7, no. 1, pp. 1–41, 2013. [19] León, Jose, Gustavo A. Cardona, Andres Botello, and Juan M. Calderón. "Robot swarms theory applicable to seek and rescue operation." In International Conference on Intelligent Systems Design and Applications, pp. 1061-1070. Springer, Cham, 2016. [20] León, José, Gustavo A. Cardona, Luis G. Jaimes, Juan M. Calderón, and Pablo Ospina Rodriguez. "Rendezvous Consensus Algorithm Applied to the Location of Possible Victims in Disaster Zones." In International Conference on Artificial Intelligence and Soft Computing, pp. 700-710. Springer, Cham, 2018. [21] Yanguas-Rojas, David, Gustavo A. Cardona, Juan Ramirez-Rugeles, and Eduardo Mojica-Nava. "Victims search, identification, and evacuation with heterogeneous robot networks for search and rescue." In Automatic Control (CCAC), 2017 IEEE 3rd Colombian Conference on, pp. 1-6. IEEE, 2017. [22] S. Zhiguo, T. Jun, Z. Qiao, Z. Xiaomeng, W. Junming, "The Improved Q-Learning Algorithm based on Pheromone Mechanism for Swarm Robot System", IEEE 32nd Chinese Control Conference (CCC), pp. 6033-6038, 2013. [23] A. Šošić, A.M. Zoubir, H. Koeppl, “Reinforcement learning in a continuum of agents”, Swarm Intelligence, Vol. 12. no. 1, pp 23–51, 2018. [24] W.O. Quesada, J.I. Rodríguez, J.C. Murillo, G.A. Cardona, D.Y. Rojas, L.G. Jaimes, J.M. Calderón, “Leader-Follower Formation for UAV Robot Swarm Based on Fuzzy Logic Theory”, Artificial Intelligence and Soft Computing. ICAISC 2018. Lecture Notes in Computer Science, vol 10842. Springer, Cham [25] P.J. Denning, “Computer Science: The Discipline”, 1999. Disponible en internet. URL: http://denninginstitute.com/pjd/PUBS/ENC/cs99.pdf [26] F.S. Caparrini, “Introducción al aprendizaje automático”, Articulo, Dpto. de Ciencias de la Computación e Inteligencia Artificial, Universidad de Sevilla. Tomado de medio virtual en Mayo del 2018 desde http://www.cs.us.es/~fsancho/?e=75 [27] R.S. Sutton, A.G. Barto, “Reinforcement Learning: An Introduction”, Near-final draft, May 27, 2018. Disponible en internet. URL: http://incompleteideas.net/book/the-book-2nd.html [28] DL4J, A Beginner’s Guide to Deep Reinforcement Learning, Tomado de medio virtual en Mayo del 2018 desde: https://deeplearning4j.org/deepreinforcementlearning [29] Analytics Vidhya, Simple Beginner’s guide to Reinforcement Learning & its implementation, Tomado de medio virtual en Mayo del 2018 desde: https://www.analyticsvidhya.com/blog/2017/01/introduction-to-reinforcement-learning-implementation/ [30] Intel AI, Guest Post (Part I): Demystifying Deep Reinforcement Learning, Tomado de medio virtual en Mayo del 2018 desde: https://ai.intel.com/demystifying-deep-reinforcement-learning/ [31] G. Beni, “From Swarm Intelligence to Swarm Robotics”, International Workshop on Swarm Robotics, SR 2004: Swarm Robotics pp 1-9. [32] F.L. Lewis, “Cooperative Control of Multi-Agent Systems - Optimal and Adaptive Design Approaches”, Communications and Control Engineering. [33] https://link.springer.com/chapter/10.1007/978-3-319-91262-2_65 [34] https://www.scimagojr.com/journalsearch.php?q=25674&tip=sid&clean=0 |
dc.rights.*.fl_str_mv |
Atribución-NoComercial-SinDerivadas 2.5 Colombia |
dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/2.5/co/ |
dc.rights.local.spa.fl_str_mv |
Abierto (Texto Completo) |
dc.rights.accessrights.none.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.none.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
Atribución-NoComercial-SinDerivadas 2.5 Colombia http://creativecommons.org/licenses/by-nc-nd/2.5/co/ Abierto (Texto Completo) http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.mimetype.spa.fl_str_mv |
application/pdf |
dc.coverage.campus.spa.fl_str_mv |
CRAI-USTA Bogotá |
dc.publisher.spa.fl_str_mv |
Universidad Santo Tomás |
dc.publisher.program.spa.fl_str_mv |
Pregrado Ingeniería Electrónica |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ingeniería Electrónica |
institution |
Universidad Santo Tomás |
bitstream.url.fl_str_mv |
https://repository.usta.edu.co/bitstream/11634/15223/1/2018WilsonQuesada.pdf https://repository.usta.edu.co/bitstream/11634/15223/2/Carta%20Aprobaci%c3%b3n%20Facultad.pdf https://repository.usta.edu.co/bitstream/11634/15223/3/Carta%20Derechos%20de%20Autor.pdf https://repository.usta.edu.co/bitstream/11634/15223/4/license.txt https://repository.usta.edu.co/bitstream/11634/15223/5/2018WilsonQuesada.pdf.jpg https://repository.usta.edu.co/bitstream/11634/15223/6/Carta%20Aprobaci%c3%b3n%20Facultad.pdf.jpg https://repository.usta.edu.co/bitstream/11634/15223/7/Carta%20Derechos%20de%20Autor.pdf.jpg |
bitstream.checksum.fl_str_mv |
62ecf248178829d7dc1a0b60dbacf10b d33bf3c5297e9eaea7d5d0436adf91e5 f20d28b73250c6ca44b3a6032c6088f3 f6b8c5608fa6b2f649b2d63e10c5fa73 841682728b442b417bf94c1bef8ab85a f253d927a02dad826ddef1f3a4ee33d5 c537adfcef83bbeef34ce5d82ce79e8c |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Universidad Santo Tomás |
repository.mail.fl_str_mv |
repositorio@usantotomas.edu.co |
_version_ |
1782026238234198016 |
spelling |
Calderón Chávez, Juan ManuelQuesada Moncayo, Wilson Orlando2019-02-01T14:13:46Z2019-02-01T14:13:46Z2019-01-31Quesada Moncayo, W. O. (2019). Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo.http://hdl.handle.net/11634/15223reponame:Repositorio Institucional Universidad Santo Tomásinstname:Universidad Santo Tomásrepourl:https://repository.usta.edu.coEn este trabajo se hace uso de técnicas de aprendizaje por refuerzo (Q-Learning) con el objetivo de entrenar un grupo de robots para generar comportamientos de enjambre. Se presentan dos posibles soluciones con diferentes enfoques. En la primera solución propuesta se establecen los estados del robot en función de la distancia de sus dos vecinos más cercanos. En la segunda solución propuesta se definen un radio de atracción y otro radio de repulsión, y los estados se establecen según la cantidad de vecinos dentro de cada uno de los radios divididos en los cuatro cuadrantes locales del robot. Para cada solución propuesta se definen las acciones del robot y se propone una política de premios y castigos. Cada robot se conecta con sus vecinos una vez que ha alcanzado una distancia prudente. Se hace uso de teoría de grafos para medir la conectividad del enjambre y saber si la topología del grafo que forma el enjambre al final de la simulación es conexo o no. En este trabajo se asume que la comunicación de cada agente con sus vecinos ya está resuelta. Se realizan varias pruebas en Matlab para cada una de las soluciones propuestas variando el número de robots del enjambre. Finalmente se prueba la segunda solución propuesta en V-rep usando robots cuadricópteros virtuales. Este documento está estructurado de la siguiente forma: En el capítulo 1 y 2 se define el problema y la justificación. El capítulo 3 y 4 contienen una revisión de trabajos relacionados con robótica de enjambre y se definen los objetivos del proyecto. En el capítulo 5 se presentan los conceptos teóricos necesarios utilizados en el desarrollo de este proyecto. En el capítulo 6 y 7 se muestra el diseño metodológico, la administración del proyecto, cronograma de actividades y presupuesto para el proyecto. En el capítulo 8 se muestra el trabajo previo a la realización de este proyecto usando lógica difusa. En el capítulo 9 y 10 se muestra el diseño del proyecto, el planteamiento de las soluciones propuestas, - las pruebas y resultados de las dos soluciones. Finalmente, las conclusiones se muestran en el capítulo 11.In this work we make use of reinforcement learning techniques (Q-Learning) with the aim of training a group of robots to generate swarming behaviors. Two possible solutions with different approaches are presented. In the first proposed solution, the states of the robot are established according to the distance of its two closest neighbors. In the second proposed solution, a radius of attraction and another radius of repulsion are defined, and the states are established according to the number of neighbors within each of the radii divided into the four local quadrants of the robot. For each proposed solution the actions of the robot are defined and a policy of rewards and punishments is proposed. Each robot connects with its neighbors once it has reached a prudent distance. It makes use of graph theory to measure the connectivity of the swarm and to know if the topology of the graph that forms the swarm at the end of the simulation is connected or not. In this paper it is assumed that the communication of each agent with their neighbors is already resolved. Several tests are carried out in Matlab for each of the proposed solutions, varying the number of robots in the swarm. Finally, the second solution proposed in V-rep is tested using virtual quadrocopters. This document is structured as follows: Chapter 1 and 2 define the problem and the justification. Chapters 3 and 4 contain a review of work related to swarm robotics and define the objectives of the project. Chapter 5 presents the theoretical concepts needed in the development of this project. In chapter 6 and 7 the methodological design, project management, activity schedule and budget for the project are shown. Chapter 8 shows the work prior to the realization of this project using fuzzy logic. Chapter 9 and 10 show the design of the project, the approach of the proposed solutions, - the tests and results of the two solutions. Finally, the conclusions are shown in chapter 11.Ingeniero ElectronicoPregradoapplication/pdfspaUniversidad Santo TomásPregrado Ingeniería ElectrónicaFacultad de Ingeniería ElectrónicaAtribución-NoComercial-SinDerivadas 2.5 Colombiahttp://creativecommons.org/licenses/by-nc-nd/2.5/co/Abierto (Texto Completo)info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Generación de comportamientos de enjambre en robots móviles a través del uso del aprendizaje por refuerzo.Machine learningMulti-agent systemsQ–LearningReinforcement learningSwarm intelligenceSwarm roboticsInteligencia artificialInteligencia de enjambreRobóticaAprendizaje automáticoAprendizaje por refuerzoInteligencia de enjambreQ–LearningRobótica de enjambreSistemas multiagenteTrabajo de gradoinfo:eu-repo/semantics/acceptedVersionFormación de Recurso Humano para la Ctel: Trabajo de grado de pregradohttp://purl.org/coar/resource_type/c_7a1finfo:eu-repo/semantics/bachelorThesisCRAI-USTA Bogotá[1] Centre for research on the epidemiology of disasters CRED, “The human cost of natural disasters: A global perspective”, 2015.[2] Yoon, H., Shiftehfar, R., Cho, S., Spencer, B. F., Nelson, M. E., & Agha, G. A. (2016). “Victim Localization and Assessment System for Emergency Responders”. Journal of Computing in Civil Engineering, 30(2), [04015011].[3] Rodrıguez, Saith, Eyberth Rojas, Katherın Pérez, Carlos Quintero, Oswaldo Pena, Andrés Reyes, and Juan Calderón. "STOx’s 2013 Team Description Paper." (2013).[4] Quintero, Carlos, Saith Rodríguez, Katherín Pérez, Jorge López, Eyberth Rojas, and Juan Calderón. "Learning soccer drills for the small size league of robocup." In Robot Soccer World Cup, pp. 395-406. Springer, Cham, 2014.[5] Rodríguez, Saith, Eyberth Rojas, Katherín Pérez, Jorge López, Carlos Quintero, and Juan Calderón. "Fast path planning algorithm for the robocup small size league." In Robot Soccer World Cup, pp. 407-418. Springer, Cham, 2014.[6] Rodrıguez, Saith, Eyberth Rojas, Katherın Pérez, Jorge López, Carlos Quintero, Juan Manuel Calderón, and Oswaldo Pena. "STOx’s 2015 Extended Team Description Paper." Joao Pessoa, Brazil (2014).[7] Cardona, Gustavo A., Wilfrido Moreno, Alfredo Weitzenfeld, and Juan M. Calderon. "Reduction of impact force in falling robots using variable stiffness." In SoutheastCon, 2016, pp. 1-6. IEEE, 2016.[8] Elibol, Ercan, Juan Calderon, Martin Llofriu, Carlos Quintero, Wilfrido Moreno, and Alfredo Weitzenfeld. "Power usage reduction of humanoid standing process using q-learning." In Robot Soccer World Cup, pp. 251-263. Springer, Cham, 2015.[9] Calderón, Juan M., Wilfrido Moreno, and Alfredo Weitzenfeld. "Fuzzy variable stiffness in landing phase for jumping robot." In Innovations in bio-inspired computing and applications, pp. 511-522. Springer, Cham, 2016.[10] Elibol, Ercan, Juan Calderon, Martin Llofriu, Wilfrido Moreno, and Alfredo Weitzenfeld. "Analyzing and Reducing Energy Usage in a Humanoid Robot During Standing Up and Sitting Down Tasks." International Journal of Humanoid Robotics 13, no. 04 (2016): 1650014.[11] Calderon, Juan, Gustavo A. Cardona, Martin Llofriu, Muhaimen Shamsi, Fallon Williams, Wilfrido Moreno, and Alfredo Weitzenfeld. "Impact Force Reduction Using Variable Stiffness with an Optimal Approach for Falling Robots." In Robot World Cup, pp. 404-415. Springer, Cham, 2016.[12] Calderon, Juan M., Eyberth R. Rojas, Saith Rodriguez, Heyson R. Baez, and Jorge A. Lopez. "A Robot soccer team as a strategy to develop educational iniciatives." In Latin American and Caribbean Conference for Engineering and Technology, Panama City, Panama. 2012.[13] Baez, Heyson, Katherin Perez, Eyberth Rojas, Saith Rodriguez, Jorge Lopez, Carlos Quintero, and Juan Manuel Calderon. "Application of an educational strategy based on a soccer robotic platform." In Advanced Robotics (ICAR), 2013 16th International Conference on, pp. 1-6. IEEE, 2013.[14] M.J. Mataric, “Reinforcement Learning in the Multi-Robot Domain”, Autonomous Robots 4, 73–83 (1997)[15] A Roadmap for US Robotics: From Internet to Robotics. 2016 Edition. Disponible en internet. URL: http://jacobsschool.ucsd.edu/contextualrobotics/docs/rm3-final-rs.pdf[16] Y. Zennir, “Apprentissage par renforcement et système distribués: application a l'apprentissage de la marche d'un robot hexapode”, Ph.D Thesis, Institut National Des Sciences Appliquées De Lyon, 2004. Disponible en internet. URL: http://theses.insa-lyon.fr/publication/2004ISAL0034/these.pdf[17] J. León, “Simulación De Enjambres De Robots En Labores De Exploración Para Detección De Posibles Víctimas”, Tesis de maestría en ingeniería electrónica, Universidad Santo Tomás Bogotá DC, 2017.[18] M. Brambilla, E. Ferrante, M. Birattari, and M. Dorigo, “Swarm robotics: a review from the swarm engineering perspective”, Swarm Intelligence, vol. 7, no. 1, pp. 1–41, 2013.[19] León, Jose, Gustavo A. Cardona, Andres Botello, and Juan M. Calderón. "Robot swarms theory applicable to seek and rescue operation." In International Conference on Intelligent Systems Design and Applications, pp. 1061-1070. Springer, Cham, 2016.[20] León, José, Gustavo A. Cardona, Luis G. Jaimes, Juan M. Calderón, and Pablo Ospina Rodriguez. "Rendezvous Consensus Algorithm Applied to the Location of Possible Victims in Disaster Zones." In International Conference on Artificial Intelligence and Soft Computing, pp. 700-710. Springer, Cham, 2018.[21] Yanguas-Rojas, David, Gustavo A. Cardona, Juan Ramirez-Rugeles, and Eduardo Mojica-Nava. "Victims search, identification, and evacuation with heterogeneous robot networks for search and rescue." In Automatic Control (CCAC), 2017 IEEE 3rd Colombian Conference on, pp. 1-6. IEEE, 2017.[22] S. Zhiguo, T. Jun, Z. Qiao, Z. Xiaomeng, W. Junming, "The Improved Q-Learning Algorithm based on Pheromone Mechanism for Swarm Robot System", IEEE 32nd Chinese Control Conference (CCC), pp. 6033-6038, 2013.[23] A. Šošić, A.M. Zoubir, H. Koeppl, “Reinforcement learning in a continuum of agents”, Swarm Intelligence, Vol. 12. no. 1, pp 23–51, 2018.[24] W.O. Quesada, J.I. Rodríguez, J.C. Murillo, G.A. Cardona, D.Y. Rojas, L.G. Jaimes, J.M. Calderón, “Leader-Follower Formation for UAV Robot Swarm Based on Fuzzy Logic Theory”, Artificial Intelligence and Soft Computing. ICAISC 2018. Lecture Notes in Computer Science, vol 10842. Springer, Cham[25] P.J. Denning, “Computer Science: The Discipline”, 1999. Disponible en internet. URL: http://denninginstitute.com/pjd/PUBS/ENC/cs99.pdf[26] F.S. Caparrini, “Introducción al aprendizaje automático”, Articulo, Dpto. de Ciencias de la Computación e Inteligencia Artificial, Universidad de Sevilla. Tomado de medio virtual en Mayo del 2018 desde http://www.cs.us.es/~fsancho/?e=75[27] R.S. Sutton, A.G. Barto, “Reinforcement Learning: An Introduction”, Near-final draft, May 27, 2018. Disponible en internet. URL: http://incompleteideas.net/book/the-book-2nd.html[28] DL4J, A Beginner’s Guide to Deep Reinforcement Learning, Tomado de medio virtual en Mayo del 2018 desde: https://deeplearning4j.org/deepreinforcementlearning[29] Analytics Vidhya, Simple Beginner’s guide to Reinforcement Learning & its implementation, Tomado de medio virtual en Mayo del 2018 desde: https://www.analyticsvidhya.com/blog/2017/01/introduction-to-reinforcement-learning-implementation/[30] Intel AI, Guest Post (Part I): Demystifying Deep Reinforcement Learning, Tomado de medio virtual en Mayo del 2018 desde: https://ai.intel.com/demystifying-deep-reinforcement-learning/[31] G. Beni, “From Swarm Intelligence to Swarm Robotics”, International Workshop on Swarm Robotics, SR 2004: Swarm Robotics pp 1-9.[32] F.L. Lewis, “Cooperative Control of Multi-Agent Systems - Optimal and Adaptive Design Approaches”, Communications and Control Engineering.[33] https://link.springer.com/chapter/10.1007/978-3-319-91262-2_65[34] https://www.scimagojr.com/journalsearch.php?q=25674&tip=sid&clean=0ORIGINAL2018WilsonQuesada.pdf2018WilsonQuesada.pdfDocumento Proyecto de Gradoapplication/pdf1950506https://repository.usta.edu.co/bitstream/11634/15223/1/2018WilsonQuesada.pdf62ecf248178829d7dc1a0b60dbacf10bMD51open accessCarta Aprobación Facultad.pdfCarta Aprobación Facultad.pdfapplication/pdf226475https://repository.usta.edu.co/bitstream/11634/15223/2/Carta%20Aprobaci%c3%b3n%20Facultad.pdfd33bf3c5297e9eaea7d5d0436adf91e5MD52metadata only accessCarta Derechos de Autor.pdfCarta Derechos de Autor.pdfapplication/pdf285513https://repository.usta.edu.co/bitstream/11634/15223/3/Carta%20Derechos%20de%20Autor.pdff20d28b73250c6ca44b3a6032c6088f3MD53metadata only accessLICENSElicense.txtlicense.txttext/plain; charset=utf-8807https://repository.usta.edu.co/bitstream/11634/15223/4/license.txtf6b8c5608fa6b2f649b2d63e10c5fa73MD54open accessTHUMBNAIL2018WilsonQuesada.pdf.jpg2018WilsonQuesada.pdf.jpgIM Thumbnailimage/jpeg4086https://repository.usta.edu.co/bitstream/11634/15223/5/2018WilsonQuesada.pdf.jpg841682728b442b417bf94c1bef8ab85aMD55open accessCarta Aprobación Facultad.pdf.jpgCarta Aprobación Facultad.pdf.jpgIM Thumbnailimage/jpeg6882https://repository.usta.edu.co/bitstream/11634/15223/6/Carta%20Aprobaci%c3%b3n%20Facultad.pdf.jpgf253d927a02dad826ddef1f3a4ee33d5MD56open accessCarta Derechos de Autor.pdf.jpgCarta Derechos de Autor.pdf.jpgIM Thumbnailimage/jpeg7396https://repository.usta.edu.co/bitstream/11634/15223/7/Carta%20Derechos%20de%20Autor.pdf.jpgc537adfcef83bbeef34ce5d82ce79e8cMD57open access11634/15223oai:repository.usta.edu.co:11634/152232022-10-10 14:54:11.706open accessRepositorio Universidad Santo Tomásrepositorio@usantotomas.edu.coQXV0b3Jpem8gYWwgQ2VudHJvIGRlIFJlY3Vyc29zIHBhcmEgZWwgQXByZW5kaXphamUgeSBsYSBJbnZlc3RpZ2FjacOzbiwgQ1JBSS1VU1RBIGRlIGxhIFVuaXZlcnNpZGFkIFNhbnRvIFRvbcOhcywgcGFyYSBxdWUgY29uIGZpbmVzIGFjYWTDqW1pY29zIGFsbWFjZW5lIGxhIGluZm9ybWFjacOzbiBpbmdyZXNhZGEgcHJldmlhbWVudGUuCgpTZSBwZXJtaXRlIGxhIGNvbnN1bHRhLCByZXByb2R1Y2Npw7NuIHBhcmNpYWwsIHRvdGFsIG8gY2FtYmlvIGRlIGZvcm1hdG8gY29uIGZpbmVzIGRlIGNvbnNlcnZhY2nDs24sIGEgbG9zIHVzdWFyaW9zIGludGVyZXNhZG9zIGVuIGVsIGNvbnRlbmlkbyBkZSBlc3RlIHRyYWJham8sIHBhcmEgdG9kb3MgbG9zIHVzb3MgcXVlIHRlbmdhbiBmaW5hbGlkYWQgYWNhZMOpbWljYSwgc2llbXByZSB5IGN1YW5kbyBtZWRpYW50ZSBsYSBjb3JyZXNwb25kaWVudGUgY2l0YSBiaWJsaW9ncsOhZmljYSBzZSBsZSBkw6kgY3LDqWRpdG8gYWwgdHJhYmFqbyBkZSBncmFkbyB5IGEgc3UgYXV0b3IuIERlIGNvbmZvcm1pZGFkIGNvbiBsbyBlc3RhYmxlY2lkbyBlbiBlbCBhcnTDrWN1bG8gMzAgZGUgbGEgTGV5IDIzIGRlIDE5ODIgeSBlbCBhcnTDrWN1bG8gMTEgZGUgbGEgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5Mywg4oCcTG9zIGRlcmVjaG9zIG1vcmFsZXMgc29icmUgZWwgdHJhYmFqbyBzb24gcHJvcGllZGFkIGRlIGxvcyBhdXRvcmVz4oCdLCBsb3MgY3VhbGVzIHNvbiBpcnJlbnVuY2lhYmxlcywgaW1wcmVzY3JpcHRpYmxlcywgaW5lbWJhcmdhYmxlcyBlIGluYWxpZW5hYmxlcy4K |