Implementación de un Enjambre de Drones Crazyflie 2.1 Coordinado Mediante Q-learning y ROS

La implementación de redes de cooperación con vehículos aéreos no tripulados, organizados mediante inteligencia artificial, tiene una aplicabilidad interesante y pertinente en la sociedad, ya que permite la solución de problemas de movilidad y organización en espacios extensos. El presente proyecto...

Full description

Autores:
González Alvarez, David Santiago
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2024
Institución:
Universidad Santo Tomás
Repositorio:
Repositorio Institucional USTA
Idioma:
spa
OAI Identifier:
oai:repository.usta.edu.co:11634/55837
Acceso en línea:
http://hdl.handle.net/11634/55837
Palabra clave:
Q-learning
Reinforcement learning
Particle Swarm Optimization
Drone swarm
Ingeniería Electrónica
Drones
Redes-Cooperación
Movilidad
Q-learning
Enjambre de drones
Aprendizaje por refuerzo
Optimización de enjambre de particulas
Rights
openAccess
License
CC0 1.0 Universal
Description
Summary:La implementación de redes de cooperación con vehículos aéreos no tripulados, organizados mediante inteligencia artificial, tiene una aplicabilidad interesante y pertinente en la sociedad, ya que permite la solución de problemas de movilidad y organización en espacios extensos. El presente proyecto genera una investigación teórica y aplicada, organizando una red de cooperación de drones en un escenario a pequeña escala, donde se puede implementar el dron Crazyflie 2.1 y su sistema de posicionamiento Lighthouse, para validar la pertinencia del uso de estos sistemas. Puntualmente se desarrolla un proceso de control por toma de decisiones, de cada partícula o agente que compone un enjambre de drones. El mismo se logra organizado en torno a un líder y los seguidores o compañeros. El algoritmo de aprendizaje aplicado es Q-learning, y se desarrolla todo el marco de ejecución en torno a que cada agente llegue al objetivo y evite chocar con sus compañeros. Se encuentra que el proceso de aprendizaje mediante Q-learning puede darse con una discretización del espacio de estados muy bajo en comparación al respectivo espacio de estados del proceso de aplicación, lo que se traduce en velocidad en el aprendizaje y precisión al actuar en la implementación del enjambre. Además de lo anteriormente expuesto se encuentra que el aprendizaje por fases permite un llenado acertado de la tabla de políticas Q que usa el agente para la toma de decisiones, junto con la correcta definición de todos los posibles estados, 256 para un ambiente sobre dos ejes de posición.