Desarrollo de un vehículo inteligente autónomo a escala utilizando técnicas de aprendizaje profundo para el servicio de transporte de objetos en entornos hospitalarios y reducción de la interacción humana entre el personal médico y los pacientes
Este proyecto consiste en el desarrollo de un vehículo inteligente autónomo de tracción diferencial con un chasís en aluminio de 60x45 cm de base y 65 cm de alto con la capacidad de transportar 10 kg y desplazarse de forma autónoma en base a un sistema personalizado tipo SLAM (Localización y Mapeo S...
- Autores:
-
González Pilonieta, Jhorman David
Díaz Bayona, Jorge Luis
Molina Lache, Richard Manuel
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2021
- Institución:
- Universidad Autónoma de Bucaramanga - UNAB
- Repositorio:
- Repositorio UNAB
- Idioma:
- spa
- OAI Identifier:
- oai:repository.unab.edu.co:20.500.12749/15764
- Acceso en línea:
- http://hdl.handle.net/20.500.12749/15764
- Palabra clave:
- Mechatronic
Innovation
Technological development
Research
Artificial intelligence
Transport of objects
Patient
Medical staff
Automatic control
Manipulators
Mecatrónica
Innovación
Desarrollo tecnológico
Investigación
Control automático
Manipuladores
Robots
Inteligencia artificial
Transporte de objetos
Paciente
Personal medico
- Rights
- License
- http://creativecommons.org/licenses/by-nc-nd/2.5/co/
Summary: | Este proyecto consiste en el desarrollo de un vehículo inteligente autónomo de tracción diferencial con un chasís en aluminio de 60x45 cm de base y 65 cm de alto con la capacidad de transportar 10 kg y desplazarse de forma autónoma en base a un sistema personalizado tipo SLAM (Localización y Mapeo Simultáneo) con una cámara RGB-D, un mapa tridimensional de puntos de la zona generado con la técnica SLAM, un algoritmo de navegación para el seguimiento de una ruta calculada con una adaptación del algoritmo A-star, un controlador de velocidad apoyado en codificadores incrementales, y un algoritmo de detección y evasión de obstáculos conformado por una red neuronal para detectar persona, camilla, silla, canasta, caja, puerta, escritorio, equipo médico y aviso de peligro, una función de estimación de posición del objeto basado en la información de profundidad y campo de visión de la cámara RGB-D, y una función de actualización del mapa para planificación de ruta con la demarcación de la zona de estimación del obstáculo detectado como zona no accesible. Todo se ejecuta en Python y C++ en una Jetson Nano con sistema operativo Ubuntu 18.04 a través de una aplicación de interfaz de usuario que permite darle instrucciones al AIV y monitorearlo desde una pantalla a bordo del robot o un PC conectado mediante Wi-Fi que puede usarse para tele consultas y reducir el contacto físico en un entorno hospitalario. |
---|