Reconocimiento de color y posición con un sensor Kinect para aplicación de robótica móvil

Se diseña un sistema de visión artificial para una aplicación de robótica móvil, logrando ensamblar y controlar un robot de prueba capaz de identificar y recoger objetos esféricos de color verde y naranja. En este proyecto se utiliza una tarjeta de desarrollo Raspberry Pi para procesar las imágenes...

Full description

Autores:
García Preciado, Paola Andrea
González Forero, Sergio Nicolás
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2016
Institución:
Pontificia Universidad Javeriana
Repositorio:
Repositorio Universidad Javeriana
Idioma:
spa
OAI Identifier:
oai:repository.javeriana.edu.co:10554/21442
Acceso en línea:
http://hdl.handle.net/10554/21442
Palabra clave:
Procesamiento de imágenes
Sistemas embebidos
Sistemas de visión robótica
Algoritmos de detección
Medición de distancias
Image processing
Embedded systems
Robotic vision systems
Detection algorithms
Distance measurement
Ingeniería electrónica - Tesis y disertaciones académicas
Robótica
Procesamiento de imágenes
Sistemas embebidos de computadores
Visión en robots
Rights
openAccess
License
Atribución-NoComercial-SinDerivadas 4.0 Internacional
Description
Summary:Se diseña un sistema de visión artificial para una aplicación de robótica móvil, logrando ensamblar y controlar un robot de prueba capaz de identificar y recoger objetos esféricos de color verde y naranja. En este proyecto se utiliza una tarjeta de desarrollo Raspberry Pi para procesar las imágenes y datos de profundidad adquiridos con un sensor Kinect, y se establece una comunicación serial para transmitir esta información a un microcontrolador ARM Cortex de VEX. En el desarrollo del sistema de visión artificial se compararon tres algoritmos de reconocimiento de bordes: el método de Canny, el método de Sobel y el método Laplaciano, también se compararon tres filtros de color, utilizando los espacios de color HSV, HSL y Lab, se concluyó que los mejores algoritmos con menor tiempo de ejecución para la aplicación robótica fueron el filtro de color en el espacio Lab y el método Laplaciano para el reconocimiento de bordes. El microcontrolador y el sensor Kinect se alimentaron con baterías de niquel e hidruro metálico (Ni-MH) con la respectiva regulación para el sensor Kinect, para alimentar la tarjeta de desarrollo Raspberry Pi, se utilizó una batería de iones de litio (LiPo), de este modo se pudieron transportar todos los componentes dentro del robot de prueba y se controló inalámbricamente mediante una antena VEXnet2.0, obteniendo un robot inalámbrico y autónomo capaz de identificar en un 88.3% de efectividad sus objetivos.