Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial

La manipulación de dispositivos robóticos mediante gestos capturados por cámaras es una técnica prometedora dentro de la interacción hombre máquina. Este método de interacción presenta diversos desafíos técnicos que incluyen la precisión en la identificación de los gestos debido a la variabilidad an...

Full description

Autores:
Ramírez Silva, Miguel Ángel
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2024
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/15920
Acceso en línea:
https://hdl.handle.net/10614/15920
https://red.uao.edu.co/
Palabra clave:
Ingeniería mecatrónica
Inteligencia artificial
Reconocimiento de gestos de la mano
Manipulación robótica
Interacción Hombre-Máquina
Artificial intelligence
Hand gesture recognition
Robotic Manipulation
Human-machine interaction
Rights
openAccess
License
Derechos reservados - Universidad Autónoma de Occidente, 202
id REPOUAO2_3c8ab39d62b75211cd51ec9cf3b0958c
oai_identifier_str oai:red.uao.edu.co:10614/15920
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial
title Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial
spellingShingle Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial
Ingeniería mecatrónica
Inteligencia artificial
Reconocimiento de gestos de la mano
Manipulación robótica
Interacción Hombre-Máquina
Artificial intelligence
Hand gesture recognition
Robotic Manipulation
Human-machine interaction
title_short Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial
title_full Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial
title_fullStr Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial
title_full_unstemmed Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial
title_sort Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial
dc.creator.fl_str_mv Ramírez Silva, Miguel Ángel
dc.contributor.advisor.none.fl_str_mv López Sotelo, Jesús Alfonso
dc.contributor.author.none.fl_str_mv Ramírez Silva, Miguel Ángel
dc.contributor.corporatename.spa.fl_str_mv Universidad Autónoma de Occidente
dc.contributor.jury.none.fl_str_mv Castillo, Javier Ferney
dc.subject.proposal.spa.fl_str_mv Ingeniería mecatrónica
Inteligencia artificial
Reconocimiento de gestos de la mano
Manipulación robótica
Interacción Hombre-Máquina
topic Ingeniería mecatrónica
Inteligencia artificial
Reconocimiento de gestos de la mano
Manipulación robótica
Interacción Hombre-Máquina
Artificial intelligence
Hand gesture recognition
Robotic Manipulation
Human-machine interaction
dc.subject.proposal.eng.fl_str_mv Artificial intelligence
Hand gesture recognition
Robotic Manipulation
Human-machine interaction
description La manipulación de dispositivos robóticos mediante gestos capturados por cámaras es una técnica prometedora dentro de la interacción hombre máquina. Este método de interacción presenta diversos desafíos técnicos que incluyen la precisión en la identificación de los gestos debido a la variabilidad anatómica de las manos y las condiciones ambientales y de luz que afectan la calidad de la detección. Este proyecto busca desarrollar un sistema de manipulación de un brazo robótico utilizando inteligencia artificial que permita una interpretación correcta de los gestos que no se vea limitada a las condiciones de luz, ambigüedad anatómica. El desarrollo del proyecto se llevó a cabo por medio de cuatro etapas. La primera consiste en el desarrollo de un dataset de entrenamiento para los modelos de inteligencia artificial, para lo cual se tomó una muestra de un dataset existente y se construyó uno nuevo que cumpliera las necesidades del proyecto. Seguidamente se procede a la selección de algoritmos de inteligencia artificial y su respectivo entrenamiento enfocado en la detección de gestos de la mano en tiempo real usando estimación de pose. Este algoritmo se probó en condiciones de luz variables y a diferentes distancias de detección para lograr una validación del funcionamiento. Una vez entrenado el modelo de reconocimiento se procede a la creación de rutinas específicas de pick and place usando CoppeliaSim y el robot Niryo One. Las rutinas son basadas en la recolección de cinco tipos diferentes de objetos distribuidos en un entorno controlado que simula la categorización de objetos de forma manual usando un robot de seis grados de libertad. Finalmente, tras la implementación de las rutinas se realizó una integración de los subsistemas de inteligencia artificial y robótica para el ajuste la interacción del modelo con el reconocimiento de gestos y la ejecución de tareas para poder finalizar haciendo pruebas de funcionamiento y validación donde se encontró que el sistema es confiable para su uso en tiempo real y muestra un buen desempeño en la identificación de los gestos de control como en la ejecución de las rutinas teniendo pocos fallos en múltiples repeticiones.
publishDate 2024
dc.date.accessioned.none.fl_str_mv 2024-11-25T15:18:14Z
dc.date.available.none.fl_str_mv 2024-11-25T15:18:14Z
dc.date.issued.none.fl_str_mv 2024-11-05
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
dc.type.coar.eng.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.eng.fl_str_mv Text
dc.type.driver.eng.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.eng.fl_str_mv http://purl.org/redcol/resource_type/TP
dc.type.version.eng.fl_str_mv info:eu-repo/semantics/publishedVersion
format http://purl.org/coar/resource_type/c_7a1f
status_str publishedVersion
dc.identifier.citation.spa.fl_str_mv Ramírez Silva, M. A. (2024). Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/10614/15920
dc.identifier.instname.spa.fl_str_mv Universidad Autónoma de Occidente
dc.identifier.reponame.spa.fl_str_mv Respositorio Educativo Digital UAO
dc.identifier.repourl.none.fl_str_mv https://red.uao.edu.co/
identifier_str_mv Ramírez Silva, M. A. (2024). Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia
Universidad Autónoma de Occidente
Respositorio Educativo Digital UAO
url https://hdl.handle.net/10614/15920
https://red.uao.edu.co/
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.none.fl_str_mv [1] Real Academia Española, «“Diccionario de la lengua española” - Edición del Tricentenario».
[2] L. Cortés-Rico y G. Piedrahita-Solórzano, "Interacciones basadas en gestos: revisión crítica," Tecnológicas, vol. 22, pp. 119–132, 2019. doi: https://doi.org/10.22430/22565337.1512.
[3] D. A. Norman, "Natural user interfaces are not natural," Interactions, vol. 17, no. 3, pp. 6-10, May 2010. doi: https://doi.org/10.1145/1744161.1744163.
[4] M. Matilainen, P. Sangi, J. Holappa, y O. Silvén, "OUHANDS database for hand detection and pose recognition," en 2016 Sixth International Conference on Image Processing Theory, Tools and Applications (IPTA), Oulu, 2016, pp. 1-5. doi: 10.1109/IPTA.2016.7821025.
[5] T. Grzejszczak, M. Kawulok, y A. Galuszka, "Hand landmarks detection and localization in color images," Multimed. Tools Appl., vol. 75, pp. 16363–16387, 2016. doi: https://doi.org/10.1007/s11042-015-2934-5.
[6] P. Ponsa, C. Urbina, C. Manresa-Yee, y R. Vilanova, "Estudio de Usabilidad de una Interfaz Gestual Basada en Visión," Revista FAZ, vol. 8, pp. 99-119, 2015. Disponible: http://www.revistafaz.org/n8/6-interfazgestual.pdf.
[7] M. Oudah, A. Al-Naji, y J.S. Chahl, "Hand Gesture Recognition Based on Computer Vision: A Review of Techniques," J. Imaging, vol. 6, 2020.
[8] A. Agrawal, N. Jadhav, A. Gaur, S. Jeswani, y A. Kshirsagar, "Improving the Accuracy of Object Detection in Low Light Conditions using Multiple Retinex Theory-based Image Enhancement Algorithms," in 2022 Second International Conference on Advances en Electrical, Computing, Communication and Sustainable Technologies (ICAECT), Bhilai, India, 2022, pp. 1-5. doi: 10.1109/ICAECT54875.2022.9808011.
[9] S. Panesar, Y. Cagle, D. Chander, J. Morey, J. Fernandez-Miranda, y M. Kliot, "Artificial intelligence and the future of surgical robotics," Ann. Surg., pp. 223-226, 2019.
[10] R. Belk, "Ethical issues in service robotics and artificial intelligence," Serv. Ind. J., vol. 41, pp. 860-876, 2021.
[11] OpenWebinars, "Datasets: Qué son y cómo acceder a ellos," OpenWebinars. Accedido: Sep. 5, 2024. [En línea ]. Disponible: https://openwebinars.net/blog/datasets-que-son-y-como-acceder-a-ellos/.
[12] Viso.AI, "Human Pose Estimation with Deep Learning – Ultimate Overview en 2024," Viso.AI. Accedido: Sep. 5, 2024. [En línea]. Disponible: https://viso.ai/deep-learning/pose-estimation-ultimate-overview/.
[13] Viso.AI, "Real-time full body pose estimation in construction – built with Viso Suite," Viso.AI. Accedido: Sep. 5, 2024. [En línea]. Disponible: https://viso.ai/deep-learning/pose-estimation-ultimate-overview/.
[14] O. Chernytska, "Gentle introduction to 2D hand pose estimation approach explained," Towards Data Science. [En línea ]. Disponible: https://towardsdatascience.com/gentle-introduction-to-2d-hand-pose-estimation-approach-explained-4348d6d79b11.
[15] IBM, "Aprendizaje supervisado," IBM. Accedido: Sep. 5, 2024. [En línea]. Disponible: https://www.ibm.com/mx-es/topics/supervised-learning.
[16] Robotnik, "Guía completa de robots manipuladores: Ventajas y aplicaciones," Robotnik. Accedido: Sep. 5, 2024. [En línea ]. Disponible: https://robotnik.eu/es/guia-completa-de-robots-manipuladores-ventajas-y-aplicaciones/#:~:text=Los%20robots%20manipuladores%20son%20sistemas.
[17] Kuka, "KR Cybertech," Kuka. Accedido: Sep. 5, 2024. [En línea ]. Disponible: https://www.kuka.com/es-mx/productos-servicios/sistemas-de-robot/robot-industrial/kr-cybertech.
[18] J. Tompson, M. Stein, Y. LeCun, and K. Perlin, "Real-time continuous pose recovery of human hands using convolutional networks," ACM Trans. Graph., vol. 33, 2014. doi: https://doi.org/10.1145/2601097.2601128.
[19] H. Guo, G. Wang, X. Chen, y C. Zhang, "Towards good practices for deep 3d hand pose estimation," arXiv preprint arXiv:1707.07248, 2017.
[20] Q. Chen, X. Sun, Y. Wei, X. Tang, y J. Sun, "3D Hand Shape and Pose Estimation from a Single RGB Image," en Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2014, pp. 1106-1113.
[21] G. García-Hernando, S. Yuan, S. Baek, y T.-K. Kim, "First-person hand action benchmark with RGB-D videos and 3D hand pose annotations," en Actas de la Conferencia de Visión por Computadora y Reconocimiento de Patrones (CVPR), 2018.
[22] G. Moon, S.-I. Yu, H. Wen, T. Shiratori, y K. M. Lee, "InterHand2.6M: A dataset and baseline for 3D interacting hand pose estimation from a single RGB image," 2020.
[23] A. Kapitanov, K. Kvanchiani, A. Nagaev, R. Kraynov, y A. Makhliarchuk, "HaGRID- HAnd Gesture Recognition Image Dataset," 2024. [En línea ]. Disponible: https://arxiv.org/abs/2206.08219.
[24] S. Jin, L. Xu, J. Xu, C. Wang, W. Liu, C. Qian, W. Ouyang, y P. Luo, "Whole-body human pose estimation in the wild," en Actas de la Conferencia Europea sobre Visión por Computadora (ECCV), 2020.
[25] Z. Cao, G. Hidalgo, T. Simon, S.-E. Wei, y Y. Sheikh, "OpenPose: Realtime multi-person 2D pose estimation using part affinity fields," 2018.
[26] Google, "MediaPipe Hand Landmarker," Google AI. Accedido: Sep. 6, 2024. [En línea ]. Disponible: https://ai.google.dev/edge/mediapipe/solutions/vision/hand_landmarker.
[27] V. Dibia, "Handtrack.js [Repositorio de GitHub]," GitHub. Accedido: Sep. 6, 2024. [En línea ]. Disponible: https://github.com/victordibia/handtrack.js?tab=readme-ov-file.
[28] V. Dibia, "Handtrack.js," [imagen]. Accedido: Sep. 6, 2024. [En línea ]. Disponible: https://victordibia.com/handtrack.js/#/.
[29] The MathWorks, Inc., Mastering Machine Learning: A Step-by-Step Guide with MATLAB. The MathWorks, Inc., 2019.
[30] IBM, "Cómo funciona el aprendizaje supervisado," IBM. Accedido: Sep. 6, 2024. [En línea ]. Disponible: https://www.ibm.com/es-es/topics/supervised-learning#:~:text=El%20aprendizaje%20supervisado%2C%20también%20conocido,predicen%20los%20resultados%20con%20precisión.
[31] J. A. López Sotelo, Deep Learning: Teoría y aplicaciones. Alpha Editorial. Alfaomega Colombiana S.A., ISBN 978-958-778-686-6.
[32] IBM, "Redes neuronales," IBM. Accedido: Sep. 6, 2024. [En línea ]. Disponible: https://www.ibm.com/es-es/topics/neural-networks.
[33] Amazon Web Services, "Arquitectura de una red neuronal profunda [Imagen]," AWS. Accedido: Sep. 7, 2024. [En línea ]. Disponible: https://aws.amazon.com/es/what-is/neural-network/.
[34] MathWorks, “Introducción a Support Vector Machine (SVM),” MathWorks, 2024. [Enlace: https://la.mathworks.com/discovery/support-vector-machine.html#:~:text=Support%20vector%20machine%20(SVM)%20es,reconocimiento%20de%20imgenes%20y%20voz.]
[35] T. Borgi et al., “Data analytics for predictive maintenance of industrial robots,” en *2017 International Conference on Advanced Systems and Electric Technologies (IC_ASET)*, 2017, pp. 412-417.
[36] IBM, “Algoritmo de k vecinos más cercanos,” IBM, 2024. [Enlace: https://www.ibm.com/es-es/topics/knn]
[37] scikit-learn, “Árboles de decisión,” 2024. [Enlace: https://scikit-learn.org/stable/modules/tree.html]
[38] IBM, “Random forest,” IBM, 2024. [Enlace: https://www.ibm.com/topics/random-forest#:~:text=Random%20forest%20is%20a%20commonly,Decision%20trees]
[39] F. Reyes, *Robótica: Control de robots manipuladores*, 1st ed. Alfaomega, 2011, p. 211.
[40] A. Barrientos, L. F. Peñín, C. Balaguer, y R. Aracil, *Fundamentos de robótica*, 2nd ed., McGraw-Hill/Interamericana, 2024, pp. 120-124.
[41] F. Reyes, *Robótica: Control de robots manipuladores*, 1st ed. Alfaomega, 2011, p. 213.
[42] A. Barrientos, L. F. Peñín, C. Balaguer, y R. Aracil, *Fundamentos de robótica*, 2nd ed., McGraw-Hill/Interamericana, 2024, pp. 120-124.
[43] Gazebo, “Acerca de Gazebo,” 2024. [Enlace: https://gazebosim.org/about]
[44] C. C. Cuevas Castañeda, “Ros-Gazebo: Una valiosa herramienta de vanguardia para el desarrollo de la robótica,” Escuela de Ciencias Básicas Tecnología e Ingeniería, Universidad Nacional Abierta y a Distancia, 2024.
[45] Gazebo, “Showcase,” 2024. [Enlace: https://gazebosim.org/showcase]
[46] Coppelia Robotics, “Coppelia Robotics,” 2024. [Enlace: https://www.coppeliarobotics.com]
[47] MathWorks, “CoppeliaSim,” 2024. [Enlace: https://la.mathworks.com/products/connections/product_detail/coppeliasim.html]
[48] E. Rohmer, S. P. N. Singh, y M. Freese, “CoppeliaSim (formerly V-REP): A versatile and scalable robot simulation framework,” en *Actas de la Conferencia Internacional sobre Robots Inteligentes y Sistemas (IROS)*, 2013. [Enlace: www.coppeliarobotics.com]
[49] O. Michel, “Webots: simulación profesional de robots móviles,” *Journal of Advanced Robotics Systems*, vol. 1, no. 1, pp. 39-42, 2004. [Enlace: http://www.ars-journal.com/International-Journal-of-Advanced-Robotic-Systems/Volume-1/39-42.pdf]
[50] MathWorks, “Webots [Página del producto],” 2024. [Enlace: https://la.mathworks.com/products/connections/product_detail/webots.html]
[51] MathWorks, “Robotics System Toolbox,” 2024. [Enlace: https://la.mathworks.com/products/robotics.html]
[52] MathWorks, “Robot pick-and-place utilizando el planificador de trayectorias [Imagen],” 2024. [Enlace: https://la.mathworks.com/products/robotics.html]
[53] KUKA, “KUKA.Sim,” 2024. [Enlace: https://www.kuka.com/es-es/productos-servicios/sistemas-de-robot/software/planificación-proyección-servicio-seguridad/kuka,-d-,sim]
[54] A. Kapitanov, K. Kvanchiani, A. Nagaev, R. Kraynov, y A. Makhliarchuk, “HaGRID - HAnd Gesture Recognition Image Dataset,” arXiv, 2024. [Enlace: https://arxiv.org/abs/2206.08219]
[55] Niryo, “IA Vision Training: Niryo integra herramientas de visión con su Ned2 [Imagen],” 2024. [Enlace: https://niryo.com/application/ia-vision-training/]
[56] J. Almeida y D. Rosa, “Direct and Inverse Kinematics of Serial Manipulators (Niryo One 6-axis Robotic Arm),” Instituto Superior Técnico, 2021.
[57] M. Á. Ezquerro Ezquerro, “Robot didáctico de bajo coste,” Universidad de La Rioja, Escuela Técnica Superior de Ingeniería Industrial, 2022.
dc.rights.spa.fl_str_mv Derechos reservados - Universidad Autónoma de Occidente, 202
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.spa.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.eng.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.eng.fl_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
rights_invalid_str_mv Derechos reservados - Universidad Autónoma de Occidente, 202
https://creativecommons.org/licenses/by-nc-nd/4.0/
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.spa.fl_str_mv 96 páginas
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.spa.fl_str_mv Universidad Autónoma de Occidente
dc.publisher.program.spa.fl_str_mv Ingeniería Mecatrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.publisher.place.spa.fl_str_mv Cali
institution Universidad Autónoma de Occidente
bitstream.url.fl_str_mv https://red.uao.edu.co/bitstreams/5e2e452d-a3e0-461e-aee1-bc391efeecef/download
https://red.uao.edu.co/bitstreams/8e7cb2d1-a6aa-4610-8a7b-4e6ec19281b7/download
https://red.uao.edu.co/bitstreams/596ded8d-0d9b-44a2-8f71-198c907da63b/download
https://red.uao.edu.co/bitstreams/b21a84c3-fa30-433c-9845-eeff1fbbb318/download
https://red.uao.edu.co/bitstreams/dd760a1c-2ac0-434a-9bb2-f9f526f39a43/download
https://red.uao.edu.co/bitstreams/29cf085f-28ab-41c8-822e-ab9eb55c0435/download
https://red.uao.edu.co/bitstreams/14489e87-05a8-4eb3-88c4-5c7ae11df039/download
bitstream.checksum.fl_str_mv 93331363ac265dc243b2d8c861c8c193
800294fc92f5d04fdb0f02e5cc6ad1a5
6987b791264a2b5525252450f99b10d1
ca1e1afc400a1957a15c01d76ec2513e
eb09237b8ce9ee2e8134606fd6dd71a9
543cba370778be7702e6d863fd0a7482
f0941b14a9a898a89592966645baaaf7
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Digital Universidad Autonoma de Occidente
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1831928635115700224
spelling López Sotelo, Jesús Alfonsovirtual::5825-1Ramírez Silva, Miguel ÁngelUniversidad Autónoma de OccidenteCastillo, Javier Ferney2024-11-25T15:18:14Z2024-11-25T15:18:14Z2024-11-05Ramírez Silva, M. A. (2024). Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombiahttps://hdl.handle.net/10614/15920Universidad Autónoma de OccidenteRespositorio Educativo Digital UAOhttps://red.uao.edu.co/La manipulación de dispositivos robóticos mediante gestos capturados por cámaras es una técnica prometedora dentro de la interacción hombre máquina. Este método de interacción presenta diversos desafíos técnicos que incluyen la precisión en la identificación de los gestos debido a la variabilidad anatómica de las manos y las condiciones ambientales y de luz que afectan la calidad de la detección. Este proyecto busca desarrollar un sistema de manipulación de un brazo robótico utilizando inteligencia artificial que permita una interpretación correcta de los gestos que no se vea limitada a las condiciones de luz, ambigüedad anatómica. El desarrollo del proyecto se llevó a cabo por medio de cuatro etapas. La primera consiste en el desarrollo de un dataset de entrenamiento para los modelos de inteligencia artificial, para lo cual se tomó una muestra de un dataset existente y se construyó uno nuevo que cumpliera las necesidades del proyecto. Seguidamente se procede a la selección de algoritmos de inteligencia artificial y su respectivo entrenamiento enfocado en la detección de gestos de la mano en tiempo real usando estimación de pose. Este algoritmo se probó en condiciones de luz variables y a diferentes distancias de detección para lograr una validación del funcionamiento. Una vez entrenado el modelo de reconocimiento se procede a la creación de rutinas específicas de pick and place usando CoppeliaSim y el robot Niryo One. Las rutinas son basadas en la recolección de cinco tipos diferentes de objetos distribuidos en un entorno controlado que simula la categorización de objetos de forma manual usando un robot de seis grados de libertad. Finalmente, tras la implementación de las rutinas se realizó una integración de los subsistemas de inteligencia artificial y robótica para el ajuste la interacción del modelo con el reconocimiento de gestos y la ejecución de tareas para poder finalizar haciendo pruebas de funcionamiento y validación donde se encontró que el sistema es confiable para su uso en tiempo real y muestra un buen desempeño en la identificación de los gestos de control como en la ejecución de las rutinas teniendo pocos fallos en múltiples repeticiones.The manipulation of robotic devices through gestures captured by cameras is a promising technique within human-machine interaction. This interaction method presents several technical challenges, including the accuracy in gesture recognition due to the anatomical variability of hands and environmental and lighting conditions that affect detection quality. This project aims to develop a robotic arm manipulation system using artificial intelligence to enable accurate gesture interpretation that is not limited by lighting conditions or anatomical ambiguity. The system intends to effectively respond to predetermined tasks, offering an alternative solution for human-machine interaction. The project was developed through four stages. The first stage involved creating a training dataset for the artificial intelligence models, where a sample from an existing dataset was used, and a new dataset was built to meet the project’s needs. The second stage focused on selecting artificial intelligence algorithms and training them for real-time hand gesture detection using pose estimation. The algorithm was tested under variable lighting conditions and at different detection distances to validate its functionality. Once the recognition model was trained, specific pick-and-place routines were developed using CoppeliaSim and the Niryo One robot. These routines were based on collecting five different types of objects distributed in a controlled environment, simulating manual object categorization using a robot with six degrees of freedom. Finally, after implementing the routines, the AI and robotics subsystems were integrated to fine-tune the interaction between gesture recognition and task execution. Testing and validation showed that the system is reliable for real-time use and performs well in identifying control gestures as well as executing routines, with few errors in multiple repetitionsProyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2024PregradoIngeniero(a) Mecatrónico(a)96 páginasapplication/pdfspaUniversidad Autónoma de OccidenteIngeniería MecatrónicaFacultad de IngenieríaCaliDerechos reservados - Universidad Autónoma de Occidente, 202https://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificialTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttp://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85[1] Real Academia Española, «“Diccionario de la lengua española” - Edición del Tricentenario».[2] L. Cortés-Rico y G. Piedrahita-Solórzano, "Interacciones basadas en gestos: revisión crítica," Tecnológicas, vol. 22, pp. 119–132, 2019. doi: https://doi.org/10.22430/22565337.1512.[3] D. A. Norman, "Natural user interfaces are not natural," Interactions, vol. 17, no. 3, pp. 6-10, May 2010. doi: https://doi.org/10.1145/1744161.1744163.[4] M. Matilainen, P. Sangi, J. Holappa, y O. Silvén, "OUHANDS database for hand detection and pose recognition," en 2016 Sixth International Conference on Image Processing Theory, Tools and Applications (IPTA), Oulu, 2016, pp. 1-5. doi: 10.1109/IPTA.2016.7821025.[5] T. Grzejszczak, M. Kawulok, y A. Galuszka, "Hand landmarks detection and localization in color images," Multimed. Tools Appl., vol. 75, pp. 16363–16387, 2016. doi: https://doi.org/10.1007/s11042-015-2934-5.[6] P. Ponsa, C. Urbina, C. Manresa-Yee, y R. Vilanova, "Estudio de Usabilidad de una Interfaz Gestual Basada en Visión," Revista FAZ, vol. 8, pp. 99-119, 2015. Disponible: http://www.revistafaz.org/n8/6-interfazgestual.pdf.[7] M. Oudah, A. Al-Naji, y J.S. Chahl, "Hand Gesture Recognition Based on Computer Vision: A Review of Techniques," J. Imaging, vol. 6, 2020.[8] A. Agrawal, N. Jadhav, A. Gaur, S. Jeswani, y A. Kshirsagar, "Improving the Accuracy of Object Detection in Low Light Conditions using Multiple Retinex Theory-based Image Enhancement Algorithms," in 2022 Second International Conference on Advances en Electrical, Computing, Communication and Sustainable Technologies (ICAECT), Bhilai, India, 2022, pp. 1-5. doi: 10.1109/ICAECT54875.2022.9808011.[9] S. Panesar, Y. Cagle, D. Chander, J. Morey, J. Fernandez-Miranda, y M. Kliot, "Artificial intelligence and the future of surgical robotics," Ann. Surg., pp. 223-226, 2019.[10] R. Belk, "Ethical issues in service robotics and artificial intelligence," Serv. Ind. J., vol. 41, pp. 860-876, 2021.[11] OpenWebinars, "Datasets: Qué son y cómo acceder a ellos," OpenWebinars. Accedido: Sep. 5, 2024. [En línea ]. Disponible: https://openwebinars.net/blog/datasets-que-son-y-como-acceder-a-ellos/.[12] Viso.AI, "Human Pose Estimation with Deep Learning – Ultimate Overview en 2024," Viso.AI. Accedido: Sep. 5, 2024. [En línea]. Disponible: https://viso.ai/deep-learning/pose-estimation-ultimate-overview/.[13] Viso.AI, "Real-time full body pose estimation in construction – built with Viso Suite," Viso.AI. Accedido: Sep. 5, 2024. [En línea]. Disponible: https://viso.ai/deep-learning/pose-estimation-ultimate-overview/.[14] O. Chernytska, "Gentle introduction to 2D hand pose estimation approach explained," Towards Data Science. [En línea ]. Disponible: https://towardsdatascience.com/gentle-introduction-to-2d-hand-pose-estimation-approach-explained-4348d6d79b11.[15] IBM, "Aprendizaje supervisado," IBM. Accedido: Sep. 5, 2024. [En línea]. Disponible: https://www.ibm.com/mx-es/topics/supervised-learning.[16] Robotnik, "Guía completa de robots manipuladores: Ventajas y aplicaciones," Robotnik. Accedido: Sep. 5, 2024. [En línea ]. Disponible: https://robotnik.eu/es/guia-completa-de-robots-manipuladores-ventajas-y-aplicaciones/#:~:text=Los%20robots%20manipuladores%20son%20sistemas.[17] Kuka, "KR Cybertech," Kuka. Accedido: Sep. 5, 2024. [En línea ]. Disponible: https://www.kuka.com/es-mx/productos-servicios/sistemas-de-robot/robot-industrial/kr-cybertech.[18] J. Tompson, M. Stein, Y. LeCun, and K. Perlin, "Real-time continuous pose recovery of human hands using convolutional networks," ACM Trans. Graph., vol. 33, 2014. doi: https://doi.org/10.1145/2601097.2601128.[19] H. Guo, G. Wang, X. Chen, y C. Zhang, "Towards good practices for deep 3d hand pose estimation," arXiv preprint arXiv:1707.07248, 2017.[20] Q. Chen, X. Sun, Y. Wei, X. Tang, y J. Sun, "3D Hand Shape and Pose Estimation from a Single RGB Image," en Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2014, pp. 1106-1113.[21] G. García-Hernando, S. Yuan, S. Baek, y T.-K. Kim, "First-person hand action benchmark with RGB-D videos and 3D hand pose annotations," en Actas de la Conferencia de Visión por Computadora y Reconocimiento de Patrones (CVPR), 2018.[22] G. Moon, S.-I. Yu, H. Wen, T. Shiratori, y K. M. Lee, "InterHand2.6M: A dataset and baseline for 3D interacting hand pose estimation from a single RGB image," 2020.[23] A. Kapitanov, K. Kvanchiani, A. Nagaev, R. Kraynov, y A. Makhliarchuk, "HaGRID- HAnd Gesture Recognition Image Dataset," 2024. [En línea ]. Disponible: https://arxiv.org/abs/2206.08219.[24] S. Jin, L. Xu, J. Xu, C. Wang, W. Liu, C. Qian, W. Ouyang, y P. Luo, "Whole-body human pose estimation in the wild," en Actas de la Conferencia Europea sobre Visión por Computadora (ECCV), 2020.[25] Z. Cao, G. Hidalgo, T. Simon, S.-E. Wei, y Y. Sheikh, "OpenPose: Realtime multi-person 2D pose estimation using part affinity fields," 2018.[26] Google, "MediaPipe Hand Landmarker," Google AI. Accedido: Sep. 6, 2024. [En línea ]. Disponible: https://ai.google.dev/edge/mediapipe/solutions/vision/hand_landmarker.[27] V. Dibia, "Handtrack.js [Repositorio de GitHub]," GitHub. Accedido: Sep. 6, 2024. [En línea ]. Disponible: https://github.com/victordibia/handtrack.js?tab=readme-ov-file.[28] V. Dibia, "Handtrack.js," [imagen]. Accedido: Sep. 6, 2024. [En línea ]. Disponible: https://victordibia.com/handtrack.js/#/.[29] The MathWorks, Inc., Mastering Machine Learning: A Step-by-Step Guide with MATLAB. The MathWorks, Inc., 2019.[30] IBM, "Cómo funciona el aprendizaje supervisado," IBM. Accedido: Sep. 6, 2024. [En línea ]. Disponible: https://www.ibm.com/es-es/topics/supervised-learning#:~:text=El%20aprendizaje%20supervisado%2C%20también%20conocido,predicen%20los%20resultados%20con%20precisión.[31] J. A. López Sotelo, Deep Learning: Teoría y aplicaciones. Alpha Editorial. Alfaomega Colombiana S.A., ISBN 978-958-778-686-6.[32] IBM, "Redes neuronales," IBM. Accedido: Sep. 6, 2024. [En línea ]. Disponible: https://www.ibm.com/es-es/topics/neural-networks.[33] Amazon Web Services, "Arquitectura de una red neuronal profunda [Imagen]," AWS. Accedido: Sep. 7, 2024. [En línea ]. Disponible: https://aws.amazon.com/es/what-is/neural-network/.[34] MathWorks, “Introducción a Support Vector Machine (SVM),” MathWorks, 2024. [Enlace: https://la.mathworks.com/discovery/support-vector-machine.html#:~:text=Support%20vector%20machine%20(SVM)%20es,reconocimiento%20de%20imgenes%20y%20voz.][35] T. Borgi et al., “Data analytics for predictive maintenance of industrial robots,” en *2017 International Conference on Advanced Systems and Electric Technologies (IC_ASET)*, 2017, pp. 412-417.[36] IBM, “Algoritmo de k vecinos más cercanos,” IBM, 2024. [Enlace: https://www.ibm.com/es-es/topics/knn][37] scikit-learn, “Árboles de decisión,” 2024. [Enlace: https://scikit-learn.org/stable/modules/tree.html][38] IBM, “Random forest,” IBM, 2024. [Enlace: https://www.ibm.com/topics/random-forest#:~:text=Random%20forest%20is%20a%20commonly,Decision%20trees][39] F. Reyes, *Robótica: Control de robots manipuladores*, 1st ed. Alfaomega, 2011, p. 211.[40] A. Barrientos, L. F. Peñín, C. Balaguer, y R. Aracil, *Fundamentos de robótica*, 2nd ed., McGraw-Hill/Interamericana, 2024, pp. 120-124.[41] F. Reyes, *Robótica: Control de robots manipuladores*, 1st ed. Alfaomega, 2011, p. 213.[42] A. Barrientos, L. F. Peñín, C. Balaguer, y R. Aracil, *Fundamentos de robótica*, 2nd ed., McGraw-Hill/Interamericana, 2024, pp. 120-124.[43] Gazebo, “Acerca de Gazebo,” 2024. [Enlace: https://gazebosim.org/about][44] C. C. Cuevas Castañeda, “Ros-Gazebo: Una valiosa herramienta de vanguardia para el desarrollo de la robótica,” Escuela de Ciencias Básicas Tecnología e Ingeniería, Universidad Nacional Abierta y a Distancia, 2024.[45] Gazebo, “Showcase,” 2024. [Enlace: https://gazebosim.org/showcase][46] Coppelia Robotics, “Coppelia Robotics,” 2024. [Enlace: https://www.coppeliarobotics.com][47] MathWorks, “CoppeliaSim,” 2024. [Enlace: https://la.mathworks.com/products/connections/product_detail/coppeliasim.html][48] E. Rohmer, S. P. N. Singh, y M. Freese, “CoppeliaSim (formerly V-REP): A versatile and scalable robot simulation framework,” en *Actas de la Conferencia Internacional sobre Robots Inteligentes y Sistemas (IROS)*, 2013. [Enlace: www.coppeliarobotics.com][49] O. Michel, “Webots: simulación profesional de robots móviles,” *Journal of Advanced Robotics Systems*, vol. 1, no. 1, pp. 39-42, 2004. [Enlace: http://www.ars-journal.com/International-Journal-of-Advanced-Robotic-Systems/Volume-1/39-42.pdf][50] MathWorks, “Webots [Página del producto],” 2024. [Enlace: https://la.mathworks.com/products/connections/product_detail/webots.html][51] MathWorks, “Robotics System Toolbox,” 2024. [Enlace: https://la.mathworks.com/products/robotics.html][52] MathWorks, “Robot pick-and-place utilizando el planificador de trayectorias [Imagen],” 2024. [Enlace: https://la.mathworks.com/products/robotics.html][53] KUKA, “KUKA.Sim,” 2024. [Enlace: https://www.kuka.com/es-es/productos-servicios/sistemas-de-robot/software/planificación-proyección-servicio-seguridad/kuka,-d-,sim][54] A. Kapitanov, K. Kvanchiani, A. Nagaev, R. Kraynov, y A. Makhliarchuk, “HaGRID - HAnd Gesture Recognition Image Dataset,” arXiv, 2024. [Enlace: https://arxiv.org/abs/2206.08219][55] Niryo, “IA Vision Training: Niryo integra herramientas de visión con su Ned2 [Imagen],” 2024. [Enlace: https://niryo.com/application/ia-vision-training/][56] J. Almeida y D. Rosa, “Direct and Inverse Kinematics of Serial Manipulators (Niryo One 6-axis Robotic Arm),” Instituto Superior Técnico, 2021.[57] M. Á. Ezquerro Ezquerro, “Robot didáctico de bajo coste,” Universidad de La Rioja, Escuela Técnica Superior de Ingeniería Industrial, 2022.Ingeniería mecatrónicaInteligencia artificialReconocimiento de gestos de la manoManipulación robóticaInteracción Hombre-MáquinaArtificial intelligenceHand gesture recognitionRobotic ManipulationHuman-machine interactionComunidad generalPublicationhttps://scholar.google.com.au/citations?user=7PIjh_MAAAAJ&hl=envirtual::5825-10000-0002-9731-8458virtual::5825-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000249106virtual::5825-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::5825-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::5825-1ORIGINALT11268_Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial.pdfT11268_Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial.pdfArchivo texto completo del trabajo de grado, PDFapplication/pdf2903613https://red.uao.edu.co/bitstreams/5e2e452d-a3e0-461e-aee1-bc391efeecef/download93331363ac265dc243b2d8c861c8c193MD51TA11268_Autorización trabajo de grado.pdfTA11268_Autorización trabajo de grado.pdfAutorización para publicación del trabajo de gradoapplication/pdf300335https://red.uao.edu.co/bitstreams/8e7cb2d1-a6aa-4610-8a7b-4e6ec19281b7/download800294fc92f5d04fdb0f02e5cc6ad1a5MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-81672https://red.uao.edu.co/bitstreams/596ded8d-0d9b-44a2-8f71-198c907da63b/download6987b791264a2b5525252450f99b10d1MD53TEXTT11268_Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial.pdf.txtT11268_Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial.pdf.txtExtracted texttext/plain101836https://red.uao.edu.co/bitstreams/b21a84c3-fa30-433c-9845-eeff1fbbb318/downloadca1e1afc400a1957a15c01d76ec2513eMD54TA11268_Autorización trabajo de grado.pdf.txtTA11268_Autorización trabajo de grado.pdf.txtExtracted texttext/plain4477https://red.uao.edu.co/bitstreams/dd760a1c-2ac0-434a-9bb2-f9f526f39a43/downloadeb09237b8ce9ee2e8134606fd6dd71a9MD56THUMBNAILT11268_Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial.pdf.jpgT11268_Manipulación de un brazo robótico mediante gestos de la mano utilizando inteligencia artificial.pdf.jpgGenerated Thumbnailimage/jpeg6715https://red.uao.edu.co/bitstreams/29cf085f-28ab-41c8-822e-ab9eb55c0435/download543cba370778be7702e6d863fd0a7482MD55TA11268_Autorización trabajo de grado.pdf.jpgTA11268_Autorización trabajo de grado.pdf.jpgGenerated Thumbnailimage/jpeg13913https://red.uao.edu.co/bitstreams/14489e87-05a8-4eb3-88c4-5c7ae11df039/downloadf0941b14a9a898a89592966645baaaf7MD5710614/15920oai:red.uao.edu.co:10614/159202024-11-26 03:00:54.712https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos reservados - Universidad Autónoma de Occidente, 202open.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coPHA+RUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS48L3A+Cg==