Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno

Así como la unión de sistemas biológicos dota de la capacidad de reconocer objetos a los humanos, la unión de sistemas electrónicos y robóticos puede dotar de esa misma capacidad a una máquina; para desarrollar aplicaciones que tengan funcionalidades que hagan que las máquinas realicen procesos que...

Full description

Autores:
Torres Amórtegui, Mauricio Alejandro
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2020
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/12739
Acceso en línea:
http://red.uao.edu.co//handle/10614/12739
Palabra clave:
Ingeniería Mecatrónica
Aprendizaje automático
Visión computacional
Robot humanoide
Robótica de servicio
Integración de tecnologías
Robótica
Redes neurales (Computadores)
Visión por computador
Robotics
Neural networks (Computer science)
Computer vision
Rights
openAccess
License
Derechos Reservados - Universidad Autónoma de Occidente
id REPOUAO2_919c7456898fd8ade2679f099cd9d759
oai_identifier_str oai:red.uao.edu.co:10614/12739
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno
title Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno
spellingShingle Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno
Ingeniería Mecatrónica
Aprendizaje automático
Visión computacional
Robot humanoide
Robótica de servicio
Integración de tecnologías
Robótica
Redes neurales (Computadores)
Visión por computador
Robotics
Neural networks (Computer science)
Computer vision
title_short Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno
title_full Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno
title_fullStr Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno
title_full_unstemmed Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno
title_sort Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno
dc.creator.fl_str_mv Torres Amórtegui, Mauricio Alejandro
dc.contributor.advisor.none.fl_str_mv López Sotelo, Jesús Alfonso
dc.contributor.author.spa.fl_str_mv Torres Amórtegui, Mauricio Alejandro
dc.subject.spa.fl_str_mv Ingeniería Mecatrónica
Aprendizaje automático
Visión computacional
Robot humanoide
Robótica de servicio
Integración de tecnologías
topic Ingeniería Mecatrónica
Aprendizaje automático
Visión computacional
Robot humanoide
Robótica de servicio
Integración de tecnologías
Robótica
Redes neurales (Computadores)
Visión por computador
Robotics
Neural networks (Computer science)
Computer vision
dc.subject.armarc.spa.fl_str_mv Robótica
Redes neurales (Computadores)
Visión por computador
dc.subject.armarc.eng.fl_str_mv Robotics
Neural networks (Computer science)
Computer vision
description Así como la unión de sistemas biológicos dota de la capacidad de reconocer objetos a los humanos, la unión de sistemas electrónicos y robóticos puede dotar de esa misma capacidad a una máquina; para desarrollar aplicaciones que tengan funcionalidades que hagan que las máquinas realicen procesos que se asemejen a aquellos naturales al humano, se necesita tener en cuenta el uso conjunto de campos como el aprendizaje profundo, la visión computacional y la robótica. Este proyecto combina estos campos para lograr que un robot sea capaz de analizar los datos de una imagen y genere una respuesta acorde a lo que ve, lo que permite que la interacción entre humanos y robots humanoides pueda ser viable. Por medio del desarrollo de este proyecto se obtiene un sistema que permite a un robot humanoide tomar una foto, procesarla mediante subsistemas de reconocimiento de objetos y poses y generar una respuesta del robot acerca de las diferentes interacciones entre objetos, humanos y entorno que se describen en la imagen. Se desarrolla una variación del sistema que permite que el robot genere una respuesta ante imágenes de formato .jpg ingresadas al sistema. Si se tienen en cuenta las condiciones de operación y limitaciones del sistema, tanto el sistema final como la variante de este son capaces de reconocer hasta 80 objetos, 6 ambientes y las interacciones entre humanos, objetos y ambientes, esto hace que el sistema sea capaz de responder ante ciertas situaciones premeditadas, y permite que se pueda usar este proyecto como punto de partida ante desarrollos de aplicaciones que requieran interactuar con otra persona como lo es la vigilancia, asistencia, comunicación, entre otros en lugares como hospitales, aeropuertos, centros comerciales, casas, entre otros
publishDate 2020
dc.date.accessioned.spa.fl_str_mv 2020-12-17T20:19:48Z
dc.date.available.spa.fl_str_mv 2020-12-17T20:19:48Z
dc.date.issued.spa.fl_str_mv 2020-12-02
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
dc.type.coar.spa.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.eng.fl_str_mv Text
dc.type.driver.eng.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.spa.fl_str_mv https://purl.org/redcol/resource_type/TP
dc.type.version.eng.fl_str_mv info:eu-repo/semantics/publishedVersion
format http://purl.org/coar/resource_type/c_7a1f
status_str publishedVersion
dc.identifier.uri.spa.fl_str_mv http://red.uao.edu.co//handle/10614/12739
url http://red.uao.edu.co//handle/10614/12739
dc.language.iso.eng.fl_str_mv spa
language spa
dc.relation.references.spa.fl_str_mv [1] J. Gonzales. “Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento y aprendizaje del lenguaje corporal,” Trabajo de grado. Fac. Ingenieria, Prog. Ing. Mecatrónica. Univ. Autónoma de Occidente. Santiago de Cali, Valle, 2018. Disponible en https://red.uao.edu.co/handle/10614/10162
[2] N. T. V. Tuyen, S. Jeong and N. Y. Chong, "Learning human behavior for emotional body expression in socially assistive robotics," 2017 14th International Conference on Ubiquitous Robots and Ambient Intelligence (URAI), Jeju, 2017, pp. 45-50.
[3] M. Sun, Y. Mou, H. Xie, M. Xia, M. Wong and X. Ma, “Estimating Emotional Intensity from Body Poses for Human-Robot Interaction,” 2018 IEEE International Conference on Systems, Man, and Cybernetics, 2019.
[4] Universidad Carlos III de Madrid, (2020, Ene, 1). “ROBOTICSLAB. TEO Humanoid”. [En línea]. Disponible en http://roboticslab.uc3m.es/roboticslab/robot/teo-humanoid
[5] A. Berman, C. Dong, “Human Pose Estimation and Activity Classification Using Convolutional Neural Networks,” Stanford University, 2015.
[6] S. Shuai, M. Subash, J. Miyao and T. Kurita, ”Action Classification Based on 2D Coordinates Obtained by Real-time Pose Estimation,” International Workshop on Frontiers of Computer Vision, 2019.
[7] L. Mici, G. Parisi and S. Wermter, “A self-organizing neural network architecture for learning human-object interactions,” 2017.
[8] J. Schreler, “Un amigo para Frank,” Dog Run Pictures. 2012. [DVD]
[9] F. Rosenblatt, “The perceptron, a perceiving and recognizing automaton,” Project Para. Cornell Aeronautical Laboratory, 1957.
[10]A. Kurenkov, (2018). “A 'Brief' History of Neural Nets and Deep Learning”.[En línea]. Disponible en http://www.andreykurenkov.com/writing/ai/a-brief-history-of-neural-nets-and-deep-learning/
[11]M. Minsky and P. Seymour, “Perceptrons. An Introduction toComputational Geometry,” M.I.T. Press, Cambridge, Mass., 1969.
[12]CS231N. (2015) “Convolutional Neural Networks for Visual Recognition”.[En línea]. Disponible en http://cs231n.github.io/neural-networks-1/#add
[13]Y. Lecun, B. Boser, J. Denker, D. Henderson, R. Howard, W. Hubbard andL.Jackel, “Backpropagation Applied to Handwritten Zip Code Recognition,” NeuralComputation, vol.1, no.4, pp.541-551, 1989.
[14]F. De La Rosa, (s.f). “Aplicación de Deep Learning en Robótica Móvil paraExploración y Reconocimiento de Objetos basados en Imágenes”. [En línea].Disponible enhttps://www.researchgate.net/publication/308783857_Aplicacion_de_Deep_Learning_en_Robotica_Movil_para_Exploracion_y_Reconocimiento_de_Objetos_basados_en_Imagenes
[15]A. Ananthram, (s.f). “Deep Learning for Beginners Using Transfer Learningin Keras”. [En línea]. Disponible en https://towardsdatascience.com/keras-transfer-learning-for-beginners-6c9b8b7143e
[16]J. Bagnato. (2020). “Modelos de Detección de Objetos”. [En línea].Disponible en https://www.aprendemachinelearning.com/modelos-de-deteccion-de-objetos/
[17]Pawangfg. (2020). “OpenPose : Human Pose Estimation Method”. [Enlínea]. Disponible en https://www.geeksforgeeks.org/openpose-human-pose-estimation-method/
[18]J. Rodriguez, (s.f). “Cómo empezar con Reconocimiento de Imagen yRedes Neuronales Convolucionales en 5 minutos” [En línea]. Disponible enhttps://planetachatbot.com/c%C3%B3mo-empezar-con-reconocimiento-de-imagen-y-redes-neuronales-convolucionales-en-5-minutos-7f651054dfd7
[19] A. Soto I Serrano, (s.f). “YOLO Object Detector for Onboard Driving Images”. [En línea]. Disponible en https://ddd.uab.cat/pub/tfg/2017/tfg_71066/paper.pdf
[20] A. Enrique, (s.f). “Detección de objetos con YOLO: implementaciones y como usarlas”. [En línea]. Disponible en https://medium.com/@enriqueav/detecci%C3%B3n-de-objetos-con-yolo-implementaciones-y-como-usarlas-c73ca2489246
[21] Arunponnusamy, “Cvlib,” (s.f.). [En línea] Disponible en https://www.cvlib.net/
[22] COCO, Common Objects in Context, (s.f). [En línea] Disponible en https://cocodataset.org/#home
[23] G, Hidalgo, “OpenPose: Real-time multi-person keypoint detection library for body, face, hands, and foot estimation”. [En línea]. Disponible en https://github.com/CMU-Perceptual-Computing-Lab/openpose
[24] Ildoonet, (2019). “tf-pose-estimation”. [En línea]. Disponible en https://github.com/ildoonet/tf-pose-estimation
[25] Softbank Robotics. (s.f.). [En Línea]. Disponible en internet: https://softbankrobotics.com/corp/robos/
[26] Softbank Robotics. (s.f.). “Pepper”. [En Línea]. Disponible en internet: https://www.softbankrobotics.com/emea/en/pepper
[27] SoftBank Robotics. (s.f.). “NAO”. [En Línea]. Disponible en internet: https://www.softbankrobotics.com/emea/en/nao
[28] Softbank Robotics. (s.f.). “NAOqi - Developer guide”. [En Línea]. Disponible en internet: http://doc.aldebaran.com/2-8/index_dev_guide.html
[29] International Federation Of Robotics, (s.f). “Service Robots” [En Línea] Disponible en https://www.ifr.org/service-robots
[30] Softbank Robotics. (s.f.). “NAOqi APIs”. [En Línea]. Disponible en internet: http://doc.aldebaran.com/2-8/naoqi/index.html
[31] Softbank Robotics. (s.f.). “Key Concepts”. [En Línea]. Disponible en internet: http://doc.aldebaran.com/2-8/dev/naoqi/index.html
[32] Arunponnusamy, “Cvlib,” (s.f.). [En línea] Disponible en https://github.com/arunponnusamy/cvlib
dc.rights.spa.fl_str_mv Derechos Reservados - Universidad Autónoma de Occidente
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.spa.fl_str_mv https://creativecommons.org/licenses/by-nd/4.0/
dc.rights.accessrights.eng.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.spa.fl_str_mv Atribución-SinDerivadas 4.0 Internacional (CC BY-ND 4.0)
rights_invalid_str_mv Derechos Reservados - Universidad Autónoma de Occidente
https://creativecommons.org/licenses/by-nd/4.0/
Atribución-SinDerivadas 4.0 Internacional (CC BY-ND 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.spa.fl_str_mv application/pdf
dc.format.extent.spa.fl_str_mv 98 páginas
dc.coverage.spatial.spa.fl_str_mv Universidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí
dc.publisher.spa.fl_str_mv Universidad Autónoma de Occidente
dc.publisher.program.spa.fl_str_mv Ingeniería Mecatrónica
dc.publisher.department.spa.fl_str_mv Departamento de Automática y Electrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.source.spa.fl_str_mv instname:Universidad Autónoma de Occidente
reponame:Repositorio Institucional UAO
instname_str Universidad Autónoma de Occidente
institution Universidad Autónoma de Occidente
reponame_str Repositorio Institucional UAO
collection Repositorio Institucional UAO
bitstream.url.fl_str_mv https://red.uao.edu.co/bitstreams/0453f35e-ebd4-48a6-bb8b-2c9a6da9ee1d/download
https://red.uao.edu.co/bitstreams/b424dafb-1c91-433c-9423-23f56cbbf373/download
https://red.uao.edu.co/bitstreams/5b1d046c-cbd2-4355-909d-ecd1cfdb7e74/download
https://red.uao.edu.co/bitstreams/e14627bf-3909-479f-92f6-2f9b7180a998/download
https://red.uao.edu.co/bitstreams/c6479e9e-a90b-4df7-aafe-169699130f59/download
https://red.uao.edu.co/bitstreams/0b66d9e5-5965-4dc3-a0ea-9b176cd0b1d2/download
https://red.uao.edu.co/bitstreams/de471514-73bc-467a-8b85-081c20ec2296/download
https://red.uao.edu.co/bitstreams/40823b43-1f52-460e-8a88-38281120a69e/download
https://red.uao.edu.co/bitstreams/1646cc2b-18e0-4707-939b-cc73b8b57c62/download
bitstream.checksum.fl_str_mv 7bcf7d122d2a219594ca5903c732c40b
55c7f632528328801392f2ed91ed337b
fc8522495910a0a57362b4e8df551ba0
238d06b8dbac38f8a11b482713c4cce3
f7d494f61e544413a13e6ba1da2089cd
309e4b68149b10fce282f907e993e421
a8a084f36db81f2e2322e8dbe6f4b080
a8eb8459f4d5fb057bd658c7c594e359
20b5ba22b1117f71589c7318baa2c560
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Digital Universidad Autonoma de Occidente
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1814259992335745024
spelling López Sotelo, Jesús Alfonsovirtual::2941-1Torres Amórtegui, Mauricio Alejandro305ba834ff621f805b47ab5ff51f245aIngeniero MecatrónicoUniversidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí2020-12-17T20:19:48Z2020-12-17T20:19:48Z2020-12-02http://red.uao.edu.co//handle/10614/12739Así como la unión de sistemas biológicos dota de la capacidad de reconocer objetos a los humanos, la unión de sistemas electrónicos y robóticos puede dotar de esa misma capacidad a una máquina; para desarrollar aplicaciones que tengan funcionalidades que hagan que las máquinas realicen procesos que se asemejen a aquellos naturales al humano, se necesita tener en cuenta el uso conjunto de campos como el aprendizaje profundo, la visión computacional y la robótica. Este proyecto combina estos campos para lograr que un robot sea capaz de analizar los datos de una imagen y genere una respuesta acorde a lo que ve, lo que permite que la interacción entre humanos y robots humanoides pueda ser viable. Por medio del desarrollo de este proyecto se obtiene un sistema que permite a un robot humanoide tomar una foto, procesarla mediante subsistemas de reconocimiento de objetos y poses y generar una respuesta del robot acerca de las diferentes interacciones entre objetos, humanos y entorno que se describen en la imagen. Se desarrolla una variación del sistema que permite que el robot genere una respuesta ante imágenes de formato .jpg ingresadas al sistema. Si se tienen en cuenta las condiciones de operación y limitaciones del sistema, tanto el sistema final como la variante de este son capaces de reconocer hasta 80 objetos, 6 ambientes y las interacciones entre humanos, objetos y ambientes, esto hace que el sistema sea capaz de responder ante ciertas situaciones premeditadas, y permite que se pueda usar este proyecto como punto de partida ante desarrollos de aplicaciones que requieran interactuar con otra persona como lo es la vigilancia, asistencia, comunicación, entre otros en lugares como hospitales, aeropuertos, centros comerciales, casas, entre otrosProyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2020PregradoIngeniero(a) Mecatrónico(a)application/pdf98 páginasspaUniversidad Autónoma de OccidenteIngeniería MecatrónicaDepartamento de Automática y ElectrónicaFacultad de IngenieríaDerechos Reservados - Universidad Autónoma de Occidentehttps://creativecommons.org/licenses/by-nd/4.0/info:eu-repo/semantics/openAccessAtribución-SinDerivadas 4.0 Internacional (CC BY-ND 4.0)http://purl.org/coar/access_right/c_abf2instname:Universidad Autónoma de Occidentereponame:Repositorio Institucional UAOIngeniería MecatrónicaAprendizaje automáticoVisión computacionalRobot humanoideRobótica de servicioIntegración de tecnologíasRobóticaRedes neurales (Computadores)Visión por computadorRoboticsNeural networks (Computer science)Computer visionDesarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entornoTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85[1] J. Gonzales. “Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento y aprendizaje del lenguaje corporal,” Trabajo de grado. Fac. Ingenieria, Prog. Ing. Mecatrónica. Univ. Autónoma de Occidente. Santiago de Cali, Valle, 2018. Disponible en https://red.uao.edu.co/handle/10614/10162[2] N. T. V. Tuyen, S. Jeong and N. Y. Chong, "Learning human behavior for emotional body expression in socially assistive robotics," 2017 14th International Conference on Ubiquitous Robots and Ambient Intelligence (URAI), Jeju, 2017, pp. 45-50.[3] M. Sun, Y. Mou, H. Xie, M. Xia, M. Wong and X. Ma, “Estimating Emotional Intensity from Body Poses for Human-Robot Interaction,” 2018 IEEE International Conference on Systems, Man, and Cybernetics, 2019.[4] Universidad Carlos III de Madrid, (2020, Ene, 1). “ROBOTICSLAB. TEO Humanoid”. [En línea]. Disponible en http://roboticslab.uc3m.es/roboticslab/robot/teo-humanoid[5] A. Berman, C. Dong, “Human Pose Estimation and Activity Classification Using Convolutional Neural Networks,” Stanford University, 2015.[6] S. Shuai, M. Subash, J. Miyao and T. Kurita, ”Action Classification Based on 2D Coordinates Obtained by Real-time Pose Estimation,” International Workshop on Frontiers of Computer Vision, 2019.[7] L. Mici, G. Parisi and S. Wermter, “A self-organizing neural network architecture for learning human-object interactions,” 2017.[8] J. Schreler, “Un amigo para Frank,” Dog Run Pictures. 2012. [DVD][9] F. Rosenblatt, “The perceptron, a perceiving and recognizing automaton,” Project Para. Cornell Aeronautical Laboratory, 1957.[10]A. Kurenkov, (2018). “A 'Brief' History of Neural Nets and Deep Learning”.[En línea]. Disponible en http://www.andreykurenkov.com/writing/ai/a-brief-history-of-neural-nets-and-deep-learning/[11]M. Minsky and P. Seymour, “Perceptrons. An Introduction toComputational Geometry,” M.I.T. Press, Cambridge, Mass., 1969.[12]CS231N. (2015) “Convolutional Neural Networks for Visual Recognition”.[En línea]. Disponible en http://cs231n.github.io/neural-networks-1/#add[13]Y. Lecun, B. Boser, J. Denker, D. Henderson, R. Howard, W. Hubbard andL.Jackel, “Backpropagation Applied to Handwritten Zip Code Recognition,” NeuralComputation, vol.1, no.4, pp.541-551, 1989.[14]F. De La Rosa, (s.f). “Aplicación de Deep Learning en Robótica Móvil paraExploración y Reconocimiento de Objetos basados en Imágenes”. [En línea].Disponible enhttps://www.researchgate.net/publication/308783857_Aplicacion_de_Deep_Learning_en_Robotica_Movil_para_Exploracion_y_Reconocimiento_de_Objetos_basados_en_Imagenes[15]A. Ananthram, (s.f). “Deep Learning for Beginners Using Transfer Learningin Keras”. [En línea]. Disponible en https://towardsdatascience.com/keras-transfer-learning-for-beginners-6c9b8b7143e[16]J. Bagnato. (2020). “Modelos de Detección de Objetos”. [En línea].Disponible en https://www.aprendemachinelearning.com/modelos-de-deteccion-de-objetos/[17]Pawangfg. (2020). “OpenPose : Human Pose Estimation Method”. [Enlínea]. Disponible en https://www.geeksforgeeks.org/openpose-human-pose-estimation-method/[18]J. Rodriguez, (s.f). “Cómo empezar con Reconocimiento de Imagen yRedes Neuronales Convolucionales en 5 minutos” [En línea]. Disponible enhttps://planetachatbot.com/c%C3%B3mo-empezar-con-reconocimiento-de-imagen-y-redes-neuronales-convolucionales-en-5-minutos-7f651054dfd7[19] A. Soto I Serrano, (s.f). “YOLO Object Detector for Onboard Driving Images”. [En línea]. Disponible en https://ddd.uab.cat/pub/tfg/2017/tfg_71066/paper.pdf[20] A. Enrique, (s.f). “Detección de objetos con YOLO: implementaciones y como usarlas”. [En línea]. Disponible en https://medium.com/@enriqueav/detecci%C3%B3n-de-objetos-con-yolo-implementaciones-y-como-usarlas-c73ca2489246[21] Arunponnusamy, “Cvlib,” (s.f.). [En línea] Disponible en https://www.cvlib.net/[22] COCO, Common Objects in Context, (s.f). [En línea] Disponible en https://cocodataset.org/#home[23] G, Hidalgo, “OpenPose: Real-time multi-person keypoint detection library for body, face, hands, and foot estimation”. [En línea]. Disponible en https://github.com/CMU-Perceptual-Computing-Lab/openpose[24] Ildoonet, (2019). “tf-pose-estimation”. [En línea]. Disponible en https://github.com/ildoonet/tf-pose-estimation[25] Softbank Robotics. (s.f.). [En Línea]. Disponible en internet: https://softbankrobotics.com/corp/robos/[26] Softbank Robotics. (s.f.). “Pepper”. [En Línea]. Disponible en internet: https://www.softbankrobotics.com/emea/en/pepper[27] SoftBank Robotics. (s.f.). “NAO”. [En Línea]. Disponible en internet: https://www.softbankrobotics.com/emea/en/nao[28] Softbank Robotics. (s.f.). “NAOqi - Developer guide”. [En Línea]. Disponible en internet: http://doc.aldebaran.com/2-8/index_dev_guide.html[29] International Federation Of Robotics, (s.f). “Service Robots” [En Línea] Disponible en https://www.ifr.org/service-robots[30] Softbank Robotics. (s.f.). “NAOqi APIs”. [En Línea]. Disponible en internet: http://doc.aldebaran.com/2-8/naoqi/index.html[31] Softbank Robotics. (s.f.). “Key Concepts”. [En Línea]. Disponible en internet: http://doc.aldebaran.com/2-8/dev/naoqi/index.html[32] Arunponnusamy, “Cvlib,” (s.f.). [En línea] Disponible en https://github.com/arunponnusamy/cvlibPublicationhttps://scholar.google.com.au/citations?user=7PIjh_MAAAAJ&hl=envirtual::2941-10000-0002-9731-8458virtual::2941-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000249106virtual::2941-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::2941-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::2941-1TEXTT09574.pdf.txtT09574.pdf.txtExtracted texttext/plain115223https://red.uao.edu.co/bitstreams/0453f35e-ebd4-48a6-bb8b-2c9a6da9ee1d/download7bcf7d122d2a219594ca5903c732c40bMD59TA9574.pdf.txtTA9574.pdf.txtExtracted texttext/plain4080https://red.uao.edu.co/bitstreams/b424dafb-1c91-433c-9423-23f56cbbf373/download55c7f632528328801392f2ed91ed337bMD511THUMBNAILT09574.pdf.jpgT09574.pdf.jpgGenerated Thumbnailimage/jpeg6679https://red.uao.edu.co/bitstreams/5b1d046c-cbd2-4355-909d-ecd1cfdb7e74/downloadfc8522495910a0a57362b4e8df551ba0MD510TA9574.pdf.jpgTA9574.pdf.jpgGenerated Thumbnailimage/jpeg13172https://red.uao.edu.co/bitstreams/e14627bf-3909-479f-92f6-2f9b7180a998/download238d06b8dbac38f8a11b482713c4cce3MD512CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8799https://red.uao.edu.co/bitstreams/c6479e9e-a90b-4df7-aafe-169699130f59/downloadf7d494f61e544413a13e6ba1da2089cdMD54ORIGINALT09574.pdfT09574.pdfapplication/pdf1960368https://red.uao.edu.co/bitstreams/0b66d9e5-5965-4dc3-a0ea-9b176cd0b1d2/download309e4b68149b10fce282f907e993e421MD56T9574A.zipT9574A.zipapplication/octet-stream97223817https://red.uao.edu.co/bitstreams/de471514-73bc-467a-8b85-081c20ec2296/downloada8a084f36db81f2e2322e8dbe6f4b080MD58TA9574.pdfTA9574.pdfapplication/pdf226719https://red.uao.edu.co/bitstreams/40823b43-1f52-460e-8a88-38281120a69e/downloada8eb8459f4d5fb057bd658c7c594e359MD57LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://red.uao.edu.co/bitstreams/1646cc2b-18e0-4707-939b-cc73b8b57c62/download20b5ba22b1117f71589c7318baa2c560MD5510614/12739oai:red.uao.edu.co:10614/127392024-03-07 16:52:36.885https://creativecommons.org/licenses/by-nd/4.0/Derechos Reservados - Universidad Autónoma de Occidenteopen.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K