Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno
Así como la unión de sistemas biológicos dota de la capacidad de reconocer objetos a los humanos, la unión de sistemas electrónicos y robóticos puede dotar de esa misma capacidad a una máquina; para desarrollar aplicaciones que tengan funcionalidades que hagan que las máquinas realicen procesos que...
- Autores:
-
Torres Amórtegui, Mauricio Alejandro
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2020
- Institución:
- Universidad Autónoma de Occidente
- Repositorio:
- RED: Repositorio Educativo Digital UAO
- Idioma:
- spa
- OAI Identifier:
- oai:red.uao.edu.co:10614/12739
- Acceso en línea:
- http://red.uao.edu.co//handle/10614/12739
- Palabra clave:
- Ingeniería Mecatrónica
Aprendizaje automático
Visión computacional
Robot humanoide
Robótica de servicio
Integración de tecnologías
Robótica
Redes neurales (Computadores)
Visión por computador
Robotics
Neural networks (Computer science)
Computer vision
- Rights
- openAccess
- License
- Derechos Reservados - Universidad Autónoma de Occidente
id |
REPOUAO2_919c7456898fd8ade2679f099cd9d759 |
---|---|
oai_identifier_str |
oai:red.uao.edu.co:10614/12739 |
network_acronym_str |
REPOUAO2 |
network_name_str |
RED: Repositorio Educativo Digital UAO |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno |
title |
Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno |
spellingShingle |
Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno Ingeniería Mecatrónica Aprendizaje automático Visión computacional Robot humanoide Robótica de servicio Integración de tecnologías Robótica Redes neurales (Computadores) Visión por computador Robotics Neural networks (Computer science) Computer vision |
title_short |
Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno |
title_full |
Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno |
title_fullStr |
Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno |
title_full_unstemmed |
Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno |
title_sort |
Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entorno |
dc.creator.fl_str_mv |
Torres Amórtegui, Mauricio Alejandro |
dc.contributor.advisor.none.fl_str_mv |
López Sotelo, Jesús Alfonso |
dc.contributor.author.spa.fl_str_mv |
Torres Amórtegui, Mauricio Alejandro |
dc.subject.spa.fl_str_mv |
Ingeniería Mecatrónica Aprendizaje automático Visión computacional Robot humanoide Robótica de servicio Integración de tecnologías |
topic |
Ingeniería Mecatrónica Aprendizaje automático Visión computacional Robot humanoide Robótica de servicio Integración de tecnologías Robótica Redes neurales (Computadores) Visión por computador Robotics Neural networks (Computer science) Computer vision |
dc.subject.armarc.spa.fl_str_mv |
Robótica Redes neurales (Computadores) Visión por computador |
dc.subject.armarc.eng.fl_str_mv |
Robotics Neural networks (Computer science) Computer vision |
description |
Así como la unión de sistemas biológicos dota de la capacidad de reconocer objetos a los humanos, la unión de sistemas electrónicos y robóticos puede dotar de esa misma capacidad a una máquina; para desarrollar aplicaciones que tengan funcionalidades que hagan que las máquinas realicen procesos que se asemejen a aquellos naturales al humano, se necesita tener en cuenta el uso conjunto de campos como el aprendizaje profundo, la visión computacional y la robótica. Este proyecto combina estos campos para lograr que un robot sea capaz de analizar los datos de una imagen y genere una respuesta acorde a lo que ve, lo que permite que la interacción entre humanos y robots humanoides pueda ser viable. Por medio del desarrollo de este proyecto se obtiene un sistema que permite a un robot humanoide tomar una foto, procesarla mediante subsistemas de reconocimiento de objetos y poses y generar una respuesta del robot acerca de las diferentes interacciones entre objetos, humanos y entorno que se describen en la imagen. Se desarrolla una variación del sistema que permite que el robot genere una respuesta ante imágenes de formato .jpg ingresadas al sistema. Si se tienen en cuenta las condiciones de operación y limitaciones del sistema, tanto el sistema final como la variante de este son capaces de reconocer hasta 80 objetos, 6 ambientes y las interacciones entre humanos, objetos y ambientes, esto hace que el sistema sea capaz de responder ante ciertas situaciones premeditadas, y permite que se pueda usar este proyecto como punto de partida ante desarrollos de aplicaciones que requieran interactuar con otra persona como lo es la vigilancia, asistencia, comunicación, entre otros en lugares como hospitales, aeropuertos, centros comerciales, casas, entre otros |
publishDate |
2020 |
dc.date.accessioned.spa.fl_str_mv |
2020-12-17T20:19:48Z |
dc.date.available.spa.fl_str_mv |
2020-12-17T20:19:48Z |
dc.date.issued.spa.fl_str_mv |
2020-12-02 |
dc.type.spa.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.coarversion.fl_str_mv |
http://purl.org/coar/version/c_970fb48d4fbd8a85 |
dc.type.coar.spa.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.eng.fl_str_mv |
Text |
dc.type.driver.eng.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.redcol.spa.fl_str_mv |
https://purl.org/redcol/resource_type/TP |
dc.type.version.eng.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
publishedVersion |
dc.identifier.uri.spa.fl_str_mv |
http://red.uao.edu.co//handle/10614/12739 |
url |
http://red.uao.edu.co//handle/10614/12739 |
dc.language.iso.eng.fl_str_mv |
spa |
language |
spa |
dc.relation.references.spa.fl_str_mv |
[1] J. Gonzales. “Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento y aprendizaje del lenguaje corporal,” Trabajo de grado. Fac. Ingenieria, Prog. Ing. Mecatrónica. Univ. Autónoma de Occidente. Santiago de Cali, Valle, 2018. Disponible en https://red.uao.edu.co/handle/10614/10162 [2] N. T. V. Tuyen, S. Jeong and N. Y. Chong, "Learning human behavior for emotional body expression in socially assistive robotics," 2017 14th International Conference on Ubiquitous Robots and Ambient Intelligence (URAI), Jeju, 2017, pp. 45-50. [3] M. Sun, Y. Mou, H. Xie, M. Xia, M. Wong and X. Ma, “Estimating Emotional Intensity from Body Poses for Human-Robot Interaction,” 2018 IEEE International Conference on Systems, Man, and Cybernetics, 2019. [4] Universidad Carlos III de Madrid, (2020, Ene, 1). “ROBOTICSLAB. TEO Humanoid”. [En línea]. Disponible en http://roboticslab.uc3m.es/roboticslab/robot/teo-humanoid [5] A. Berman, C. Dong, “Human Pose Estimation and Activity Classification Using Convolutional Neural Networks,” Stanford University, 2015. [6] S. Shuai, M. Subash, J. Miyao and T. Kurita, ”Action Classification Based on 2D Coordinates Obtained by Real-time Pose Estimation,” International Workshop on Frontiers of Computer Vision, 2019. [7] L. Mici, G. Parisi and S. Wermter, “A self-organizing neural network architecture for learning human-object interactions,” 2017. [8] J. Schreler, “Un amigo para Frank,” Dog Run Pictures. 2012. [DVD] [9] F. Rosenblatt, “The perceptron, a perceiving and recognizing automaton,” Project Para. Cornell Aeronautical Laboratory, 1957. [10]A. Kurenkov, (2018). “A 'Brief' History of Neural Nets and Deep Learning”.[En línea]. Disponible en http://www.andreykurenkov.com/writing/ai/a-brief-history-of-neural-nets-and-deep-learning/ [11]M. Minsky and P. Seymour, “Perceptrons. An Introduction toComputational Geometry,” M.I.T. Press, Cambridge, Mass., 1969. [12]CS231N. (2015) “Convolutional Neural Networks for Visual Recognition”.[En línea]. Disponible en http://cs231n.github.io/neural-networks-1/#add [13]Y. Lecun, B. Boser, J. Denker, D. Henderson, R. Howard, W. Hubbard andL.Jackel, “Backpropagation Applied to Handwritten Zip Code Recognition,” NeuralComputation, vol.1, no.4, pp.541-551, 1989. [14]F. De La Rosa, (s.f). “Aplicación de Deep Learning en Robótica Móvil paraExploración y Reconocimiento de Objetos basados en Imágenes”. [En línea].Disponible enhttps://www.researchgate.net/publication/308783857_Aplicacion_de_Deep_Learning_en_Robotica_Movil_para_Exploracion_y_Reconocimiento_de_Objetos_basados_en_Imagenes [15]A. Ananthram, (s.f). “Deep Learning for Beginners Using Transfer Learningin Keras”. [En línea]. Disponible en https://towardsdatascience.com/keras-transfer-learning-for-beginners-6c9b8b7143e [16]J. Bagnato. (2020). “Modelos de Detección de Objetos”. [En línea].Disponible en https://www.aprendemachinelearning.com/modelos-de-deteccion-de-objetos/ [17]Pawangfg. (2020). “OpenPose : Human Pose Estimation Method”. [Enlínea]. Disponible en https://www.geeksforgeeks.org/openpose-human-pose-estimation-method/ [18]J. Rodriguez, (s.f). “Cómo empezar con Reconocimiento de Imagen yRedes Neuronales Convolucionales en 5 minutos” [En línea]. Disponible enhttps://planetachatbot.com/c%C3%B3mo-empezar-con-reconocimiento-de-imagen-y-redes-neuronales-convolucionales-en-5-minutos-7f651054dfd7 [19] A. Soto I Serrano, (s.f). “YOLO Object Detector for Onboard Driving Images”. [En línea]. Disponible en https://ddd.uab.cat/pub/tfg/2017/tfg_71066/paper.pdf [20] A. Enrique, (s.f). “Detección de objetos con YOLO: implementaciones y como usarlas”. [En línea]. Disponible en https://medium.com/@enriqueav/detecci%C3%B3n-de-objetos-con-yolo-implementaciones-y-como-usarlas-c73ca2489246 [21] Arunponnusamy, “Cvlib,” (s.f.). [En línea] Disponible en https://www.cvlib.net/ [22] COCO, Common Objects in Context, (s.f). [En línea] Disponible en https://cocodataset.org/#home [23] G, Hidalgo, “OpenPose: Real-time multi-person keypoint detection library for body, face, hands, and foot estimation”. [En línea]. Disponible en https://github.com/CMU-Perceptual-Computing-Lab/openpose [24] Ildoonet, (2019). “tf-pose-estimation”. [En línea]. Disponible en https://github.com/ildoonet/tf-pose-estimation [25] Softbank Robotics. (s.f.). [En Línea]. Disponible en internet: https://softbankrobotics.com/corp/robos/ [26] Softbank Robotics. (s.f.). “Pepper”. [En Línea]. Disponible en internet: https://www.softbankrobotics.com/emea/en/pepper [27] SoftBank Robotics. (s.f.). “NAO”. [En Línea]. Disponible en internet: https://www.softbankrobotics.com/emea/en/nao [28] Softbank Robotics. (s.f.). “NAOqi - Developer guide”. [En Línea]. Disponible en internet: http://doc.aldebaran.com/2-8/index_dev_guide.html [29] International Federation Of Robotics, (s.f). “Service Robots” [En Línea] Disponible en https://www.ifr.org/service-robots [30] Softbank Robotics. (s.f.). “NAOqi APIs”. [En Línea]. Disponible en internet: http://doc.aldebaran.com/2-8/naoqi/index.html [31] Softbank Robotics. (s.f.). “Key Concepts”. [En Línea]. Disponible en internet: http://doc.aldebaran.com/2-8/dev/naoqi/index.html [32] Arunponnusamy, “Cvlib,” (s.f.). [En línea] Disponible en https://github.com/arunponnusamy/cvlib |
dc.rights.spa.fl_str_mv |
Derechos Reservados - Universidad Autónoma de Occidente |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.uri.spa.fl_str_mv |
https://creativecommons.org/licenses/by-nd/4.0/ |
dc.rights.accessrights.eng.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.creativecommons.spa.fl_str_mv |
Atribución-SinDerivadas 4.0 Internacional (CC BY-ND 4.0) |
rights_invalid_str_mv |
Derechos Reservados - Universidad Autónoma de Occidente https://creativecommons.org/licenses/by-nd/4.0/ Atribución-SinDerivadas 4.0 Internacional (CC BY-ND 4.0) http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.spa.fl_str_mv |
application/pdf |
dc.format.extent.spa.fl_str_mv |
98 páginas |
dc.coverage.spatial.spa.fl_str_mv |
Universidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí |
dc.publisher.spa.fl_str_mv |
Universidad Autónoma de Occidente |
dc.publisher.program.spa.fl_str_mv |
Ingeniería Mecatrónica |
dc.publisher.department.spa.fl_str_mv |
Departamento de Automática y Electrónica |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ingeniería |
dc.source.spa.fl_str_mv |
instname:Universidad Autónoma de Occidente reponame:Repositorio Institucional UAO |
instname_str |
Universidad Autónoma de Occidente |
institution |
Universidad Autónoma de Occidente |
reponame_str |
Repositorio Institucional UAO |
collection |
Repositorio Institucional UAO |
bitstream.url.fl_str_mv |
https://red.uao.edu.co/bitstreams/0453f35e-ebd4-48a6-bb8b-2c9a6da9ee1d/download https://red.uao.edu.co/bitstreams/b424dafb-1c91-433c-9423-23f56cbbf373/download https://red.uao.edu.co/bitstreams/5b1d046c-cbd2-4355-909d-ecd1cfdb7e74/download https://red.uao.edu.co/bitstreams/e14627bf-3909-479f-92f6-2f9b7180a998/download https://red.uao.edu.co/bitstreams/c6479e9e-a90b-4df7-aafe-169699130f59/download https://red.uao.edu.co/bitstreams/0b66d9e5-5965-4dc3-a0ea-9b176cd0b1d2/download https://red.uao.edu.co/bitstreams/de471514-73bc-467a-8b85-081c20ec2296/download https://red.uao.edu.co/bitstreams/40823b43-1f52-460e-8a88-38281120a69e/download https://red.uao.edu.co/bitstreams/1646cc2b-18e0-4707-939b-cc73b8b57c62/download |
bitstream.checksum.fl_str_mv |
7bcf7d122d2a219594ca5903c732c40b 55c7f632528328801392f2ed91ed337b fc8522495910a0a57362b4e8df551ba0 238d06b8dbac38f8a11b482713c4cce3 f7d494f61e544413a13e6ba1da2089cd 309e4b68149b10fce282f907e993e421 a8a084f36db81f2e2322e8dbe6f4b080 a8eb8459f4d5fb057bd658c7c594e359 20b5ba22b1117f71589c7318baa2c560 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Digital Universidad Autonoma de Occidente |
repository.mail.fl_str_mv |
repositorio@uao.edu.co |
_version_ |
1814259992335745024 |
spelling |
López Sotelo, Jesús Alfonsovirtual::2941-1Torres Amórtegui, Mauricio Alejandro305ba834ff621f805b47ab5ff51f245aIngeniero MecatrónicoUniversidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí2020-12-17T20:19:48Z2020-12-17T20:19:48Z2020-12-02http://red.uao.edu.co//handle/10614/12739Así como la unión de sistemas biológicos dota de la capacidad de reconocer objetos a los humanos, la unión de sistemas electrónicos y robóticos puede dotar de esa misma capacidad a una máquina; para desarrollar aplicaciones que tengan funcionalidades que hagan que las máquinas realicen procesos que se asemejen a aquellos naturales al humano, se necesita tener en cuenta el uso conjunto de campos como el aprendizaje profundo, la visión computacional y la robótica. Este proyecto combina estos campos para lograr que un robot sea capaz de analizar los datos de una imagen y genere una respuesta acorde a lo que ve, lo que permite que la interacción entre humanos y robots humanoides pueda ser viable. Por medio del desarrollo de este proyecto se obtiene un sistema que permite a un robot humanoide tomar una foto, procesarla mediante subsistemas de reconocimiento de objetos y poses y generar una respuesta del robot acerca de las diferentes interacciones entre objetos, humanos y entorno que se describen en la imagen. Se desarrolla una variación del sistema que permite que el robot genere una respuesta ante imágenes de formato .jpg ingresadas al sistema. Si se tienen en cuenta las condiciones de operación y limitaciones del sistema, tanto el sistema final como la variante de este son capaces de reconocer hasta 80 objetos, 6 ambientes y las interacciones entre humanos, objetos y ambientes, esto hace que el sistema sea capaz de responder ante ciertas situaciones premeditadas, y permite que se pueda usar este proyecto como punto de partida ante desarrollos de aplicaciones que requieran interactuar con otra persona como lo es la vigilancia, asistencia, comunicación, entre otros en lugares como hospitales, aeropuertos, centros comerciales, casas, entre otrosProyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2020PregradoIngeniero(a) Mecatrónico(a)application/pdf98 páginasspaUniversidad Autónoma de OccidenteIngeniería MecatrónicaDepartamento de Automática y ElectrónicaFacultad de IngenieríaDerechos Reservados - Universidad Autónoma de Occidentehttps://creativecommons.org/licenses/by-nd/4.0/info:eu-repo/semantics/openAccessAtribución-SinDerivadas 4.0 Internacional (CC BY-ND 4.0)http://purl.org/coar/access_right/c_abf2instname:Universidad Autónoma de Occidentereponame:Repositorio Institucional UAOIngeniería MecatrónicaAprendizaje automáticoVisión computacionalRobot humanoideRobótica de servicioIntegración de tecnologíasRobóticaRedes neurales (Computadores)Visión por computadorRoboticsNeural networks (Computer science)Computer visionDesarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento de la postura del usuario y objetos del entornoTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85[1] J. Gonzales. “Desarrollo de un sistema de interacción humano-humanoide mediante el reconocimiento y aprendizaje del lenguaje corporal,” Trabajo de grado. Fac. Ingenieria, Prog. Ing. Mecatrónica. Univ. Autónoma de Occidente. Santiago de Cali, Valle, 2018. Disponible en https://red.uao.edu.co/handle/10614/10162[2] N. T. V. Tuyen, S. Jeong and N. Y. Chong, "Learning human behavior for emotional body expression in socially assistive robotics," 2017 14th International Conference on Ubiquitous Robots and Ambient Intelligence (URAI), Jeju, 2017, pp. 45-50.[3] M. Sun, Y. Mou, H. Xie, M. Xia, M. Wong and X. Ma, “Estimating Emotional Intensity from Body Poses for Human-Robot Interaction,” 2018 IEEE International Conference on Systems, Man, and Cybernetics, 2019.[4] Universidad Carlos III de Madrid, (2020, Ene, 1). “ROBOTICSLAB. TEO Humanoid”. [En línea]. Disponible en http://roboticslab.uc3m.es/roboticslab/robot/teo-humanoid[5] A. Berman, C. Dong, “Human Pose Estimation and Activity Classification Using Convolutional Neural Networks,” Stanford University, 2015.[6] S. Shuai, M. Subash, J. Miyao and T. Kurita, ”Action Classification Based on 2D Coordinates Obtained by Real-time Pose Estimation,” International Workshop on Frontiers of Computer Vision, 2019.[7] L. Mici, G. Parisi and S. Wermter, “A self-organizing neural network architecture for learning human-object interactions,” 2017.[8] J. Schreler, “Un amigo para Frank,” Dog Run Pictures. 2012. [DVD][9] F. Rosenblatt, “The perceptron, a perceiving and recognizing automaton,” Project Para. Cornell Aeronautical Laboratory, 1957.[10]A. Kurenkov, (2018). “A 'Brief' History of Neural Nets and Deep Learning”.[En línea]. Disponible en http://www.andreykurenkov.com/writing/ai/a-brief-history-of-neural-nets-and-deep-learning/[11]M. Minsky and P. Seymour, “Perceptrons. An Introduction toComputational Geometry,” M.I.T. Press, Cambridge, Mass., 1969.[12]CS231N. (2015) “Convolutional Neural Networks for Visual Recognition”.[En línea]. Disponible en http://cs231n.github.io/neural-networks-1/#add[13]Y. Lecun, B. Boser, J. Denker, D. Henderson, R. Howard, W. Hubbard andL.Jackel, “Backpropagation Applied to Handwritten Zip Code Recognition,” NeuralComputation, vol.1, no.4, pp.541-551, 1989.[14]F. De La Rosa, (s.f). “Aplicación de Deep Learning en Robótica Móvil paraExploración y Reconocimiento de Objetos basados en Imágenes”. [En línea].Disponible enhttps://www.researchgate.net/publication/308783857_Aplicacion_de_Deep_Learning_en_Robotica_Movil_para_Exploracion_y_Reconocimiento_de_Objetos_basados_en_Imagenes[15]A. Ananthram, (s.f). “Deep Learning for Beginners Using Transfer Learningin Keras”. [En línea]. Disponible en https://towardsdatascience.com/keras-transfer-learning-for-beginners-6c9b8b7143e[16]J. Bagnato. (2020). “Modelos de Detección de Objetos”. [En línea].Disponible en https://www.aprendemachinelearning.com/modelos-de-deteccion-de-objetos/[17]Pawangfg. (2020). “OpenPose : Human Pose Estimation Method”. [Enlínea]. Disponible en https://www.geeksforgeeks.org/openpose-human-pose-estimation-method/[18]J. Rodriguez, (s.f). “Cómo empezar con Reconocimiento de Imagen yRedes Neuronales Convolucionales en 5 minutos” [En línea]. Disponible enhttps://planetachatbot.com/c%C3%B3mo-empezar-con-reconocimiento-de-imagen-y-redes-neuronales-convolucionales-en-5-minutos-7f651054dfd7[19] A. Soto I Serrano, (s.f). “YOLO Object Detector for Onboard Driving Images”. [En línea]. Disponible en https://ddd.uab.cat/pub/tfg/2017/tfg_71066/paper.pdf[20] A. Enrique, (s.f). “Detección de objetos con YOLO: implementaciones y como usarlas”. [En línea]. Disponible en https://medium.com/@enriqueav/detecci%C3%B3n-de-objetos-con-yolo-implementaciones-y-como-usarlas-c73ca2489246[21] Arunponnusamy, “Cvlib,” (s.f.). [En línea] Disponible en https://www.cvlib.net/[22] COCO, Common Objects in Context, (s.f). [En línea] Disponible en https://cocodataset.org/#home[23] G, Hidalgo, “OpenPose: Real-time multi-person keypoint detection library for body, face, hands, and foot estimation”. [En línea]. Disponible en https://github.com/CMU-Perceptual-Computing-Lab/openpose[24] Ildoonet, (2019). “tf-pose-estimation”. [En línea]. Disponible en https://github.com/ildoonet/tf-pose-estimation[25] Softbank Robotics. (s.f.). [En Línea]. Disponible en internet: https://softbankrobotics.com/corp/robos/[26] Softbank Robotics. (s.f.). “Pepper”. [En Línea]. Disponible en internet: https://www.softbankrobotics.com/emea/en/pepper[27] SoftBank Robotics. (s.f.). “NAO”. [En Línea]. Disponible en internet: https://www.softbankrobotics.com/emea/en/nao[28] Softbank Robotics. (s.f.). “NAOqi - Developer guide”. [En Línea]. Disponible en internet: http://doc.aldebaran.com/2-8/index_dev_guide.html[29] International Federation Of Robotics, (s.f). “Service Robots” [En Línea] Disponible en https://www.ifr.org/service-robots[30] Softbank Robotics. (s.f.). “NAOqi APIs”. [En Línea]. Disponible en internet: http://doc.aldebaran.com/2-8/naoqi/index.html[31] Softbank Robotics. (s.f.). “Key Concepts”. [En Línea]. Disponible en internet: http://doc.aldebaran.com/2-8/dev/naoqi/index.html[32] Arunponnusamy, “Cvlib,” (s.f.). [En línea] Disponible en https://github.com/arunponnusamy/cvlibPublicationhttps://scholar.google.com.au/citations?user=7PIjh_MAAAAJ&hl=envirtual::2941-10000-0002-9731-8458virtual::2941-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000249106virtual::2941-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::2941-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::2941-1TEXTT09574.pdf.txtT09574.pdf.txtExtracted texttext/plain115223https://red.uao.edu.co/bitstreams/0453f35e-ebd4-48a6-bb8b-2c9a6da9ee1d/download7bcf7d122d2a219594ca5903c732c40bMD59TA9574.pdf.txtTA9574.pdf.txtExtracted texttext/plain4080https://red.uao.edu.co/bitstreams/b424dafb-1c91-433c-9423-23f56cbbf373/download55c7f632528328801392f2ed91ed337bMD511THUMBNAILT09574.pdf.jpgT09574.pdf.jpgGenerated Thumbnailimage/jpeg6679https://red.uao.edu.co/bitstreams/5b1d046c-cbd2-4355-909d-ecd1cfdb7e74/downloadfc8522495910a0a57362b4e8df551ba0MD510TA9574.pdf.jpgTA9574.pdf.jpgGenerated Thumbnailimage/jpeg13172https://red.uao.edu.co/bitstreams/e14627bf-3909-479f-92f6-2f9b7180a998/download238d06b8dbac38f8a11b482713c4cce3MD512CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8799https://red.uao.edu.co/bitstreams/c6479e9e-a90b-4df7-aafe-169699130f59/downloadf7d494f61e544413a13e6ba1da2089cdMD54ORIGINALT09574.pdfT09574.pdfapplication/pdf1960368https://red.uao.edu.co/bitstreams/0b66d9e5-5965-4dc3-a0ea-9b176cd0b1d2/download309e4b68149b10fce282f907e993e421MD56T9574A.zipT9574A.zipapplication/octet-stream97223817https://red.uao.edu.co/bitstreams/de471514-73bc-467a-8b85-081c20ec2296/downloada8a084f36db81f2e2322e8dbe6f4b080MD58TA9574.pdfTA9574.pdfapplication/pdf226719https://red.uao.edu.co/bitstreams/40823b43-1f52-460e-8a88-38281120a69e/downloada8eb8459f4d5fb057bd658c7c594e359MD57LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://red.uao.edu.co/bitstreams/1646cc2b-18e0-4707-939b-cc73b8b57c62/download20b5ba22b1117f71589c7318baa2c560MD5510614/12739oai:red.uao.edu.co:10614/127392024-03-07 16:52:36.885https://creativecommons.org/licenses/by-nd/4.0/Derechos Reservados - Universidad Autónoma de Occidenteopen.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K |