Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento

En este Documento, se estudia la clasificación de poses y movimiento del cuerpo humano. Se construyó una red neuronal convolusional para abordar el problema de clasificación, en donde se definieron 3 poses ideales a clasificar. Se logró una precisión del 84.78% para la identificación de las poses. S...

Full description

Autores:
Beltrán Peréz, Cristian Camilo
Sánchez Rodríguez, Wilman Helioth
Tipo de recurso:
Fecha de publicación:
2018
Institución:
Universidad Militar Nueva Granada
Repositorio:
Repositorio UMNG
Idioma:
spa
OAI Identifier:
oai:repository.unimilitar.edu.co:10654/20718
Acceso en línea:
http://hdl.handle.net/10654/20718
Palabra clave:
PROCESAMIENTO DE IMAGENES
RED NERVIOSA
Feature extraction
Image Classification
image capture
image processing
neural networks
Extracción de características
clasificación de imágenes
captura de imágenes
procesamiento de imágenes
redes neuronales
Rights
License
Derechos Reservados - Universidad Militar Nueva Granada, 2019
id UNIMILTAR2_d33919eae39677406b0271d5d71148b7
oai_identifier_str oai:repository.unimilitar.edu.co:10654/20718
network_acronym_str UNIMILTAR2
network_name_str Repositorio UMNG
repository_id_str
dc.title.spa.fl_str_mv Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento
dc.title.translated.spa.fl_str_mv Identification of Human Body Poses to Characterize and Obtain Movement Information
title Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento
spellingShingle Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento
PROCESAMIENTO DE IMAGENES
RED NERVIOSA
Feature extraction
Image Classification
image capture
image processing
neural networks
Extracción de características
clasificación de imágenes
captura de imágenes
procesamiento de imágenes
redes neuronales
title_short Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento
title_full Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento
title_fullStr Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento
title_full_unstemmed Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento
title_sort Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento
dc.creator.fl_str_mv Beltrán Peréz, Cristian Camilo
Sánchez Rodríguez, Wilman Helioth
dc.contributor.advisor.spa.fl_str_mv Sánchez Rodríguez, Wilman Helioth
dc.contributor.author.spa.fl_str_mv Beltrán Peréz, Cristian Camilo
Sánchez Rodríguez, Wilman Helioth
dc.contributor.other.spa.fl_str_mv Sierra ballen, Eduard Leonardo
dc.subject.lemb.spa.fl_str_mv PROCESAMIENTO DE IMAGENES
RED NERVIOSA
topic PROCESAMIENTO DE IMAGENES
RED NERVIOSA
Feature extraction
Image Classification
image capture
image processing
neural networks
Extracción de características
clasificación de imágenes
captura de imágenes
procesamiento de imágenes
redes neuronales
dc.subject.keywords.spa.fl_str_mv Feature extraction
Image Classification
image capture
image processing
neural networks
dc.subject.proposal.spa.fl_str_mv Extracción de características
clasificación de imágenes
captura de imágenes
procesamiento de imágenes
redes neuronales
description En este Documento, se estudia la clasificación de poses y movimiento del cuerpo humano. Se construyó una red neuronal convolusional para abordar el problema de clasificación, en donde se definieron 3 poses ideales a clasificar. Se logró una precisión del 84.78% para la identificación de las poses. Se ubicaron en cada una de las poses identificadas, descriptores de para extraer información de movimiento en una secuencia de imágenes. Se definió un marco de estudio que analiza la ubicación de los descriptores ubicados en las áreas de cabeza, torso, brazos y piernas. En donde esta actividad logro un 82.35% de precisión de ubicación en áreas de cabeza y torso, usando este modelo se pudo clasificar el movimiento humano, en donde se ven resultados significativos, cuando se tiene un entorno controlado.
publishDate 2018
dc.date.issued.none.fl_str_mv 2018-10-26
dc.date.accessioned.none.fl_str_mv 2019-03-26T15:54:43Z
2019-12-26T22:05:26Z
dc.date.available.none.fl_str_mv 2019-03-26T15:54:43Z
2019-12-26T22:05:26Z
dc.type.spa.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.coar.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.local.spa.fl_str_mv Trabajo de grado
dc.type.dcmi-type-vocabulary.spa.fl_str_mv Text
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/10654/20718
url http://hdl.handle.net/10654/20718
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.spa.fl_str_mv N. Dalal and B. Triggs, (2005). Histograms of oriented gradients for human detection, (pp. 886-893 vol. 1) IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05), San Diego, CA, USA.
L. Wang and D. Suter. (2007) Recognizing Human Activities from Silhouettes: Motion Subspace and Factorial Discriminative Graphical Model, IEEE Conference on Computer Vision and Pattern Recognition.(pp. 1-8), Minneapolis, MN.
T. Alexander and S. Christian. Human Pose Estimation via Deep Neural Networks. Google.
Y. Jia, E. Shelhamer, J. Donahue, S. Karayev, J. Long, R. Girshick, S. Guadarrama, and T. Darrell 2014. Caffe: Convolutional architecture for fast feature embedding. arXiv preprint arXiv:1408.5093.
M. Eichner, M. Marin-Jimenez, A. Zisserman, and V. Ferrari. 2d 2012. articulated human pose estimation and retrieval in (almost) unconstrained still images. International Journal of Computer Vision, 99(2):190–214.
Collins, R. T. Gross,R. & Shi, J.(2002). Silhouette-based Human Identification from Body Shape and Gait. "Automatic Face and Gesture Recongnition.
G. Mori, X. Ren, A. Alexei and J. (2004). Malik. Recovering Human Body Configurations: Combining Segmentation and Recognition, University of Oxford.
M. Hoai, Z. Z. Lan and F. De la Torre. (2011). Joint segmentation and classification of human actions in video, Computer Vision and Pattern Recognition (CVPR), (pp. 3265-3272), IEEE Conference on, Providence.
] L. Wang and D. Suter. (2007) Recognizing Human Activities from Silhouettes: Motion Subspace and Factorial Discriminative Graphical Model, IEEE Conference on Computer Vision and Pattern Recognition.(pp. 1-8), Minneapolis, MN.
] M. Dantone, J. Gall, C. Leistner and L. Van Gool.(2013). Human Pose Estimation Using Body Parts Dependent Joint Regressors, Computer Vision and Pattern Recognition (CVPR), (pp. 3041-3048) IEEE Conference on, Portland, OR.
F. Ofli, R. Chaudhry, G. Kurillo, R. Vidal and R. Bajcsy,( 2012). Sequence of the Most Informative Joints (SMIJ): A new representation for human skeletal action recognition, (pp. 8-13) IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops, Providence, RI.
dc.rights.spa.fl_str_mv Derechos Reservados - Universidad Militar Nueva Granada, 2019
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.spa.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/2.5/co/
dc.rights.creativecommons.spa.fl_str_mv Atribución-NoComercial-SinDerivadas
rights_invalid_str_mv Derechos Reservados - Universidad Militar Nueva Granada, 2019
https://creativecommons.org/licenses/by-nc-nd/2.5/co/
Atribución-NoComercial-SinDerivadas
http://purl.org/coar/access_right/c_abf2
dc.format.mimetype.spa.fl_str_mv application/pdf
dc.coverage.spatial.spa.fl_str_mv Calle 100
dc.publisher.department.spa.fl_str_mv Facultad de Ingeniería
dc.publisher.program.spa.fl_str_mv Ingeniería Multimedia
dc.publisher.faculty.spa.fl_str_mv Ingeniería - Ingeniería en Multimedia
dc.publisher.grantor.spa.fl_str_mv Universidad Militar Nueva Granada
institution Universidad Militar Nueva Granada
bitstream.url.fl_str_mv http://repository.unimilitar.edu.co/bitstream/10654/20718/1/BeltranPerezCristianCamilo2019.pdf
http://repository.unimilitar.edu.co/bitstream/10654/20718/2/license.txt
http://repository.unimilitar.edu.co/bitstream/10654/20718/3/BeltranPerezCristianCamilo2019.pdf.jpg
bitstream.checksum.fl_str_mv e4e5191c096bdc09ffa3841df9c22b77
520e8f0b4e8d2d5c25366f2f78f584b0
e5d225ecbf6f873dba5abcd39ec83c0c
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional UMNG
repository.mail.fl_str_mv bibliodigital@unimilitar.edu.co
_version_ 1837098472522645504
spelling Sánchez Rodríguez, Wilman HeliothBeltrán Peréz, Cristian CamiloSánchez Rodríguez, Wilman HeliothIngeniero MultimediaSierra ballen, Eduard LeonardoCalle 1002019-03-26T15:54:43Z2019-12-26T22:05:26Z2019-03-26T15:54:43Z2019-12-26T22:05:26Z2018-10-26http://hdl.handle.net/10654/20718En este Documento, se estudia la clasificación de poses y movimiento del cuerpo humano. Se construyó una red neuronal convolusional para abordar el problema de clasificación, en donde se definieron 3 poses ideales a clasificar. Se logró una precisión del 84.78% para la identificación de las poses. Se ubicaron en cada una de las poses identificadas, descriptores de para extraer información de movimiento en una secuencia de imágenes. Se definió un marco de estudio que analiza la ubicación de los descriptores ubicados en las áreas de cabeza, torso, brazos y piernas. En donde esta actividad logro un 82.35% de precisión de ubicación en áreas de cabeza y torso, usando este modelo se pudo clasificar el movimiento humano, en donde se ven resultados significativos, cuando se tiene un entorno controlado.Introducción Materiales y Métodos Resultados Conclusiones ReferenciasThis paper, studies human poses classification and human body movement. It was built a convolutional neural network to approach the problem of classification, who they were defined 6 ideal poses to classify. The approach has the advantage of reasoning about pose in a controlled, with an 84.78% of precision. For each pose, a descriptor was located in an area of the human body, were the movement is high. The different descriptors was located in head, torso, arms and legs, were the activity recognition approach an 82.35% of precision.Pregradoapplication/pdfspaDerechos Reservados - Universidad Militar Nueva Granada, 2019https://creativecommons.org/licenses/by-nc-nd/2.5/co/Atribución-NoComercial-SinDerivadashttp://purl.org/coar/access_right/c_abf2Identificación de poses del cuerpo humano para caracterizar y obtener información del movimientoIdentification of Human Body Poses to Characterize and Obtain Movement Informationinfo:eu-repo/semantics/bachelorThesisTrabajo de gradoTexthttp://purl.org/coar/resource_type/c_7a1fPROCESAMIENTO DE IMAGENESRED NERVIOSAFeature extractionImage Classificationimage captureimage processingneural networksExtracción de característicasclasificación de imágenescaptura de imágenesprocesamiento de imágenesredes neuronalesFacultad de IngenieríaIngeniería MultimediaIngeniería - Ingeniería en MultimediaUniversidad Militar Nueva GranadaN. Dalal and B. Triggs, (2005). Histograms of oriented gradients for human detection, (pp. 886-893 vol. 1) IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05), San Diego, CA, USA.L. Wang and D. Suter. (2007) Recognizing Human Activities from Silhouettes: Motion Subspace and Factorial Discriminative Graphical Model, IEEE Conference on Computer Vision and Pattern Recognition.(pp. 1-8), Minneapolis, MN.T. Alexander and S. Christian. Human Pose Estimation via Deep Neural Networks. Google.Y. Jia, E. Shelhamer, J. Donahue, S. Karayev, J. Long, R. Girshick, S. Guadarrama, and T. Darrell 2014. Caffe: Convolutional architecture for fast feature embedding. arXiv preprint arXiv:1408.5093.M. Eichner, M. Marin-Jimenez, A. Zisserman, and V. Ferrari. 2d 2012. articulated human pose estimation and retrieval in (almost) unconstrained still images. International Journal of Computer Vision, 99(2):190–214.Collins, R. T. Gross,R. & Shi, J.(2002). Silhouette-based Human Identification from Body Shape and Gait. "Automatic Face and Gesture Recongnition.G. Mori, X. Ren, A. Alexei and J. (2004). Malik. Recovering Human Body Configurations: Combining Segmentation and Recognition, University of Oxford.M. Hoai, Z. Z. Lan and F. De la Torre. (2011). Joint segmentation and classification of human actions in video, Computer Vision and Pattern Recognition (CVPR), (pp. 3265-3272), IEEE Conference on, Providence.] L. Wang and D. Suter. (2007) Recognizing Human Activities from Silhouettes: Motion Subspace and Factorial Discriminative Graphical Model, IEEE Conference on Computer Vision and Pattern Recognition.(pp. 1-8), Minneapolis, MN.] M. Dantone, J. Gall, C. Leistner and L. Van Gool.(2013). Human Pose Estimation Using Body Parts Dependent Joint Regressors, Computer Vision and Pattern Recognition (CVPR), (pp. 3041-3048) IEEE Conference on, Portland, OR.F. Ofli, R. Chaudhry, G. Kurillo, R. Vidal and R. Bajcsy,( 2012). Sequence of the Most Informative Joints (SMIJ): A new representation for human skeletal action recognition, (pp. 8-13) IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops, Providence, RI.ORIGINALBeltranPerezCristianCamilo2019.pdfArtículoapplication/pdf843090http://repository.unimilitar.edu.co/bitstream/10654/20718/1/BeltranPerezCristianCamilo2019.pdfe4e5191c096bdc09ffa3841df9c22b77MD51LICENSElicense.txttext/plain2898http://repository.unimilitar.edu.co/bitstream/10654/20718/2/license.txt520e8f0b4e8d2d5c25366f2f78f584b0MD52THUMBNAILBeltranPerezCristianCamilo2019.pdf.jpgIM Thumbnailimage/jpeg5153http://repository.unimilitar.edu.co/bitstream/10654/20718/3/BeltranPerezCristianCamilo2019.pdf.jpge5d225ecbf6f873dba5abcd39ec83c0cMD5310654/20718oai:repository.unimilitar.edu.co:10654/207182020-06-30 12:55:30.692Repositorio Institucional UMNGbibliodigital@unimilitar.edu.coRWwgYXV0b3IgZGUgbGEgb2JyYSAodGVzaXMsIG1vbm9ncmFmw61hIG8gdHJhYmFqbyBkZSBncmFkbyksIGFjdHVhbmRvIGVuIG5vbWJyZSBwcm9waW8sIGhhY2UgZW50cmVnYSBkZWwgZWplbXBsYXIgcmVzcGVjdGl2byB5IGRlCnN1cyBhbmV4b3MgZW4gZm9ybWF0byBkaWdpdGFsIG8gZWxlY3Ryw7NuaWNvLgoKWSBhdXRvcml6YSBhIGxhIFVOSVZFUlNJREFEIE1JTElUQVIgTlVFVkEgR1JBTkFEQSwgcGFyYSBxdWUgZW4gbG9zIHTDqXJtaW5vcyBlc3RhYmxlY2lkb3MgZW46CgpMZXkgMjMgZGUgMTk4Mi0gTGV5IDQ0IGRlIDE5OTMtIERlY2lzacOzbiBBbmRpbmEgMzUxIGRlIDE5OTMtIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLAp1dGlsaWNlIHkgdXNlIHBvciBjdWFscXVpZXIgbWVkaW8gY29ub2NpZG8gbyBwb3IgY29ub2NlciwgbG9zIGRlcmVjaG9zIHBhdHJpbW9uaWFsZXMgZGUgcmVwcm9kdWNjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSwKdHJhbnNmb3JtYWNpw7NuIHkgZGlzdHJpYnVjacOzbiBkZSBsYSBvYnJhIG9iamV0byBkZWwgcHJlc2VudGUgZG9jdW1lbnRvLgoKUEFSw4FHUkFGTzogTGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBzZSBoYWNlIGV4dGVuc2l2YSBubyBzw7NsbyBhIGxhcyBmYWN1bHRhZGVzIHkgZGVyZWNob3MgZGUgdXNvIHNvYnJlIGxhIG9icmEgZW4gZm9ybWF0bwpvIHNvcG9ydGUgbWF0ZXJpYWwsIHNpbm8gdGFtYmnDqW4gcGFyYSBmb3JtYXRvIHZpcnR1YWwsIGVsZWN0csOzbmljbywgZGlnaXRhbCwgeSBjdXlvIHVzbyBzZSBkZSBlbiByZWQsIGludGVybmV0LCBleHRyYW5ldCwgaW50cmFuZXQsIGV0Yy4sCnkgZW4gZ2VuZXJhbCBlbiBjdWFscXVpZXIgZm9ybWF0byBjb25vY2lkbyBvIHBvciBjb25vY2VyLgoKRUwgRVNUVURJQU5URSAtIEFVVE9SLCBtYW5pZmllc3RhIHF1ZSBsYSBvYnJhIG9iamV0byBkZSBsYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIGVzIG9yaWdpbmFsIHkgbGEgcmVhbGl6w7Mgc2luIHZpb2xhciBvIHVzdXJwYXIKZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHBvciBsbyB0YW50bywgbGEgb2JyYSBlcyBkZSBleGNsdXNpdmEgYXV0b3LDrWEgeSB0aWVuZSBsYSB0aXR1bGFyaWRhZCBzb2JyZSBsYSBtaXNtYS4KClBBUsOBR1JBRk86IEVuIGNhc28gZGUgcHJlc2VudGFyc2UgY3VhbHF1aWVyIHJlY2xhbWFjacOzbiBvIGFjY2nDs24gcG9yIHBhcnRlIGRlIHVuIHRlcmNlcm8gZW4gY3VhbnRvIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yCnNvYnJlIGxhIG9icmEgZW4gY3Vlc3Rpw7NuLCBFTCBFU1RVRElBTlRFIC0gQVVUT1IsIGFzdW1pcsOhIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkLCB5IHNhbGRyw6EgZW4gZGVmZW5zYSBkZSBsb3MgZGVyZWNob3MgYXF1w60KYXV0b3JpemFkb3M7IHBhcmEgdG9kb3MgbG9zIGVmZWN0b3MgbGEgdW5pdmVyc2lkYWQgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4KCkFkZW3DoXMsIExBIFVOSVZFUlNJREFEIE1JTElUQVIgTlVFVkEgR1JBTkFEQSBjb21vIGluc3RpdHVjacOzbiBxdWUgYWxtYWNlbmEsIHkgcmVjb2xlY3RhIGRhdG9zIHBlcnNvbmFsZXMsIGF0ZW5kaWVuZG8KbG8gcHJlY2VwdHVhZG8gZW4gbGEgbGV5IDE1ODEgZGUgMjAxMiB5IGVsIERlY3JldG8gMTM3NyBkZSAyMDEzLCBxdWUgZGVzYXJyb2xsYW4gZWwgcHJpbmNpcGlvIGNvbnN0aXR1Y2lvbmFsIHF1ZSB0aWVuZW4gdG9kYXMgbGFzCnBlcnNvbmFzIGEgY29ub2NlciwgYWN0dWFsaXphciB5IHJlY3RpZmljYXIgdG9kbyB0aXBvIGRlIGluZm9ybWFjacOzbiByZWNvZ2lkYSBvLCBxdWUgaGF5YSBzaWRvIG9iamV0byBkZSB0cmF0YW1pZW50byBkZSBkYXRvcwpwZXJzb25hbGVzIGVuIGJhbmNvcyBvIGJhc2VzIGRlIGRhdG9zIHkgZW4gZ2VuZXJhbCBlbiBhcmNoaXZvcyBkZSBlbnRpZGFkZXMgcMO6YmxpY2FzIG8gcHJpdmFkYXMsIHJlcXVpZXJlIG9idGVuZXIgc3UgYXV0b3JpemFjacOzbiwKcGFyYSBxdWUsIGRlIG1hbmVyYSBsaWJyZSwgcHJldmlhLCBleHByZXNhLCB2b2x1bnRhcmlhLCB5IGRlYmlkYW1lbnRlIGluZm9ybWFkYSwgcGVybWl0YSBhIHRvZGFzIG51ZXN0cmFzIGRlcGVuZGVuY2lhcyBhY2Fkw6ltaWNhcwp5IGFkbWluaXN0cmF0aXZhcywgcmVjb2xlY3RhciwgcmVjYXVkYXIsIGFsbWFjZW5hciwgdXNhciwgY2lyY3VsYXIsIHN1cHJpbWlyLCBwcm9jZXNhciwgY29tcGlsYXIsIGludGVyY2FtYmlhciwgZGFyIHRyYXRhbWllbnRvLCBhY3R1YWxpemFyCnkgZGlzcG9uZXIgZGUgbG9zIGRhdG9zIHF1ZSBoYW4gc2lkbyBzdW1pbmlzdHJhZG9zIHkgcXVlIHNlIGhhbiBpbmNvcnBvcmFkbyBlbiBudWVzdHJhcyBiYXNlcyBvIGJhbmNvcyBkZSBkYXRvcywgbyBlbiByZXBvc2l0b3Jpb3MKZWxlY3Ryw7NuaWNvcyBkZSB0b2RvIHRpcG8gY29uIHF1ZSBjdWVudGEgbGEgVW5pdmVyc2lkYWQuCgpFc3RhIGluZm9ybWFjacOzbiBlcyB5IHNlcsOhIHV0aWxpemFkYSBlbiBlbCBkZXNhcnJvbGxvIGRlIGxhcyBmdW5jaW9uZXMgcHJvcGlhcyBkZSBsYSBVbml2ZXJzaWRhZCBlbiBzdSBjb25kaWNpw7NuIGRlIGluc3RpdHVjacOzbiBkZQplZHVjYWNpw7NuIHN1cGVyaW9yLCBkZSBmb3JtYSBkaXJlY3RhIG8gYSB0cmF2w6lzIGRlIHRlcmNlcm9zLgoKTGXDrWRvIGxvIGFudGVyaW9yLCAiQ29uc2llbnRvIHkgYXV0b3Jpem8gYSBsYSBVbml2ZXJzaWRhZCBNaWxpdGFyIE51ZXZhIEdyYW5hZGEgZGUgbWFuZXJhIHByZXZpYSwgZXhwcmVzYSBlIGluZXF1w612b2NhIHBhcmEgcXVlCm1pcyBkYXRvcyBwZXJzb25hbGVzIHNlYW4gdHJhdGFkb3MgY29uZm9ybWUgYSBsbyBwcmV2aXN0byBlbiBlbCBwcmVzZW50ZSBkb2N1bWVudG8iLgoK