Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento
En este Documento, se estudia la clasificación de poses y movimiento del cuerpo humano. Se construyó una red neuronal convolusional para abordar el problema de clasificación, en donde se definieron 3 poses ideales a clasificar. Se logró una precisión del 84.78% para la identificación de las poses. S...
- Autores:
-
Beltrán Peréz, Cristian Camilo
Sánchez Rodríguez, Wilman Helioth
- Tipo de recurso:
- Fecha de publicación:
- 2018
- Institución:
- Universidad Militar Nueva Granada
- Repositorio:
- Repositorio UMNG
- Idioma:
- spa
- OAI Identifier:
- oai:repository.unimilitar.edu.co:10654/20718
- Acceso en línea:
- http://hdl.handle.net/10654/20718
- Palabra clave:
- PROCESAMIENTO DE IMAGENES
RED NERVIOSA
Feature extraction
Image Classification
image capture
image processing
neural networks
Extracción de características
clasificación de imágenes
captura de imágenes
procesamiento de imágenes
redes neuronales
- Rights
- License
- Derechos Reservados - Universidad Militar Nueva Granada, 2019
id |
UNIMILTAR2_d33919eae39677406b0271d5d71148b7 |
---|---|
oai_identifier_str |
oai:repository.unimilitar.edu.co:10654/20718 |
network_acronym_str |
UNIMILTAR2 |
network_name_str |
Repositorio UMNG |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento |
dc.title.translated.spa.fl_str_mv |
Identification of Human Body Poses to Characterize and Obtain Movement Information |
title |
Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento |
spellingShingle |
Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento PROCESAMIENTO DE IMAGENES RED NERVIOSA Feature extraction Image Classification image capture image processing neural networks Extracción de características clasificación de imágenes captura de imágenes procesamiento de imágenes redes neuronales |
title_short |
Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento |
title_full |
Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento |
title_fullStr |
Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento |
title_full_unstemmed |
Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento |
title_sort |
Identificación de poses del cuerpo humano para caracterizar y obtener información del movimiento |
dc.creator.fl_str_mv |
Beltrán Peréz, Cristian Camilo Sánchez Rodríguez, Wilman Helioth |
dc.contributor.advisor.spa.fl_str_mv |
Sánchez Rodríguez, Wilman Helioth |
dc.contributor.author.spa.fl_str_mv |
Beltrán Peréz, Cristian Camilo Sánchez Rodríguez, Wilman Helioth |
dc.contributor.other.spa.fl_str_mv |
Sierra ballen, Eduard Leonardo |
dc.subject.lemb.spa.fl_str_mv |
PROCESAMIENTO DE IMAGENES RED NERVIOSA |
topic |
PROCESAMIENTO DE IMAGENES RED NERVIOSA Feature extraction Image Classification image capture image processing neural networks Extracción de características clasificación de imágenes captura de imágenes procesamiento de imágenes redes neuronales |
dc.subject.keywords.spa.fl_str_mv |
Feature extraction Image Classification image capture image processing neural networks |
dc.subject.proposal.spa.fl_str_mv |
Extracción de características clasificación de imágenes captura de imágenes procesamiento de imágenes redes neuronales |
description |
En este Documento, se estudia la clasificación de poses y movimiento del cuerpo humano. Se construyó una red neuronal convolusional para abordar el problema de clasificación, en donde se definieron 3 poses ideales a clasificar. Se logró una precisión del 84.78% para la identificación de las poses. Se ubicaron en cada una de las poses identificadas, descriptores de para extraer información de movimiento en una secuencia de imágenes. Se definió un marco de estudio que analiza la ubicación de los descriptores ubicados en las áreas de cabeza, torso, brazos y piernas. En donde esta actividad logro un 82.35% de precisión de ubicación en áreas de cabeza y torso, usando este modelo se pudo clasificar el movimiento humano, en donde se ven resultados significativos, cuando se tiene un entorno controlado. |
publishDate |
2018 |
dc.date.issued.none.fl_str_mv |
2018-10-26 |
dc.date.accessioned.none.fl_str_mv |
2019-03-26T15:54:43Z 2019-12-26T22:05:26Z |
dc.date.available.none.fl_str_mv |
2019-03-26T15:54:43Z 2019-12-26T22:05:26Z |
dc.type.spa.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.coar.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.local.spa.fl_str_mv |
Trabajo de grado |
dc.type.dcmi-type-vocabulary.spa.fl_str_mv |
Text |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/10654/20718 |
url |
http://hdl.handle.net/10654/20718 |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.references.spa.fl_str_mv |
N. Dalal and B. Triggs, (2005). Histograms of oriented gradients for human detection, (pp. 886-893 vol. 1) IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05), San Diego, CA, USA. L. Wang and D. Suter. (2007) Recognizing Human Activities from Silhouettes: Motion Subspace and Factorial Discriminative Graphical Model, IEEE Conference on Computer Vision and Pattern Recognition.(pp. 1-8), Minneapolis, MN. T. Alexander and S. Christian. Human Pose Estimation via Deep Neural Networks. Google. Y. Jia, E. Shelhamer, J. Donahue, S. Karayev, J. Long, R. Girshick, S. Guadarrama, and T. Darrell 2014. Caffe: Convolutional architecture for fast feature embedding. arXiv preprint arXiv:1408.5093. M. Eichner, M. Marin-Jimenez, A. Zisserman, and V. Ferrari. 2d 2012. articulated human pose estimation and retrieval in (almost) unconstrained still images. International Journal of Computer Vision, 99(2):190–214. Collins, R. T. Gross,R. & Shi, J.(2002). Silhouette-based Human Identification from Body Shape and Gait. "Automatic Face and Gesture Recongnition. G. Mori, X. Ren, A. Alexei and J. (2004). Malik. Recovering Human Body Configurations: Combining Segmentation and Recognition, University of Oxford. M. Hoai, Z. Z. Lan and F. De la Torre. (2011). Joint segmentation and classification of human actions in video, Computer Vision and Pattern Recognition (CVPR), (pp. 3265-3272), IEEE Conference on, Providence. ] L. Wang and D. Suter. (2007) Recognizing Human Activities from Silhouettes: Motion Subspace and Factorial Discriminative Graphical Model, IEEE Conference on Computer Vision and Pattern Recognition.(pp. 1-8), Minneapolis, MN. ] M. Dantone, J. Gall, C. Leistner and L. Van Gool.(2013). Human Pose Estimation Using Body Parts Dependent Joint Regressors, Computer Vision and Pattern Recognition (CVPR), (pp. 3041-3048) IEEE Conference on, Portland, OR. F. Ofli, R. Chaudhry, G. Kurillo, R. Vidal and R. Bajcsy,( 2012). Sequence of the Most Informative Joints (SMIJ): A new representation for human skeletal action recognition, (pp. 8-13) IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops, Providence, RI. |
dc.rights.spa.fl_str_mv |
Derechos Reservados - Universidad Militar Nueva Granada, 2019 |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.uri.spa.fl_str_mv |
https://creativecommons.org/licenses/by-nc-nd/2.5/co/ |
dc.rights.creativecommons.spa.fl_str_mv |
Atribución-NoComercial-SinDerivadas |
rights_invalid_str_mv |
Derechos Reservados - Universidad Militar Nueva Granada, 2019 https://creativecommons.org/licenses/by-nc-nd/2.5/co/ Atribución-NoComercial-SinDerivadas http://purl.org/coar/access_right/c_abf2 |
dc.format.mimetype.spa.fl_str_mv |
application/pdf |
dc.coverage.spatial.spa.fl_str_mv |
Calle 100 |
dc.publisher.department.spa.fl_str_mv |
Facultad de Ingeniería |
dc.publisher.program.spa.fl_str_mv |
Ingeniería Multimedia |
dc.publisher.faculty.spa.fl_str_mv |
Ingeniería - Ingeniería en Multimedia |
dc.publisher.grantor.spa.fl_str_mv |
Universidad Militar Nueva Granada |
institution |
Universidad Militar Nueva Granada |
bitstream.url.fl_str_mv |
http://repository.unimilitar.edu.co/bitstream/10654/20718/1/BeltranPerezCristianCamilo2019.pdf http://repository.unimilitar.edu.co/bitstream/10654/20718/2/license.txt http://repository.unimilitar.edu.co/bitstream/10654/20718/3/BeltranPerezCristianCamilo2019.pdf.jpg |
bitstream.checksum.fl_str_mv |
e4e5191c096bdc09ffa3841df9c22b77 520e8f0b4e8d2d5c25366f2f78f584b0 e5d225ecbf6f873dba5abcd39ec83c0c |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Institucional UMNG |
repository.mail.fl_str_mv |
bibliodigital@unimilitar.edu.co |
_version_ |
1837098472522645504 |
spelling |
Sánchez Rodríguez, Wilman HeliothBeltrán Peréz, Cristian CamiloSánchez Rodríguez, Wilman HeliothIngeniero MultimediaSierra ballen, Eduard LeonardoCalle 1002019-03-26T15:54:43Z2019-12-26T22:05:26Z2019-03-26T15:54:43Z2019-12-26T22:05:26Z2018-10-26http://hdl.handle.net/10654/20718En este Documento, se estudia la clasificación de poses y movimiento del cuerpo humano. Se construyó una red neuronal convolusional para abordar el problema de clasificación, en donde se definieron 3 poses ideales a clasificar. Se logró una precisión del 84.78% para la identificación de las poses. Se ubicaron en cada una de las poses identificadas, descriptores de para extraer información de movimiento en una secuencia de imágenes. Se definió un marco de estudio que analiza la ubicación de los descriptores ubicados en las áreas de cabeza, torso, brazos y piernas. En donde esta actividad logro un 82.35% de precisión de ubicación en áreas de cabeza y torso, usando este modelo se pudo clasificar el movimiento humano, en donde se ven resultados significativos, cuando se tiene un entorno controlado.Introducción Materiales y Métodos Resultados Conclusiones ReferenciasThis paper, studies human poses classification and human body movement. It was built a convolutional neural network to approach the problem of classification, who they were defined 6 ideal poses to classify. The approach has the advantage of reasoning about pose in a controlled, with an 84.78% of precision. For each pose, a descriptor was located in an area of the human body, were the movement is high. The different descriptors was located in head, torso, arms and legs, were the activity recognition approach an 82.35% of precision.Pregradoapplication/pdfspaDerechos Reservados - Universidad Militar Nueva Granada, 2019https://creativecommons.org/licenses/by-nc-nd/2.5/co/Atribución-NoComercial-SinDerivadashttp://purl.org/coar/access_right/c_abf2Identificación de poses del cuerpo humano para caracterizar y obtener información del movimientoIdentification of Human Body Poses to Characterize and Obtain Movement Informationinfo:eu-repo/semantics/bachelorThesisTrabajo de gradoTexthttp://purl.org/coar/resource_type/c_7a1fPROCESAMIENTO DE IMAGENESRED NERVIOSAFeature extractionImage Classificationimage captureimage processingneural networksExtracción de característicasclasificación de imágenescaptura de imágenesprocesamiento de imágenesredes neuronalesFacultad de IngenieríaIngeniería MultimediaIngeniería - Ingeniería en MultimediaUniversidad Militar Nueva GranadaN. Dalal and B. Triggs, (2005). Histograms of oriented gradients for human detection, (pp. 886-893 vol. 1) IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05), San Diego, CA, USA.L. Wang and D. Suter. (2007) Recognizing Human Activities from Silhouettes: Motion Subspace and Factorial Discriminative Graphical Model, IEEE Conference on Computer Vision and Pattern Recognition.(pp. 1-8), Minneapolis, MN.T. Alexander and S. Christian. Human Pose Estimation via Deep Neural Networks. Google.Y. Jia, E. Shelhamer, J. Donahue, S. Karayev, J. Long, R. Girshick, S. Guadarrama, and T. Darrell 2014. Caffe: Convolutional architecture for fast feature embedding. arXiv preprint arXiv:1408.5093.M. Eichner, M. Marin-Jimenez, A. Zisserman, and V. Ferrari. 2d 2012. articulated human pose estimation and retrieval in (almost) unconstrained still images. International Journal of Computer Vision, 99(2):190–214.Collins, R. T. Gross,R. & Shi, J.(2002). Silhouette-based Human Identification from Body Shape and Gait. "Automatic Face and Gesture Recongnition.G. Mori, X. Ren, A. Alexei and J. (2004). Malik. Recovering Human Body Configurations: Combining Segmentation and Recognition, University of Oxford.M. Hoai, Z. Z. Lan and F. De la Torre. (2011). Joint segmentation and classification of human actions in video, Computer Vision and Pattern Recognition (CVPR), (pp. 3265-3272), IEEE Conference on, Providence.] L. Wang and D. Suter. (2007) Recognizing Human Activities from Silhouettes: Motion Subspace and Factorial Discriminative Graphical Model, IEEE Conference on Computer Vision and Pattern Recognition.(pp. 1-8), Minneapolis, MN.] M. Dantone, J. Gall, C. Leistner and L. Van Gool.(2013). Human Pose Estimation Using Body Parts Dependent Joint Regressors, Computer Vision and Pattern Recognition (CVPR), (pp. 3041-3048) IEEE Conference on, Portland, OR.F. Ofli, R. Chaudhry, G. Kurillo, R. Vidal and R. Bajcsy,( 2012). Sequence of the Most Informative Joints (SMIJ): A new representation for human skeletal action recognition, (pp. 8-13) IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops, Providence, RI.ORIGINALBeltranPerezCristianCamilo2019.pdfArtículoapplication/pdf843090http://repository.unimilitar.edu.co/bitstream/10654/20718/1/BeltranPerezCristianCamilo2019.pdfe4e5191c096bdc09ffa3841df9c22b77MD51LICENSElicense.txttext/plain2898http://repository.unimilitar.edu.co/bitstream/10654/20718/2/license.txt520e8f0b4e8d2d5c25366f2f78f584b0MD52THUMBNAILBeltranPerezCristianCamilo2019.pdf.jpgIM Thumbnailimage/jpeg5153http://repository.unimilitar.edu.co/bitstream/10654/20718/3/BeltranPerezCristianCamilo2019.pdf.jpge5d225ecbf6f873dba5abcd39ec83c0cMD5310654/20718oai:repository.unimilitar.edu.co:10654/207182020-06-30 12:55:30.692Repositorio Institucional UMNGbibliodigital@unimilitar.edu.coRWwgYXV0b3IgZGUgbGEgb2JyYSAodGVzaXMsIG1vbm9ncmFmw61hIG8gdHJhYmFqbyBkZSBncmFkbyksIGFjdHVhbmRvIGVuIG5vbWJyZSBwcm9waW8sIGhhY2UgZW50cmVnYSBkZWwgZWplbXBsYXIgcmVzcGVjdGl2byB5IGRlCnN1cyBhbmV4b3MgZW4gZm9ybWF0byBkaWdpdGFsIG8gZWxlY3Ryw7NuaWNvLgoKWSBhdXRvcml6YSBhIGxhIFVOSVZFUlNJREFEIE1JTElUQVIgTlVFVkEgR1JBTkFEQSwgcGFyYSBxdWUgZW4gbG9zIHTDqXJtaW5vcyBlc3RhYmxlY2lkb3MgZW46CgpMZXkgMjMgZGUgMTk4Mi0gTGV5IDQ0IGRlIDE5OTMtIERlY2lzacOzbiBBbmRpbmEgMzUxIGRlIDE5OTMtIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLAp1dGlsaWNlIHkgdXNlIHBvciBjdWFscXVpZXIgbWVkaW8gY29ub2NpZG8gbyBwb3IgY29ub2NlciwgbG9zIGRlcmVjaG9zIHBhdHJpbW9uaWFsZXMgZGUgcmVwcm9kdWNjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSwKdHJhbnNmb3JtYWNpw7NuIHkgZGlzdHJpYnVjacOzbiBkZSBsYSBvYnJhIG9iamV0byBkZWwgcHJlc2VudGUgZG9jdW1lbnRvLgoKUEFSw4FHUkFGTzogTGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBzZSBoYWNlIGV4dGVuc2l2YSBubyBzw7NsbyBhIGxhcyBmYWN1bHRhZGVzIHkgZGVyZWNob3MgZGUgdXNvIHNvYnJlIGxhIG9icmEgZW4gZm9ybWF0bwpvIHNvcG9ydGUgbWF0ZXJpYWwsIHNpbm8gdGFtYmnDqW4gcGFyYSBmb3JtYXRvIHZpcnR1YWwsIGVsZWN0csOzbmljbywgZGlnaXRhbCwgeSBjdXlvIHVzbyBzZSBkZSBlbiByZWQsIGludGVybmV0LCBleHRyYW5ldCwgaW50cmFuZXQsIGV0Yy4sCnkgZW4gZ2VuZXJhbCBlbiBjdWFscXVpZXIgZm9ybWF0byBjb25vY2lkbyBvIHBvciBjb25vY2VyLgoKRUwgRVNUVURJQU5URSAtIEFVVE9SLCBtYW5pZmllc3RhIHF1ZSBsYSBvYnJhIG9iamV0byBkZSBsYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIGVzIG9yaWdpbmFsIHkgbGEgcmVhbGl6w7Mgc2luIHZpb2xhciBvIHVzdXJwYXIKZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHBvciBsbyB0YW50bywgbGEgb2JyYSBlcyBkZSBleGNsdXNpdmEgYXV0b3LDrWEgeSB0aWVuZSBsYSB0aXR1bGFyaWRhZCBzb2JyZSBsYSBtaXNtYS4KClBBUsOBR1JBRk86IEVuIGNhc28gZGUgcHJlc2VudGFyc2UgY3VhbHF1aWVyIHJlY2xhbWFjacOzbiBvIGFjY2nDs24gcG9yIHBhcnRlIGRlIHVuIHRlcmNlcm8gZW4gY3VhbnRvIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yCnNvYnJlIGxhIG9icmEgZW4gY3Vlc3Rpw7NuLCBFTCBFU1RVRElBTlRFIC0gQVVUT1IsIGFzdW1pcsOhIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkLCB5IHNhbGRyw6EgZW4gZGVmZW5zYSBkZSBsb3MgZGVyZWNob3MgYXF1w60KYXV0b3JpemFkb3M7IHBhcmEgdG9kb3MgbG9zIGVmZWN0b3MgbGEgdW5pdmVyc2lkYWQgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4KCkFkZW3DoXMsIExBIFVOSVZFUlNJREFEIE1JTElUQVIgTlVFVkEgR1JBTkFEQSBjb21vIGluc3RpdHVjacOzbiBxdWUgYWxtYWNlbmEsIHkgcmVjb2xlY3RhIGRhdG9zIHBlcnNvbmFsZXMsIGF0ZW5kaWVuZG8KbG8gcHJlY2VwdHVhZG8gZW4gbGEgbGV5IDE1ODEgZGUgMjAxMiB5IGVsIERlY3JldG8gMTM3NyBkZSAyMDEzLCBxdWUgZGVzYXJyb2xsYW4gZWwgcHJpbmNpcGlvIGNvbnN0aXR1Y2lvbmFsIHF1ZSB0aWVuZW4gdG9kYXMgbGFzCnBlcnNvbmFzIGEgY29ub2NlciwgYWN0dWFsaXphciB5IHJlY3RpZmljYXIgdG9kbyB0aXBvIGRlIGluZm9ybWFjacOzbiByZWNvZ2lkYSBvLCBxdWUgaGF5YSBzaWRvIG9iamV0byBkZSB0cmF0YW1pZW50byBkZSBkYXRvcwpwZXJzb25hbGVzIGVuIGJhbmNvcyBvIGJhc2VzIGRlIGRhdG9zIHkgZW4gZ2VuZXJhbCBlbiBhcmNoaXZvcyBkZSBlbnRpZGFkZXMgcMO6YmxpY2FzIG8gcHJpdmFkYXMsIHJlcXVpZXJlIG9idGVuZXIgc3UgYXV0b3JpemFjacOzbiwKcGFyYSBxdWUsIGRlIG1hbmVyYSBsaWJyZSwgcHJldmlhLCBleHByZXNhLCB2b2x1bnRhcmlhLCB5IGRlYmlkYW1lbnRlIGluZm9ybWFkYSwgcGVybWl0YSBhIHRvZGFzIG51ZXN0cmFzIGRlcGVuZGVuY2lhcyBhY2Fkw6ltaWNhcwp5IGFkbWluaXN0cmF0aXZhcywgcmVjb2xlY3RhciwgcmVjYXVkYXIsIGFsbWFjZW5hciwgdXNhciwgY2lyY3VsYXIsIHN1cHJpbWlyLCBwcm9jZXNhciwgY29tcGlsYXIsIGludGVyY2FtYmlhciwgZGFyIHRyYXRhbWllbnRvLCBhY3R1YWxpemFyCnkgZGlzcG9uZXIgZGUgbG9zIGRhdG9zIHF1ZSBoYW4gc2lkbyBzdW1pbmlzdHJhZG9zIHkgcXVlIHNlIGhhbiBpbmNvcnBvcmFkbyBlbiBudWVzdHJhcyBiYXNlcyBvIGJhbmNvcyBkZSBkYXRvcywgbyBlbiByZXBvc2l0b3Jpb3MKZWxlY3Ryw7NuaWNvcyBkZSB0b2RvIHRpcG8gY29uIHF1ZSBjdWVudGEgbGEgVW5pdmVyc2lkYWQuCgpFc3RhIGluZm9ybWFjacOzbiBlcyB5IHNlcsOhIHV0aWxpemFkYSBlbiBlbCBkZXNhcnJvbGxvIGRlIGxhcyBmdW5jaW9uZXMgcHJvcGlhcyBkZSBsYSBVbml2ZXJzaWRhZCBlbiBzdSBjb25kaWNpw7NuIGRlIGluc3RpdHVjacOzbiBkZQplZHVjYWNpw7NuIHN1cGVyaW9yLCBkZSBmb3JtYSBkaXJlY3RhIG8gYSB0cmF2w6lzIGRlIHRlcmNlcm9zLgoKTGXDrWRvIGxvIGFudGVyaW9yLCAiQ29uc2llbnRvIHkgYXV0b3Jpem8gYSBsYSBVbml2ZXJzaWRhZCBNaWxpdGFyIE51ZXZhIEdyYW5hZGEgZGUgbWFuZXJhIHByZXZpYSwgZXhwcmVzYSBlIGluZXF1w612b2NhIHBhcmEgcXVlCm1pcyBkYXRvcyBwZXJzb25hbGVzIHNlYW4gdHJhdGFkb3MgY29uZm9ybWUgYSBsbyBwcmV2aXN0byBlbiBlbCBwcmVzZW50ZSBkb2N1bWVudG8iLgoK |