Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos
Este documento presenta la aplicación del aprendizaje por refuerzo inverso (IRL por sus siglas en inglés) en un robot humanoide conocido como Poppy Torso, con el fin de realizar movimientos de las extremidades superiores. El aprendizaje por refuerzo inverso se basa en el aprendizaje a partir de las...
- Autores:
-
Suarez Huertas, Yeison Estiven
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2020
- Institución:
- Universidad Santo Tomás
- Repositorio:
- Repositorio Institucional USTA
- Idioma:
- spa
- OAI Identifier:
- oai:repository.usta.edu.co:11634/30072
- Acceso en línea:
- http://hdl.handle.net/11634/30072
- Palabra clave:
- Reinforcement learning
Inverse reinforcement learning
Computational neural networks
Machine Learning
Python
Poppy torso
Inference objectives
humanoid robot
Redes neuronales computacionales
Aprendizaje de máquina
Inferencia de objetivos
Humanoides
Aprendizaje por refuerzo
Aprendizaje por refuerzo inverso
Python
Poppy Torso
Inferencia de objetivos
Robot Humanoide
- Rights
- openAccess
- License
- Atribución-NoComercial 2.5 Colombia
id |
SANTTOMAS2_eae8092c57955e74ab41d052c81d0e26 |
---|---|
oai_identifier_str |
oai:repository.usta.edu.co:11634/30072 |
network_acronym_str |
SANTTOMAS2 |
network_name_str |
Repositorio Institucional USTA |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos |
title |
Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos |
spellingShingle |
Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos Reinforcement learning Inverse reinforcement learning Computational neural networks Machine Learning Python Poppy torso Inference objectives humanoid robot Redes neuronales computacionales Aprendizaje de máquina Inferencia de objetivos Humanoides Aprendizaje por refuerzo Aprendizaje por refuerzo inverso Python Poppy Torso Inferencia de objetivos Robot Humanoide |
title_short |
Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos |
title_full |
Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos |
title_fullStr |
Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos |
title_full_unstemmed |
Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos |
title_sort |
Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos |
dc.creator.fl_str_mv |
Suarez Huertas, Yeison Estiven |
dc.contributor.advisor.spa.fl_str_mv |
Camacho Poveda, Edgar Camilo Higuera Arias, Carolina |
dc.contributor.author.spa.fl_str_mv |
Suarez Huertas, Yeison Estiven |
dc.contributor.orcid.spa.fl_str_mv |
https://orcid.org/0000-0002-6084-2512 https://orcid.org/0000-0001-5141-0817 |
dc.contributor.googlescholar.spa.fl_str_mv |
https://scholar.google.es/citations?user=tJG988kAAAAJ&hl=es https://scholar.google.es/citations?user=ZaxycbsAAAAJ&hl=es |
dc.contributor.cvlac.spa.fl_str_mv |
https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001630084 http://scienti.colciencias.gov.co:8081/cvlac/visualizador/generarCurriculoCv.do?cod_rh= |
dc.subject.keyword.spa.fl_str_mv |
Reinforcement learning Inverse reinforcement learning Computational neural networks Machine Learning Python Poppy torso Inference objectives humanoid robot |
topic |
Reinforcement learning Inverse reinforcement learning Computational neural networks Machine Learning Python Poppy torso Inference objectives humanoid robot Redes neuronales computacionales Aprendizaje de máquina Inferencia de objetivos Humanoides Aprendizaje por refuerzo Aprendizaje por refuerzo inverso Python Poppy Torso Inferencia de objetivos Robot Humanoide |
dc.subject.lemb.spa.fl_str_mv |
Redes neuronales computacionales Aprendizaje de máquina Inferencia de objetivos Humanoides |
dc.subject.proposal.spa.fl_str_mv |
Aprendizaje por refuerzo Aprendizaje por refuerzo inverso Python Poppy Torso Inferencia de objetivos Robot Humanoide |
description |
Este documento presenta la aplicación del aprendizaje por refuerzo inverso (IRL por sus siglas en inglés) en un robot humanoide conocido como Poppy Torso, con el fin de realizar movimientos de las extremidades superiores. El aprendizaje por refuerzo inverso se basa en el aprendizaje a partir de las demostraciones (trayectorias) de un experto. Con el fin de obtener una utilidad final lo más cercana a la utilidad obtenida por el experto en su recorrido, previamente se implementa un aprendizaje por refuerzo (RL por sus siglas en inglés) con una recompensa plenamente establecida dentro del entorno diseñado, el cual logró cumplir el objetivo que corresponde a generar movimientos desde un punto aleatorio hasta un punto establecido. El robot en simulación logra en la mayoría de los casos (con un porcentaje del 97.5% realizado sobre 1000 pruebas) llegar a su objetivo, tanto por aprendizaje por refuerzo como por refuerzo inverso. |
publishDate |
2020 |
dc.date.accessioned.spa.fl_str_mv |
2020-09-26T00:10:16Z |
dc.date.available.spa.fl_str_mv |
2020-09-26T00:10:16Z |
dc.date.issued.spa.fl_str_mv |
2020-08-16 |
dc.type.local.spa.fl_str_mv |
Trabajo de grado |
dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
dc.type.category.spa.fl_str_mv |
Formación de Recurso Humano para la Ctel: Trabajo de grado de Pregrado |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.drive.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.citation.spa.fl_str_mv |
Suarez Huertas, Y. E. (2020). Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos [tesis de pregrado, Universidad Santo Tomás] Repositorio instituconal - Universidad Santo Tomás |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/11634/30072 |
dc.identifier.reponame.spa.fl_str_mv |
reponame:Repositorio Institucional Universidad Santo Tomás |
dc.identifier.instname.spa.fl_str_mv |
instname:Universidad Santo Tomás |
dc.identifier.repourl.spa.fl_str_mv |
repourl:https://repository.usta.edu.co |
identifier_str_mv |
Suarez Huertas, Y. E. (2020). Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos [tesis de pregrado, Universidad Santo Tomás] Repositorio instituconal - Universidad Santo Tomás reponame:Repositorio Institucional Universidad Santo Tomás instname:Universidad Santo Tomás repourl:https://repository.usta.edu.co |
url |
http://hdl.handle.net/11634/30072 |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.references.spa.fl_str_mv |
R. S. Sutton and A. G. Barto, Reinforcement Learning: An Introduction. The MIT Press, second ed., 1998. C. H. Yeison Suarez and E. C. Camacho, “Inverse reinforcement learning application for discrete and continuous environments,” in AETA 2019 - Recent Advances in Electrical Engineering and Related Sciences: Theory and Application, Springer International Publishing, 2020. J. G. Matthieu Lapeyre, Pierre Rouanet, “The poppy project.” https: //www.poppy-project.org/, 2012. P. Manceron, “Ikpy library.” https://github.com/Phylliade/ikpy, 2018. P. Abbeel and A. Y. Ng, ““apprenticeship learning via inverse reinforcement learning, ” in Proceedings of the Twenty-first International Conference on Machine Learning, ICML ’04, (New York, NY, USA),” 2004. H. van Hasselt, A. Guez, and D. Silver, “Deep reinforcement learning with double q-learning.” https://arxiv.org/pdf/1509.06461.pdf, 2015. D. S. A. G. I. A. Volodymyr Mnih, Koray Kavukcuoglu, “Playing atari with deep reinforcement learning.” https://arxiv.org/pdf/1312. 5602.pdf, 2013. N. Ratliff, J. A. Bagnell, and S. S. Srinivasa, “Imitation learning for locomotion and manipulation, ”in 2007 7th IEEE-RAS International Conference on Humanoid Robots. Nov. 2007. A. J. Ijspeert, J. Nakanishi, and S. Schaal, ““movement imitation with nonlinear dynamical systems in humanoid robots, ” in Proceedings 2002 IEEE International Conference on Robotics and Automation,” vol. 2, p. 1398–1403, May 2002. K. Mu¨lling, J. Kober, O. Kroemer, and J. Peters, “Learning to select and generalize striking movements in robot table tennis,” The International Journal of Robotics Research, vol. 32, no. 3, p. 263–279, 2013. B. D. Argall, S. Chernova, M. Veloso, and B. Browning, ““a survey of robot learning from demonstration, ” Robotics and Autonomous Systems,” vol. 57, no. 5, p. 469, 2009. S. Calinon, F. Guenter, and A. Billard, ““on learning, representing, and generalizing a task in a humanoid robot, ” IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics),” vol. 37, p. 286–298, Apr. 2007. P. Pastor, H. Hoffmann, T. Asfour, and S. Schaal, “Learning and generalization of motor skills by learning from demonstration, ” in 2009 IEEE International Conference on Robotics and Automation. May 2009. T. Zhang, Z. McCarthy, O. Jow, D. Lee, K. Goldberg, and P. Abbeel, ““deep imitation learning for complex manipulation tasks from virtual reality teleoperation, ” CoRR,” vol. abs/1710.04615, 2017. B. C. Stadie, P. Abbeel, and I. Sutskever, “Third-Person Imitation Learning, ” ArXiv e-prints. Mar. 2017. P. Sermanet, K. Xu, and S. Levine, ““unsupervised perceptual rewards for imitation learning, ” CoRR,” vol. abs/1612.06699, 2017. P. Sermanet, C. Lynch, Y. Chebotar, J. Hsu, E. Jang, S. Schaal, and S. Levine, “Time-contrastivenetworks: Self-supervised learning from video. 2018. B. Piot, M. Geist, and O. Pietquin, ““bridging the gap between imitation learning and inverse reinforcement learning,” vol. 28, p. 1814–1826, Aug. 2017. D. Silver, A. Huang, C. J. Maddison, A. Guez, L. Sifre, G. van den Driessche, J. Schrittwieser, I. Antonoglou, V. Panneershelvam, M. Lanctot, S. Dieleman, D. Grewe, J. Nham, N. Kalchbrenner, I. Sutskever, T. Lillicrap, M. Leach, K. Kavukcuoglu, T. Graepel, and D. Hassabis, “Mastering the game of go with deep neural networks and tree search,” Nature, vol. 529, pp. 484 EP –, Jan 2016. Article. T. Hester, M. Vecerik, O. Pietquin, M. Lanctot, T. Schaul, B. Piot, D. Horgan, J. Quan, A. Sendonaris, I. Osband, G. Dulac-Arnold, J. Agapiou, J. Z. Leibo, and A. Gruslys, Deep q-learning from demonstrations. feb 2018. G. Masuyama and K. Umeda, “Apprenticeship learning based on inconsistent demonstrations, ” in 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). 2015. I. A. D. S. Tom Schaul, John Quan, “Prioritized experience replay.” https://arxiv.org/pdf/1511.05952.pdf, 2016. |
dc.rights.*.fl_str_mv |
Atribución-NoComercial 2.5 Colombia Atribución-NoComercial 2.5 Colombia |
dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc/2.5/co/ |
dc.rights.local.spa.fl_str_mv |
Abierto (Texto Completo) |
dc.rights.accessrights.none.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.none.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
Atribución-NoComercial 2.5 Colombia http://creativecommons.org/licenses/by-nc/2.5/co/ Abierto (Texto Completo) http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.mimetype.spa.fl_str_mv |
application/pdf |
dc.coverage.campus.spa.fl_str_mv |
CRAI-USTA Bogotá |
dc.publisher.spa.fl_str_mv |
Universidad Santo Tomás |
dc.publisher.program.spa.fl_str_mv |
Pregrado Ingeniería Electrónica |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ingeniería Electrónica |
institution |
Universidad Santo Tomás |
bitstream.url.fl_str_mv |
https://repository.usta.edu.co/bitstream/11634/30072/9/2020yeisonsuarez.pdf.jpg https://repository.usta.edu.co/bitstream/11634/30072/10/cartadeaprobaci%c3%b3n.pdf.jpg https://repository.usta.edu.co/bitstream/11634/30072/11/cartaderechosdeautor.pdf.jpg https://repository.usta.edu.co/bitstream/11634/30072/6/2020yeisonsuarez.pdf https://repository.usta.edu.co/bitstream/11634/30072/4/cartaderechosdeautor.pdf https://repository.usta.edu.co/bitstream/11634/30072/5/cartadeaprobaci%c3%b3n.pdf https://repository.usta.edu.co/bitstream/11634/30072/7/license_rdf https://repository.usta.edu.co/bitstream/11634/30072/8/license.txt |
bitstream.checksum.fl_str_mv |
dc392f2dd91142328ce78898bc5636a2 05f4ad0eda053d38db38051d043c2512 02c47f3138f02e25756b28b348c3cfa4 503ffaa8bb939f2239726e781806ceda bd28d881be778ca57f1777c648254c04 6b39a7c5da6d115e2ea0810a102d9ddc 40513e59b5d1327fcca263d3c2a2e44a aedeaf396fcd827b537c73d23464fc27 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Universidad Santo Tomás |
repository.mail.fl_str_mv |
repositorio@usantotomas.edu.co |
_version_ |
1782026250422845440 |
spelling |
Camacho Poveda, Edgar CamiloHiguera Arias, CarolinaSuarez Huertas, Yeison Estivenhttps://orcid.org/0000-0002-6084-2512https://orcid.org/0000-0001-5141-0817https://scholar.google.es/citations?user=tJG988kAAAAJ&hl=eshttps://scholar.google.es/citations?user=ZaxycbsAAAAJ&hl=eshttps://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001630084http://scienti.colciencias.gov.co:8081/cvlac/visualizador/generarCurriculoCv.do?cod_rh=2020-09-26T00:10:16Z2020-09-26T00:10:16Z2020-08-16Suarez Huertas, Y. E. (2020). Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos [tesis de pregrado, Universidad Santo Tomás] Repositorio instituconal - Universidad Santo Tomáshttp://hdl.handle.net/11634/30072reponame:Repositorio Institucional Universidad Santo Tomásinstname:Universidad Santo Tomásrepourl:https://repository.usta.edu.coEste documento presenta la aplicación del aprendizaje por refuerzo inverso (IRL por sus siglas en inglés) en un robot humanoide conocido como Poppy Torso, con el fin de realizar movimientos de las extremidades superiores. El aprendizaje por refuerzo inverso se basa en el aprendizaje a partir de las demostraciones (trayectorias) de un experto. Con el fin de obtener una utilidad final lo más cercana a la utilidad obtenida por el experto en su recorrido, previamente se implementa un aprendizaje por refuerzo (RL por sus siglas en inglés) con una recompensa plenamente establecida dentro del entorno diseñado, el cual logró cumplir el objetivo que corresponde a generar movimientos desde un punto aleatorio hasta un punto establecido. El robot en simulación logra en la mayoría de los casos (con un porcentaje del 97.5% realizado sobre 1000 pruebas) llegar a su objetivo, tanto por aprendizaje por refuerzo como por refuerzo inverso.This document presents the application of Inverse Reinforcement Learning (IRL) in a humanoid robot known as Poppy Torso, in order to perform upper extremity movements. Inverse Reinforcement Learning (IRL) is based on learning from the demonstrations (trajectories) of an expert. In order to obtain a final utility as close to the utility obtained by the expert in his task, reinforcement learning (RL) is previously implemented with a fully established reward within the designed environment, which achieved fulfill the objective that corresponds to generating movements from a random point to a set point. The robot in simulation achieves in most cases (with a percentage of 97.5% performed on 1000 tests) to reach its objective, both by reinforcement learning and by inverse reinforcement.Ingeniero Electronicohttp://unidadinvestigacion.usta.edu.coPregradoapplication/pdfspaUniversidad Santo TomásPregrado Ingeniería ElectrónicaFacultad de Ingeniería ElectrónicaAtribución-NoComercial 2.5 ColombiaAtribución-NoComercial 2.5 Colombiahttp://creativecommons.org/licenses/by-nc/2.5/co/Abierto (Texto Completo)info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivosReinforcement learningInverse reinforcement learningComputational neural networksMachine LearningPythonPoppy torsoInference objectiveshumanoid robotRedes neuronales computacionalesAprendizaje de máquinaInferencia de objetivosHumanoidesAprendizaje por refuerzoAprendizaje por refuerzo inversoPythonPoppy TorsoInferencia de objetivosRobot HumanoideTrabajo de gradoinfo:eu-repo/semantics/acceptedVersionFormación de Recurso Humano para la Ctel: Trabajo de grado de Pregradohttp://purl.org/coar/resource_type/c_7a1finfo:eu-repo/semantics/bachelorThesisCRAI-USTA BogotáR. S. Sutton and A. G. Barto, Reinforcement Learning: An Introduction. The MIT Press, second ed., 1998.C. H. Yeison Suarez and E. C. Camacho, “Inverse reinforcement learning application for discrete and continuous environments,” in AETA 2019 - Recent Advances in Electrical Engineering and Related Sciences: Theory and Application, Springer International Publishing, 2020.J. G. Matthieu Lapeyre, Pierre Rouanet, “The poppy project.” https: //www.poppy-project.org/, 2012.P. Manceron, “Ikpy library.” https://github.com/Phylliade/ikpy, 2018.P. Abbeel and A. Y. Ng, ““apprenticeship learning via inverse reinforcement learning, ” in Proceedings of the Twenty-first International Conference on Machine Learning, ICML ’04, (New York, NY, USA),” 2004.H. van Hasselt, A. Guez, and D. Silver, “Deep reinforcement learning with double q-learning.” https://arxiv.org/pdf/1509.06461.pdf, 2015.D. S. A. G. I. A. Volodymyr Mnih, Koray Kavukcuoglu, “Playing atari with deep reinforcement learning.” https://arxiv.org/pdf/1312. 5602.pdf, 2013.N. Ratliff, J. A. Bagnell, and S. S. Srinivasa, “Imitation learning for locomotion and manipulation, ”in 2007 7th IEEE-RAS International Conference on Humanoid Robots. Nov. 2007.A. J. Ijspeert, J. Nakanishi, and S. Schaal, ““movement imitation with nonlinear dynamical systems in humanoid robots, ” in Proceedings 2002 IEEE International Conference on Robotics and Automation,” vol. 2, p. 1398–1403, May 2002.K. Mu¨lling, J. Kober, O. Kroemer, and J. Peters, “Learning to select and generalize striking movements in robot table tennis,” The International Journal of Robotics Research, vol. 32, no. 3, p. 263–279, 2013.B. D. Argall, S. Chernova, M. Veloso, and B. Browning, ““a survey of robot learning from demonstration, ” Robotics and Autonomous Systems,” vol. 57, no. 5, p. 469, 2009.S. Calinon, F. Guenter, and A. Billard, ““on learning, representing, and generalizing a task in a humanoid robot, ” IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics),” vol. 37, p. 286–298, Apr. 2007.P. Pastor, H. Hoffmann, T. Asfour, and S. Schaal, “Learning and generalization of motor skills by learning from demonstration, ” in 2009 IEEE International Conference on Robotics and Automation. May 2009.T. Zhang, Z. McCarthy, O. Jow, D. Lee, K. Goldberg, and P. Abbeel, ““deep imitation learning for complex manipulation tasks from virtual reality teleoperation, ” CoRR,” vol. abs/1710.04615, 2017.B. C. Stadie, P. Abbeel, and I. Sutskever, “Third-Person Imitation Learning, ” ArXiv e-prints. Mar. 2017.P. Sermanet, K. Xu, and S. Levine, ““unsupervised perceptual rewards for imitation learning, ” CoRR,” vol. abs/1612.06699, 2017.P. Sermanet, C. Lynch, Y. Chebotar, J. Hsu, E. Jang, S. Schaal, and S. Levine, “Time-contrastivenetworks: Self-supervised learning from video. 2018.B. Piot, M. Geist, and O. Pietquin, ““bridging the gap between imitation learning and inverse reinforcement learning,” vol. 28, p. 1814–1826, Aug. 2017.D. Silver, A. Huang, C. J. Maddison, A. Guez, L. Sifre, G. van den Driessche, J. Schrittwieser, I. Antonoglou, V. Panneershelvam, M. Lanctot, S. Dieleman, D. Grewe, J. Nham, N. Kalchbrenner, I. Sutskever, T. Lillicrap, M. Leach, K. Kavukcuoglu, T. Graepel, and D. Hassabis, “Mastering the game of go with deep neural networks and tree search,” Nature, vol. 529, pp. 484 EP –, Jan 2016. Article.T. Hester, M. Vecerik, O. Pietquin, M. Lanctot, T. Schaul, B. Piot, D. Horgan, J. Quan, A. Sendonaris, I. Osband, G. Dulac-Arnold, J. Agapiou, J. Z. Leibo, and A. Gruslys, Deep q-learning from demonstrations. feb 2018.G. Masuyama and K. Umeda, “Apprenticeship learning based on inconsistent demonstrations, ” in 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). 2015.I. A. D. S. Tom Schaul, John Quan, “Prioritized experience replay.” https://arxiv.org/pdf/1511.05952.pdf, 2016.THUMBNAIL2020yeisonsuarez.pdf.jpg2020yeisonsuarez.pdf.jpgGenerated Thumbnailimage/jpeg2383https://repository.usta.edu.co/bitstream/11634/30072/9/2020yeisonsuarez.pdf.jpgdc392f2dd91142328ce78898bc5636a2MD59open accesscartadeaprobación.pdf.jpgcartadeaprobación.pdf.jpgGenerated Thumbnailimage/jpeg3090https://repository.usta.edu.co/bitstream/11634/30072/10/cartadeaprobaci%c3%b3n.pdf.jpg05f4ad0eda053d38db38051d043c2512MD510metadata only accesscartaderechosdeautor.pdf.jpgcartaderechosdeautor.pdf.jpgGenerated Thumbnailimage/jpeg3641https://repository.usta.edu.co/bitstream/11634/30072/11/cartaderechosdeautor.pdf.jpg02c47f3138f02e25756b28b348c3cfa4MD511metadata only accessORIGINAL2020yeisonsuarez.pdf2020yeisonsuarez.pdfTrabajo de gradoapplication/pdf6383943https://repository.usta.edu.co/bitstream/11634/30072/6/2020yeisonsuarez.pdf503ffaa8bb939f2239726e781806cedaMD56open accesscartaderechosdeautor.pdfcartaderechosdeautor.pdfCarta derechos de autorapplication/pdf3868500https://repository.usta.edu.co/bitstream/11634/30072/4/cartaderechosdeautor.pdfbd28d881be778ca57f1777c648254c04MD54metadata only accesscartadeaprobación.pdfcartadeaprobación.pdfCarta de aprobación de la facultadapplication/pdf131794https://repository.usta.edu.co/bitstream/11634/30072/5/cartadeaprobaci%c3%b3n.pdf6b39a7c5da6d115e2ea0810a102d9ddcMD55metadata only accessCC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8920https://repository.usta.edu.co/bitstream/11634/30072/7/license_rdf40513e59b5d1327fcca263d3c2a2e44aMD57open accessLICENSElicense.txtlicense.txttext/plain; charset=utf-8807https://repository.usta.edu.co/bitstream/11634/30072/8/license.txtaedeaf396fcd827b537c73d23464fc27MD58open access11634/30072oai:repository.usta.edu.co:11634/300722022-10-10 14:54:00.956open accessRepositorio Universidad Santo Tomásrepositorio@usantotomas.edu.coQXV0b3Jpem8gYWwgQ2VudHJvIGRlIFJlY3Vyc29zIHBhcmEgZWwgQXByZW5kaXphamUgeSBsYSBJbnZlc3RpZ2FjacOzbiwgQ1JBSS1VU1RBCmRlIGxhIFVuaXZlcnNpZGFkIFNhbnRvIFRvbcOhcywgcGFyYSBxdWUgY29uIGZpbmVzIGFjYWTDqW1pY29zIGFsbWFjZW5lIGxhCmluZm9ybWFjacOzbiBpbmdyZXNhZGEgcHJldmlhbWVudGUuCgpTZSBwZXJtaXRlIGxhIGNvbnN1bHRhLCByZXByb2R1Y2Npw7NuIHBhcmNpYWwsIHRvdGFsIG8gY2FtYmlvIGRlIGZvcm1hdG8gY29uCmZpbmVzIGRlIGNvbnNlcnZhY2nDs24sIGEgbG9zIHVzdWFyaW9zIGludGVyZXNhZG9zIGVuIGVsIGNvbnRlbmlkbyBkZSBlc3RlCnRyYWJham8sIHBhcmEgdG9kb3MgbG9zIHVzb3MgcXVlIHRlbmdhbiBmaW5hbGlkYWQgYWNhZMOpbWljYSwgc2llbXByZSB5IGN1YW5kbwptZWRpYW50ZSBsYSBjb3JyZXNwb25kaWVudGUgY2l0YSBiaWJsaW9ncsOhZmljYSBzZSBsZSBkw6kgY3LDqWRpdG8gYWwgdHJhYmFqbyBkZQpncmFkbyB5IGEgc3UgYXV0b3IuIERlIGNvbmZvcm1pZGFkIGNvbiBsbyBlc3RhYmxlY2lkbyBlbiBlbCBhcnTDrWN1bG8gMzAgZGUgbGEKTGV5IDIzIGRlIDE5ODIgeSBlbCBhcnTDrWN1bG8gMTEgZGUgbGEgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5Mywg4oCcTG9zIGRlcmVjaG9zCm1vcmFsZXMgc29icmUgZWwgdHJhYmFqbyBzb24gcHJvcGllZGFkIGRlIGxvcyBhdXRvcmVz4oCdLCBsb3MgY3VhbGVzIHNvbgppcnJlbnVuY2lhYmxlcywgaW1wcmVzY3JpcHRpYmxlcywgaW5lbWJhcmdhYmxlcyBlIGluYWxpZW5hYmxlcy4K |