Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos

Este documento presenta la aplicación del aprendizaje por refuerzo inverso (IRL por sus siglas en inglés) en un robot humanoide conocido como Poppy Torso, con el fin de realizar movimientos de las extremidades superiores. El aprendizaje por refuerzo inverso se basa en el aprendizaje a partir de las...

Full description

Autores:
Suarez Huertas, Yeison Estiven
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2020
Institución:
Universidad Santo Tomás
Repositorio:
Repositorio Institucional USTA
Idioma:
spa
OAI Identifier:
oai:repository.usta.edu.co:11634/30072
Acceso en línea:
http://hdl.handle.net/11634/30072
Palabra clave:
Reinforcement learning
Inverse reinforcement learning
Computational neural networks
Machine Learning
Python
Poppy torso
Inference objectives
humanoid robot
Redes neuronales computacionales
Aprendizaje de máquina
Inferencia de objetivos
Humanoides
Aprendizaje por refuerzo
Aprendizaje por refuerzo inverso
Python
Poppy Torso
Inferencia de objetivos
Robot Humanoide
Rights
openAccess
License
Atribución-NoComercial 2.5 Colombia
id SANTTOMAS2_eae8092c57955e74ab41d052c81d0e26
oai_identifier_str oai:repository.usta.edu.co:11634/30072
network_acronym_str SANTTOMAS2
network_name_str Repositorio Institucional USTA
repository_id_str
dc.title.spa.fl_str_mv Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos
title Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos
spellingShingle Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos
Reinforcement learning
Inverse reinforcement learning
Computational neural networks
Machine Learning
Python
Poppy torso
Inference objectives
humanoid robot
Redes neuronales computacionales
Aprendizaje de máquina
Inferencia de objetivos
Humanoides
Aprendizaje por refuerzo
Aprendizaje por refuerzo inverso
Python
Poppy Torso
Inferencia de objetivos
Robot Humanoide
title_short Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos
title_full Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos
title_fullStr Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos
title_full_unstemmed Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos
title_sort Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos
dc.creator.fl_str_mv Suarez Huertas, Yeison Estiven
dc.contributor.advisor.spa.fl_str_mv Camacho Poveda, Edgar Camilo
Higuera Arias, Carolina
dc.contributor.author.spa.fl_str_mv Suarez Huertas, Yeison Estiven
dc.contributor.orcid.spa.fl_str_mv https://orcid.org/0000-0002-6084-2512
https://orcid.org/0000-0001-5141-0817
dc.contributor.googlescholar.spa.fl_str_mv https://scholar.google.es/citations?user=tJG988kAAAAJ&hl=es
https://scholar.google.es/citations?user=ZaxycbsAAAAJ&hl=es
dc.contributor.cvlac.spa.fl_str_mv https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001630084
http://scienti.colciencias.gov.co:8081/cvlac/visualizador/generarCurriculoCv.do?cod_rh=
dc.subject.keyword.spa.fl_str_mv Reinforcement learning
Inverse reinforcement learning
Computational neural networks
Machine Learning
Python
Poppy torso
Inference objectives
humanoid robot
topic Reinforcement learning
Inverse reinforcement learning
Computational neural networks
Machine Learning
Python
Poppy torso
Inference objectives
humanoid robot
Redes neuronales computacionales
Aprendizaje de máquina
Inferencia de objetivos
Humanoides
Aprendizaje por refuerzo
Aprendizaje por refuerzo inverso
Python
Poppy Torso
Inferencia de objetivos
Robot Humanoide
dc.subject.lemb.spa.fl_str_mv Redes neuronales computacionales
Aprendizaje de máquina
Inferencia de objetivos
Humanoides
dc.subject.proposal.spa.fl_str_mv Aprendizaje por refuerzo
Aprendizaje por refuerzo inverso
Python
Poppy Torso
Inferencia de objetivos
Robot Humanoide
description Este documento presenta la aplicación del aprendizaje por refuerzo inverso (IRL por sus siglas en inglés) en un robot humanoide conocido como Poppy Torso, con el fin de realizar movimientos de las extremidades superiores. El aprendizaje por refuerzo inverso se basa en el aprendizaje a partir de las demostraciones (trayectorias) de un experto. Con el fin de obtener una utilidad final lo más cercana a la utilidad obtenida por el experto en su recorrido, previamente se implementa un aprendizaje por refuerzo (RL por sus siglas en inglés) con una recompensa plenamente establecida dentro del entorno diseñado, el cual logró cumplir el objetivo que corresponde a generar movimientos desde un punto aleatorio hasta un punto establecido. El robot en simulación logra en la mayoría de los casos (con un porcentaje del 97.5% realizado sobre 1000 pruebas) llegar a su objetivo, tanto por aprendizaje por refuerzo como por refuerzo inverso.
publishDate 2020
dc.date.accessioned.spa.fl_str_mv 2020-09-26T00:10:16Z
dc.date.available.spa.fl_str_mv 2020-09-26T00:10:16Z
dc.date.issued.spa.fl_str_mv 2020-08-16
dc.type.local.spa.fl_str_mv Trabajo de grado
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
dc.type.category.spa.fl_str_mv Formación de Recurso Humano para la Ctel: Trabajo de grado de Pregrado
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.drive.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
format http://purl.org/coar/resource_type/c_7a1f
status_str acceptedVersion
dc.identifier.citation.spa.fl_str_mv Suarez Huertas, Y. E. (2020). Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos [tesis de pregrado, Universidad Santo Tomás] Repositorio instituconal - Universidad Santo Tomás
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/11634/30072
dc.identifier.reponame.spa.fl_str_mv reponame:Repositorio Institucional Universidad Santo Tomás
dc.identifier.instname.spa.fl_str_mv instname:Universidad Santo Tomás
dc.identifier.repourl.spa.fl_str_mv repourl:https://repository.usta.edu.co
identifier_str_mv Suarez Huertas, Y. E. (2020). Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos [tesis de pregrado, Universidad Santo Tomás] Repositorio instituconal - Universidad Santo Tomás
reponame:Repositorio Institucional Universidad Santo Tomás
instname:Universidad Santo Tomás
repourl:https://repository.usta.edu.co
url http://hdl.handle.net/11634/30072
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.spa.fl_str_mv R. S. Sutton and A. G. Barto, Reinforcement Learning: An Introduction. The MIT Press, second ed., 1998.
C. H. Yeison Suarez and E. C. Camacho, “Inverse reinforcement learning application for discrete and continuous environments,” in AETA 2019 - Recent Advances in Electrical Engineering and Related Sciences: Theory and Application, Springer International Publishing, 2020.
J. G. Matthieu Lapeyre, Pierre Rouanet, “The poppy project.” https: //www.poppy-project.org/, 2012.
P. Manceron, “Ikpy library.” https://github.com/Phylliade/ikpy, 2018.
P. Abbeel and A. Y. Ng, ““apprenticeship learning via inverse reinforcement learning, ” in Proceedings of the Twenty-first International Conference on Machine Learning, ICML ’04, (New York, NY, USA),” 2004.
H. van Hasselt, A. Guez, and D. Silver, “Deep reinforcement learning with double q-learning.” https://arxiv.org/pdf/1509.06461.pdf, 2015.
D. S. A. G. I. A. Volodymyr Mnih, Koray Kavukcuoglu, “Playing atari with deep reinforcement learning.” https://arxiv.org/pdf/1312. 5602.pdf, 2013.
N. Ratliff, J. A. Bagnell, and S. S. Srinivasa, “Imitation learning for locomotion and manipulation, ”in 2007 7th IEEE-RAS International Conference on Humanoid Robots. Nov. 2007.
A. J. Ijspeert, J. Nakanishi, and S. Schaal, ““movement imitation with nonlinear dynamical systems in humanoid robots, ” in Proceedings 2002 IEEE International Conference on Robotics and Automation,” vol. 2, p. 1398–1403, May 2002.
K. Mu¨lling, J. Kober, O. Kroemer, and J. Peters, “Learning to select and generalize striking movements in robot table tennis,” The International Journal of Robotics Research, vol. 32, no. 3, p. 263–279, 2013.
B. D. Argall, S. Chernova, M. Veloso, and B. Browning, ““a survey of robot learning from demonstration, ” Robotics and Autonomous Systems,” vol. 57, no. 5, p. 469, 2009.
S. Calinon, F. Guenter, and A. Billard, ““on learning, representing, and generalizing a task in a humanoid robot, ” IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics),” vol. 37, p. 286–298, Apr. 2007.
P. Pastor, H. Hoffmann, T. Asfour, and S. Schaal, “Learning and generalization of motor skills by learning from demonstration, ” in 2009 IEEE International Conference on Robotics and Automation. May 2009.
T. Zhang, Z. McCarthy, O. Jow, D. Lee, K. Goldberg, and P. Abbeel, ““deep imitation learning for complex manipulation tasks from virtual reality teleoperation, ” CoRR,” vol. abs/1710.04615, 2017.
B. C. Stadie, P. Abbeel, and I. Sutskever, “Third-Person Imitation Learning, ” ArXiv e-prints. Mar. 2017.
P. Sermanet, K. Xu, and S. Levine, ““unsupervised perceptual rewards for imitation learning, ” CoRR,” vol. abs/1612.06699, 2017.
P. Sermanet, C. Lynch, Y. Chebotar, J. Hsu, E. Jang, S. Schaal, and S. Levine, “Time-contrastivenetworks: Self-supervised learning from video. 2018.
B. Piot, M. Geist, and O. Pietquin, ““bridging the gap between imitation learning and inverse reinforcement learning,” vol. 28, p. 1814–1826, Aug. 2017.
D. Silver, A. Huang, C. J. Maddison, A. Guez, L. Sifre, G. van den Driessche, J. Schrittwieser, I. Antonoglou, V. Panneershelvam, M. Lanctot, S. Dieleman, D. Grewe, J. Nham, N. Kalchbrenner, I. Sutskever, T. Lillicrap, M. Leach, K. Kavukcuoglu, T. Graepel, and D. Hassabis, “Mastering the game of go with deep neural networks and tree search,” Nature, vol. 529, pp. 484 EP –, Jan 2016. Article.
T. Hester, M. Vecerik, O. Pietquin, M. Lanctot, T. Schaul, B. Piot, D. Horgan, J. Quan, A. Sendonaris, I. Osband, G. Dulac-Arnold, J. Agapiou, J. Z. Leibo, and A. Gruslys, Deep q-learning from demonstrations. feb 2018.
G. Masuyama and K. Umeda, “Apprenticeship learning based on inconsistent demonstrations, ” in 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). 2015.
I. A. D. S. Tom Schaul, John Quan, “Prioritized experience replay.” https://arxiv.org/pdf/1511.05952.pdf, 2016.
dc.rights.*.fl_str_mv Atribución-NoComercial 2.5 Colombia
Atribución-NoComercial 2.5 Colombia
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc/2.5/co/
dc.rights.local.spa.fl_str_mv Abierto (Texto Completo)
dc.rights.accessrights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.coar.none.fl_str_mv http://purl.org/coar/access_right/c_abf2
rights_invalid_str_mv Atribución-NoComercial 2.5 Colombia
http://creativecommons.org/licenses/by-nc/2.5/co/
Abierto (Texto Completo)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.mimetype.spa.fl_str_mv application/pdf
dc.coverage.campus.spa.fl_str_mv CRAI-USTA Bogotá
dc.publisher.spa.fl_str_mv Universidad Santo Tomás
dc.publisher.program.spa.fl_str_mv Pregrado Ingeniería Electrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería Electrónica
institution Universidad Santo Tomás
bitstream.url.fl_str_mv https://repository.usta.edu.co/bitstream/11634/30072/9/2020yeisonsuarez.pdf.jpg
https://repository.usta.edu.co/bitstream/11634/30072/10/cartadeaprobaci%c3%b3n.pdf.jpg
https://repository.usta.edu.co/bitstream/11634/30072/11/cartaderechosdeautor.pdf.jpg
https://repository.usta.edu.co/bitstream/11634/30072/6/2020yeisonsuarez.pdf
https://repository.usta.edu.co/bitstream/11634/30072/4/cartaderechosdeautor.pdf
https://repository.usta.edu.co/bitstream/11634/30072/5/cartadeaprobaci%c3%b3n.pdf
https://repository.usta.edu.co/bitstream/11634/30072/7/license_rdf
https://repository.usta.edu.co/bitstream/11634/30072/8/license.txt
bitstream.checksum.fl_str_mv dc392f2dd91142328ce78898bc5636a2
05f4ad0eda053d38db38051d043c2512
02c47f3138f02e25756b28b348c3cfa4
503ffaa8bb939f2239726e781806ceda
bd28d881be778ca57f1777c648254c04
6b39a7c5da6d115e2ea0810a102d9ddc
40513e59b5d1327fcca263d3c2a2e44a
aedeaf396fcd827b537c73d23464fc27
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Universidad Santo Tomás
repository.mail.fl_str_mv repositorio@usantotomas.edu.co
_version_ 1782026250422845440
spelling Camacho Poveda, Edgar CamiloHiguera Arias, CarolinaSuarez Huertas, Yeison Estivenhttps://orcid.org/0000-0002-6084-2512https://orcid.org/0000-0001-5141-0817https://scholar.google.es/citations?user=tJG988kAAAAJ&hl=eshttps://scholar.google.es/citations?user=ZaxycbsAAAAJ&hl=eshttps://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001630084http://scienti.colciencias.gov.co:8081/cvlac/visualizador/generarCurriculoCv.do?cod_rh=2020-09-26T00:10:16Z2020-09-26T00:10:16Z2020-08-16Suarez Huertas, Y. E. (2020). Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivos [tesis de pregrado, Universidad Santo Tomás] Repositorio instituconal - Universidad Santo Tomáshttp://hdl.handle.net/11634/30072reponame:Repositorio Institucional Universidad Santo Tomásinstname:Universidad Santo Tomásrepourl:https://repository.usta.edu.coEste documento presenta la aplicación del aprendizaje por refuerzo inverso (IRL por sus siglas en inglés) en un robot humanoide conocido como Poppy Torso, con el fin de realizar movimientos de las extremidades superiores. El aprendizaje por refuerzo inverso se basa en el aprendizaje a partir de las demostraciones (trayectorias) de un experto. Con el fin de obtener una utilidad final lo más cercana a la utilidad obtenida por el experto en su recorrido, previamente se implementa un aprendizaje por refuerzo (RL por sus siglas en inglés) con una recompensa plenamente establecida dentro del entorno diseñado, el cual logró cumplir el objetivo que corresponde a generar movimientos desde un punto aleatorio hasta un punto establecido. El robot en simulación logra en la mayoría de los casos (con un porcentaje del 97.5% realizado sobre 1000 pruebas) llegar a su objetivo, tanto por aprendizaje por refuerzo como por refuerzo inverso.This document presents the application of Inverse Reinforcement Learning (IRL) in a humanoid robot known as Poppy Torso, in order to perform upper extremity movements. Inverse Reinforcement Learning (IRL) is based on learning from the demonstrations (trajectories) of an expert. In order to obtain a final utility as close to the utility obtained by the expert in his task, reinforcement learning (RL) is previously implemented with a fully established reward within the designed environment, which achieved fulfill the objective that corresponds to generating movements from a random point to a set point. The robot in simulation achieves in most cases (with a percentage of 97.5% performed on 1000 tests) to reach its objective, both by reinforcement learning and by inverse reinforcement.Ingeniero Electronicohttp://unidadinvestigacion.usta.edu.coPregradoapplication/pdfspaUniversidad Santo TomásPregrado Ingeniería ElectrónicaFacultad de Ingeniería ElectrónicaAtribución-NoComercial 2.5 ColombiaAtribución-NoComercial 2.5 Colombiahttp://creativecommons.org/licenses/by-nc/2.5/co/Abierto (Texto Completo)info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Aprendizaje de movimientos en robot humanoide a partir de inferencia de objetivosReinforcement learningInverse reinforcement learningComputational neural networksMachine LearningPythonPoppy torsoInference objectiveshumanoid robotRedes neuronales computacionalesAprendizaje de máquinaInferencia de objetivosHumanoidesAprendizaje por refuerzoAprendizaje por refuerzo inversoPythonPoppy TorsoInferencia de objetivosRobot HumanoideTrabajo de gradoinfo:eu-repo/semantics/acceptedVersionFormación de Recurso Humano para la Ctel: Trabajo de grado de Pregradohttp://purl.org/coar/resource_type/c_7a1finfo:eu-repo/semantics/bachelorThesisCRAI-USTA BogotáR. S. Sutton and A. G. Barto, Reinforcement Learning: An Introduction. The MIT Press, second ed., 1998.C. H. Yeison Suarez and E. C. Camacho, “Inverse reinforcement learning application for discrete and continuous environments,” in AETA 2019 - Recent Advances in Electrical Engineering and Related Sciences: Theory and Application, Springer International Publishing, 2020.J. G. Matthieu Lapeyre, Pierre Rouanet, “The poppy project.” https: //www.poppy-project.org/, 2012.P. Manceron, “Ikpy library.” https://github.com/Phylliade/ikpy, 2018.P. Abbeel and A. Y. Ng, ““apprenticeship learning via inverse reinforcement learning, ” in Proceedings of the Twenty-first International Conference on Machine Learning, ICML ’04, (New York, NY, USA),” 2004.H. van Hasselt, A. Guez, and D. Silver, “Deep reinforcement learning with double q-learning.” https://arxiv.org/pdf/1509.06461.pdf, 2015.D. S. A. G. I. A. Volodymyr Mnih, Koray Kavukcuoglu, “Playing atari with deep reinforcement learning.” https://arxiv.org/pdf/1312. 5602.pdf, 2013.N. Ratliff, J. A. Bagnell, and S. S. Srinivasa, “Imitation learning for locomotion and manipulation, ”in 2007 7th IEEE-RAS International Conference on Humanoid Robots. Nov. 2007.A. J. Ijspeert, J. Nakanishi, and S. Schaal, ““movement imitation with nonlinear dynamical systems in humanoid robots, ” in Proceedings 2002 IEEE International Conference on Robotics and Automation,” vol. 2, p. 1398–1403, May 2002.K. Mu¨lling, J. Kober, O. Kroemer, and J. Peters, “Learning to select and generalize striking movements in robot table tennis,” The International Journal of Robotics Research, vol. 32, no. 3, p. 263–279, 2013.B. D. Argall, S. Chernova, M. Veloso, and B. Browning, ““a survey of robot learning from demonstration, ” Robotics and Autonomous Systems,” vol. 57, no. 5, p. 469, 2009.S. Calinon, F. Guenter, and A. Billard, ““on learning, representing, and generalizing a task in a humanoid robot, ” IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics),” vol. 37, p. 286–298, Apr. 2007.P. Pastor, H. Hoffmann, T. Asfour, and S. Schaal, “Learning and generalization of motor skills by learning from demonstration, ” in 2009 IEEE International Conference on Robotics and Automation. May 2009.T. Zhang, Z. McCarthy, O. Jow, D. Lee, K. Goldberg, and P. Abbeel, ““deep imitation learning for complex manipulation tasks from virtual reality teleoperation, ” CoRR,” vol. abs/1710.04615, 2017.B. C. Stadie, P. Abbeel, and I. Sutskever, “Third-Person Imitation Learning, ” ArXiv e-prints. Mar. 2017.P. Sermanet, K. Xu, and S. Levine, ““unsupervised perceptual rewards for imitation learning, ” CoRR,” vol. abs/1612.06699, 2017.P. Sermanet, C. Lynch, Y. Chebotar, J. Hsu, E. Jang, S. Schaal, and S. Levine, “Time-contrastivenetworks: Self-supervised learning from video. 2018.B. Piot, M. Geist, and O. Pietquin, ““bridging the gap between imitation learning and inverse reinforcement learning,” vol. 28, p. 1814–1826, Aug. 2017.D. Silver, A. Huang, C. J. Maddison, A. Guez, L. Sifre, G. van den Driessche, J. Schrittwieser, I. Antonoglou, V. Panneershelvam, M. Lanctot, S. Dieleman, D. Grewe, J. Nham, N. Kalchbrenner, I. Sutskever, T. Lillicrap, M. Leach, K. Kavukcuoglu, T. Graepel, and D. Hassabis, “Mastering the game of go with deep neural networks and tree search,” Nature, vol. 529, pp. 484 EP –, Jan 2016. Article.T. Hester, M. Vecerik, O. Pietquin, M. Lanctot, T. Schaul, B. Piot, D. Horgan, J. Quan, A. Sendonaris, I. Osband, G. Dulac-Arnold, J. Agapiou, J. Z. Leibo, and A. Gruslys, Deep q-learning from demonstrations. feb 2018.G. Masuyama and K. Umeda, “Apprenticeship learning based on inconsistent demonstrations, ” in 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). 2015.I. A. D. S. Tom Schaul, John Quan, “Prioritized experience replay.” https://arxiv.org/pdf/1511.05952.pdf, 2016.THUMBNAIL2020yeisonsuarez.pdf.jpg2020yeisonsuarez.pdf.jpgGenerated Thumbnailimage/jpeg2383https://repository.usta.edu.co/bitstream/11634/30072/9/2020yeisonsuarez.pdf.jpgdc392f2dd91142328ce78898bc5636a2MD59open accesscartadeaprobación.pdf.jpgcartadeaprobación.pdf.jpgGenerated Thumbnailimage/jpeg3090https://repository.usta.edu.co/bitstream/11634/30072/10/cartadeaprobaci%c3%b3n.pdf.jpg05f4ad0eda053d38db38051d043c2512MD510metadata only accesscartaderechosdeautor.pdf.jpgcartaderechosdeautor.pdf.jpgGenerated Thumbnailimage/jpeg3641https://repository.usta.edu.co/bitstream/11634/30072/11/cartaderechosdeautor.pdf.jpg02c47f3138f02e25756b28b348c3cfa4MD511metadata only accessORIGINAL2020yeisonsuarez.pdf2020yeisonsuarez.pdfTrabajo de gradoapplication/pdf6383943https://repository.usta.edu.co/bitstream/11634/30072/6/2020yeisonsuarez.pdf503ffaa8bb939f2239726e781806cedaMD56open accesscartaderechosdeautor.pdfcartaderechosdeautor.pdfCarta derechos de autorapplication/pdf3868500https://repository.usta.edu.co/bitstream/11634/30072/4/cartaderechosdeautor.pdfbd28d881be778ca57f1777c648254c04MD54metadata only accesscartadeaprobación.pdfcartadeaprobación.pdfCarta de aprobación de la facultadapplication/pdf131794https://repository.usta.edu.co/bitstream/11634/30072/5/cartadeaprobaci%c3%b3n.pdf6b39a7c5da6d115e2ea0810a102d9ddcMD55metadata only accessCC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8920https://repository.usta.edu.co/bitstream/11634/30072/7/license_rdf40513e59b5d1327fcca263d3c2a2e44aMD57open accessLICENSElicense.txtlicense.txttext/plain; charset=utf-8807https://repository.usta.edu.co/bitstream/11634/30072/8/license.txtaedeaf396fcd827b537c73d23464fc27MD58open access11634/30072oai:repository.usta.edu.co:11634/300722022-10-10 14:54:00.956open accessRepositorio Universidad Santo Tomásrepositorio@usantotomas.edu.coQXV0b3Jpem8gYWwgQ2VudHJvIGRlIFJlY3Vyc29zIHBhcmEgZWwgQXByZW5kaXphamUgeSBsYSBJbnZlc3RpZ2FjacOzbiwgQ1JBSS1VU1RBCmRlIGxhIFVuaXZlcnNpZGFkIFNhbnRvIFRvbcOhcywgcGFyYSBxdWUgY29uIGZpbmVzIGFjYWTDqW1pY29zIGFsbWFjZW5lIGxhCmluZm9ybWFjacOzbiBpbmdyZXNhZGEgcHJldmlhbWVudGUuCgpTZSBwZXJtaXRlIGxhIGNvbnN1bHRhLCByZXByb2R1Y2Npw7NuIHBhcmNpYWwsIHRvdGFsIG8gY2FtYmlvIGRlIGZvcm1hdG8gY29uCmZpbmVzIGRlIGNvbnNlcnZhY2nDs24sIGEgbG9zIHVzdWFyaW9zIGludGVyZXNhZG9zIGVuIGVsIGNvbnRlbmlkbyBkZSBlc3RlCnRyYWJham8sIHBhcmEgdG9kb3MgbG9zIHVzb3MgcXVlIHRlbmdhbiBmaW5hbGlkYWQgYWNhZMOpbWljYSwgc2llbXByZSB5IGN1YW5kbwptZWRpYW50ZSBsYSBjb3JyZXNwb25kaWVudGUgY2l0YSBiaWJsaW9ncsOhZmljYSBzZSBsZSBkw6kgY3LDqWRpdG8gYWwgdHJhYmFqbyBkZQpncmFkbyB5IGEgc3UgYXV0b3IuIERlIGNvbmZvcm1pZGFkIGNvbiBsbyBlc3RhYmxlY2lkbyBlbiBlbCBhcnTDrWN1bG8gMzAgZGUgbGEKTGV5IDIzIGRlIDE5ODIgeSBlbCBhcnTDrWN1bG8gMTEgZGUgbGEgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5Mywg4oCcTG9zIGRlcmVjaG9zCm1vcmFsZXMgc29icmUgZWwgdHJhYmFqbyBzb24gcHJvcGllZGFkIGRlIGxvcyBhdXRvcmVz4oCdLCBsb3MgY3VhbGVzIHNvbgppcnJlbnVuY2lhYmxlcywgaW1wcmVzY3JpcHRpYmxlcywgaW5lbWJhcmdhYmxlcyBlIGluYWxpZW5hYmxlcy4K