Sistema de Identificación de Objetos en Espacios Cerrados Basado en Segmentación Semántica
Este proyecto propone realizar el reconocimiento de objetos en entornos cerrados basado en segmentación semántica utilizando redes neuronales profundas. Para lograr esto, se han selec- cionado dos arquitecturas de referencia ampliamente utilizadas en el campo de la visión: YOLO (You Only Look Once,...
- Autores:
-
Sarria Arteaga, Angela Maria
Rojas Guayambuco, Angela Maria
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2023
- Institución:
- Universidad Santo Tomás
- Repositorio:
- Repositorio Institucional USTA
- Idioma:
- spa
- OAI Identifier:
- oai:repository.usta.edu.co:11634/53053
- Acceso en línea:
- http://hdl.handle.net/11634/53053
- Palabra clave:
- Visión Artificial
Inteligencia artificial
Ingeniería Electrónica
Redes neuronales profundas
Reconocimiento de objetos
Segmentación semántica
YOLO
Mask R-CNN
Detección de objetos
- Rights
- openAccess
- License
- Atribución-NoComercial-SinDerivadas 2.5 Colombia
| id |
SANTOTOMAS_ecdc531a349957607df57d9090dbc41b |
|---|---|
| oai_identifier_str |
oai:repository.usta.edu.co:11634/53053 |
| network_acronym_str |
SANTOTOMAS |
| network_name_str |
Repositorio Institucional USTA |
| repository_id_str |
|
| dc.title.spa.fl_str_mv |
Sistema de Identificación de Objetos en Espacios Cerrados Basado en Segmentación Semántica |
| title |
Sistema de Identificación de Objetos en Espacios Cerrados Basado en Segmentación Semántica |
| spellingShingle |
Sistema de Identificación de Objetos en Espacios Cerrados Basado en Segmentación Semántica Visión Artificial Inteligencia artificial Ingeniería Electrónica Redes neuronales profundas Reconocimiento de objetos Segmentación semántica YOLO Mask R-CNN Detección de objetos |
| title_short |
Sistema de Identificación de Objetos en Espacios Cerrados Basado en Segmentación Semántica |
| title_full |
Sistema de Identificación de Objetos en Espacios Cerrados Basado en Segmentación Semántica |
| title_fullStr |
Sistema de Identificación de Objetos en Espacios Cerrados Basado en Segmentación Semántica |
| title_full_unstemmed |
Sistema de Identificación de Objetos en Espacios Cerrados Basado en Segmentación Semántica |
| title_sort |
Sistema de Identificación de Objetos en Espacios Cerrados Basado en Segmentación Semántica |
| dc.creator.fl_str_mv |
Sarria Arteaga, Angela Maria Rojas Guayambuco, Angela Maria |
| dc.contributor.advisor.none.fl_str_mv |
Calderon Chávez, Juan Manuel |
| dc.contributor.author.none.fl_str_mv |
Sarria Arteaga, Angela Maria Rojas Guayambuco, Angela Maria |
| dc.contributor.orcid.spa.fl_str_mv |
https://orcid.org/0000-0002-4471-3980 |
| dc.contributor.cvlac.spa.fl_str_mv |
https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000380938 |
| dc.contributor.corporatename.spa.fl_str_mv |
Universidad Santo Tomás |
| dc.subject.lemb.spa.fl_str_mv |
Visión Artificial Inteligencia artificial Ingeniería Electrónica |
| topic |
Visión Artificial Inteligencia artificial Ingeniería Electrónica Redes neuronales profundas Reconocimiento de objetos Segmentación semántica YOLO Mask R-CNN Detección de objetos |
| dc.subject.proposal.spa.fl_str_mv |
Redes neuronales profundas Reconocimiento de objetos Segmentación semántica YOLO Mask R-CNN Detección de objetos |
| description |
Este proyecto propone realizar el reconocimiento de objetos en entornos cerrados basado en segmentación semántica utilizando redes neuronales profundas. Para lograr esto, se han selec- cionado dos arquitecturas de referencia ampliamente utilizadas en el campo de la visión: YOLO (You Only Look Once, YOLOv7) y Mask R-CNN. La elección de la arquitectura YOLOv7 para la detección de objetos se debe a su capacidad para identificar objetos de manera eficiente en tiempo real. YOLO utiliza una única iteración para detectar objetos en una imagen, lo que la hace especialmente adecuada para aplicaciones donde la velocidad es un factor crítico. Por otro lado, la arquitectura Mask R-CNN se seleccionó para abordar la tarea de la segmen- tación semántica. Esta permite asignar una máscara a cada objeto detectado, lo que brinda información detallada de la forma precisa de cada objeto en la imagen. Ambas arquitecturas, YOLO y Mask R-CNN, se han entrenado y evaluado utilizando la reco- nocida base de datos COCO (Common Objects in Context). COCO ofrece una amplia variedad de imágenes etiquetadas y anotadas, lo que permite entrenar las redes neuronales en un conjunto diverso de categorías de objetos y contextos. |
| publishDate |
2023 |
| dc.date.accessioned.none.fl_str_mv |
2023-11-28T20:47:17Z |
| dc.date.available.none.fl_str_mv |
2023-11-28T20:47:17Z |
| dc.date.issued.none.fl_str_mv |
2023-07 |
| dc.type.local.spa.fl_str_mv |
Trabajo de grado |
| dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
| dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
| dc.type.drive.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
| format |
http://purl.org/coar/resource_type/c_7a1f |
| status_str |
acceptedVersion |
| dc.identifier.citation.spa.fl_str_mv |
Sarria Arteaga, A. M. y Rojas Guayambuco, A. M. (2023). Sistema de Identificación de Objetos en Espacios Cerrados Basado en Segmentación Semántica. [Trabajo de Grado, Universidad Santo Tomas´]. Reportorio Institucional. |
| dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/11634/53053 |
| dc.identifier.reponame.spa.fl_str_mv |
reponame:Repositorio Institucional Universidad Santo Tomás |
| dc.identifier.instname.spa.fl_str_mv |
instname:Universidad Santo Tomás |
| dc.identifier.repourl.spa.fl_str_mv |
repourl:https://repository.usta.edu.co |
| identifier_str_mv |
Sarria Arteaga, A. M. y Rojas Guayambuco, A. M. (2023). Sistema de Identificación de Objetos en Espacios Cerrados Basado en Segmentación Semántica. [Trabajo de Grado, Universidad Santo Tomas´]. Reportorio Institucional. reponame:Repositorio Institucional Universidad Santo Tomás instname:Universidad Santo Tomás repourl:https://repository.usta.edu.co |
| url |
http://hdl.handle.net/11634/53053 |
| dc.language.iso.spa.fl_str_mv |
spa |
| language |
spa |
| dc.relation.references.spa.fl_str_mv |
James et al. Image Processing and Computer Vision. 1999. DOI: 10.1007/0-387-24579- 0_5. URL: https://doi.org/10.1007/0-387-24579-0_5. Pedro Meseguer Gonzalez y Ramon Lopez de Mantaras Badia. Inteligencia artificial. Edito rial CSIC Consejo Superior de Investigaciones Cientificas, 2017, pág. 159. ISBN: 9788400102340. URL: https://elibro.net/es/lc/usta/titulos/42319. Xingchao Yan et al. «RAFNet: RGB-D attention feature fusion network for indoor seman tic segmentation». En: Displays 70 (2021), pág. 102082. ISSN: 0141-9382. DOI: https:// doi.org/10.1016/j.displa.2021.102082. URL: https://www.sciencedirect. com/science/article/pii/S0141938221000883. Jinming Cao et al. «RGBD: Learning Depth-Weighted RGB Patches for RGB-D Indoor Semantic Segmentation». En: Neurocomput. 462 (C oct. de 2021), págs. 568-580. ISSN: 0925- 2312. DOI: 10.1016/j.neucom.2021.08.009. URL: https://doi.org/10.1016/ j.neucom.2021.08.009. «Segmentación semántica para reconocimiento de escenas». En: 6.19 (2019), págs. 6-7. URL: http://doi.org/10.1109/ICIP.2014.7025197. Amin Valizadeh y Morteza Shariatee. «The Progress of Medical Image Semantic Segmen tation Methods for Application in COVID-19 Detection». En: Computational intelligence and neuroscience 2021 (nov. de 2021), pág. 7265644. ISSN: 1687-5273. DOI: 10.1155/2021/ 7265644. URL: https : / / pubmed . ncbi . nlm . nih . gov / 34840563 % 20https : //www.ncbi.nlm.nih.gov/pmc/articles/PMC8611358/. Bike Chen, Chen Gong y Jian Yang. «Importance-Aware Semantic Segmentation for Au tonomous Vehicles». En: IEEE Transactions on Intelligent Transportation Systems 20.1 (2019), págs. 137-148. DOI: 10.1109/TITS.2018.2801309 Junho Jo et al. «Handwritten Text Segmentation via End-to-End Learning of Convolutio nal Neural Networks». En: Multimed Tools Applications (jun. de 2019). Mohamed Chouai, Mostefa Merah y Malika Mimi. «CH-Net: Deep adversarial autoenco ders for semantic segmentation in X-ray images of cabin baggage screening at airports». En: Journal of Transportation Security 13 (1 2020), págs. 71-89. ISSN: 1938-775X. DOI: 10. 1007/s12198-020-00211-5. URL: https://doi.org/10.1007/s12198-020- 00211-5. Javier A Cardenas et al. «Intelligent Position Controller for Unmanned Aerial Vehicles (UAV) Based on Supervised Deep Learning». En: Machines 11.6 (2023), pág. 606. Luis G Jaimes y Juan M Calderon. «An UAV-based incentive mechanism for Crowdsen sing with budget constraints». En: 2020 IEEE 17th Annual Consumer Communications & Networking Conference (CCNC). IEEE. 2020, págs. 1-6 GA Cardona et al. «Autonomous navigation for exploration of unknown environments and collision avoidance in mobile robots using reinforcement learning». En: 2019 Southeast Con. IEEE. 2019, págs. 1-7. Javier Alexis Cárdenas et al. «Optimal PID ø axis Control for UAV Quadrotor based on Multi-Objective PSO». En: IFAC-PapersOnLine 55.14 (2022), págs. 101-106. Wilson O Quesada et al. «Leader-follower formation for UAV robot swarm based on fuzzy logic theory». En: Artificial Intelligence and Soft Computing: 17th International Confe rence, ICAISC 2018, Zakopane, Poland, June 3-7, 2018, Proceedings, Part II 17. Springer. 2018, págs. 740-751. César Antonio Toro. «Algoritmos de segmentación semántica para anotación de imáge nes». En: (2019). URL: http://oa.upm.es/55407/1/CESAR_ANTONIO_ORTIZ_ TORO.pdf. Olanda Prieto Ordaz y David Maloof Flores. «Segmentación Semántica para Reconoci miento de Escenas». En: FINGUACH. Revista de Investigación Científica de la Facultad de Ingeniería de la Universidad Autónoma de Chihuahua 6.19 (jun. de 2019), págs. 6, 7. URL: https://vocero.uach.mx/index.php/finguach/article/view/37 Alejandro Barrera et al. Análisis, evaluación e implementación de algoritmos de segmentación semántica para su aplicación en vehículos inteligentes. Universidad Carlos III de Madrid, sep. de 2018. URL: https://github.com/tzutalin/ros_caffe. Yu-Jin Zhang. «Image Segmentation in the Last 40 Years». En: https://services.igi-global.com/resolvedoi/resolve.aspx?doi=10.4018/978- 1-60566-026-4.ch286 (ene. de 2009), págs. 1818-1823. DOI: 10.4018/978- 1- 60566- 026-4.CH286. URL: https://www.igi-global.com/chapter/image-segmentation last-years/13824%20www.igi-global.com/chapter/image-segmentation last-years/13824 Keith Foote. «A Brief History of Semantics - DATAVERSITY». En: (mayo de 2016). URL: https://www.dataversity.net/brief-history-semantics/. Eai Fund Official. «History of image segmentation». En: (oct. de 2018). URL: https:// medium.com/@eaifundoffical/history-of-image-segmentation-655eb793559a. Dhruv Parthasarathy. «A Brief History of CNNs in Image Segmentation: From R-CNN to Mask R-CNN | by Dhruv Parthasarathy | Athelas». En: Athelas (abr. de 2017). URL: https : / / blog . athelas . com / a - brief - history - of - cnns - in - image - segmentation-from-r-cnn-to-mask-r-cnn-34ea83205de4 Xuming He, Richard S Zemel y Miguel Á Carreira-Perpiñán. «Multiscale Conditional Random Fields for Image Labeling». En: Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (2004), págs. 695-703 John et al. «TextonBoost: Joint Appearance, Shape and Context Modeling for Multi-class Object Recognition and Segmentation». En: Computer Vision – ECCV 2006 (2006). Ed. por Horst, Pinz Axel Leonardis Aleš y Bischof, págs. 1-15. Torralba et al. «Context-based vision system for place and object recognition». En: Pro ceedings Ninth IEEE International Conference on Computer Vision (2003), 273-280 vol.1. DOI: 10.1109/ICCV.2003.1238354. Lijun Ren y Yuansheng Liu. «Research on the Application of Semantic Segmentation of driverless vehicles in Park Scene». En: 2020, págs. 342-345. DOI: 10.1109/ISCID51228. 2020.00083. Changshuo Wang et al. «A brief survey on RGB-D semantic segmentation using deep learning». En: Displays 70 (2021), pág. 102080. ISSN: 0141-9382. DOI: https : / / doi . org/10.1016/j.displa.2021.102080. URL: https://www.sciencedirect. com/science/article/pii/S014193822100086X Pedro Ignacio Orellana Rueda. «SEGMENTACIÓN SEMÁNTICA Y RECONOCIMIEN TO DE LUGARES USANDO CARACTERÍSTICAS CNN PREENTRENADAS». Universi dad de chile, 2019. URL: https://repositorio.uchile.cl/bitstream/handle/ 2250/173733/cf-orellana_pr.pdf?sequence=1&isAllowed=y Derek et al. «Indoor Segmentation and Support Inference from RGBD Images». En: Com puter Vision – ECCV 2012 (2012). Ed. por Svetlana et al., págs. 746-760. Kaiming He et al. «Mask R-CNN». En: 2017 IEEE International Conference on Computer Vision (ICCV) (2017), págs. 2980-2988. DOI: 10.1109/ICCV.2017.322. Xin Wang et al. «Path and Floor Detection in Outdoor Environments for Fall Prevention of the Visually Impaired Population». En: 2022 IEEE 19th Annual Consumer Communications & Networking Conference (CCNC). IEEE. 2022, págs. 1-6. Gustavo A Cardona et al. «Visual victim detection and quadrotor-swarm coordination control in search and rescue environment». En: International Journal of Electrical and Com puter Engineering 11.3 (2021), pág. 2079. Seungyong Lee, Seong-Jin Park y Ki-Sang Hong. «RDFNet: RGB-D Multi-level Residual Feature Fusion for Indoor Semantic Segmentation». En: 2017 IEEE International Conference on Computer Vision (ICCV) (2017), págs. 4990-4999. DOI: 10.1109/ICCV.2017.533. Yang He et al. «STD2P: RGBD Semantic Segmentation Using Spatio-Temporal Data-Driven Pooling». En: (2017), págs. 7158-7167. DOI: 10.1109/CVPR.2017.757. Laura J Padilla Reyes et al. «Adaptable Recommendation System for Outfit Selection with Deep Learning Approach». En: IFAC-PapersOnLine 54.13 (2021), págs. 605-610. Steven Ricardo Castro Ramirez y Oscar Felipe Roncancio Avendaño. «Desarrollo de sis tema de navegación para un vehículo terrestre basado en segmentación semántica para ambientes internos controlados». Universidad Piloto de Colombia, ago. de 2021. URL: http://repository.unipiloto.edu.co/handle/20.500.12277/10841 Wenbang Deng et al. «Semantic RGB-D SLAM for Rescue Robot Navigation». En: IEEE Access 8 (oct. de 2020), págs. 221320-221329. ISSN: 21693536. DOI: 10.1109/ACCESS. 2020.3031867. Fude Cao y Qinghai Bao. «A Survey On Image Semantic Segmentation Methods With Convolutional Neural Network». En: 2020 International Conference on Communications, In formation System and Computer Engineering (CISCE). 2020, págs. 458-462. DOI: 10.1109/ CISCE50729.2020.00103. Jiafan Zhuang, Zilei Wang y Bingke Wang. «Distortion-Aware Feature Correction». En: 31.8 (2021), págs. 3128-3139. ZHIJIE LIN et al. «Image style transfer algorithm based on semantic segmentation». En: IEEE Access (ene. de 2021). URL: https://ieeexplore.ieee.org/stamp/stamp. jsp?arnumber=9336718. Fahimeh Fooladgar y Shohreh Kasaei. «A survey on indoor RGB-D semantic segmenta tion: from hand-crafted features to deep convolutional neural networks». En: Multime dia Tools and Applications 79 (7 2020), págs. 4499-4524. ISSN: 1573-7721. DOI: 10.1007/ s11042-019-7684-3. URL: https://doi.org/10.1007/s11042-019-7684-3. Alejandro de Nova Guerrero. «Detección y segmentación de objetos en imágenes pano rámicas». En: (). Rui Zhang et al. «A survey on deep learning-based precise boundary recovery of seman tic segmentation for images and point clouds». En: International Journal of Applied Earth Observation and Geoinformation 102 (2021), pág. 102411. ISSN: 1569-8432. DOI: https:// doi.org/10.1016/j.jag.2021.102411. URL: https://www.sciencedirect. com/science/article/pii/S0303243421001185. Yujian Mo et al. «Review the state-of-the-art technologies of semantic segmentation based on deep learning». En: Neurocomputing 493 (2022), págs. 626-646. ISSN: 0925-2312. DOI: https://doi.org/10.1016/j.neucom.2022.01.005. URL: https://www. sciencedirect.com/science/article/pii/S0925231222000054. Íñigo Alonso Ruiz. «Segmentación Semántica con Modelos de Deep Learning y Etique tados No Densos». Universidad de Zaragoza, ene. de 2018. URL: https://zaguan. unizar.es/record/69800/files/TAZ-TFM-2018-012.pdf. Alberto Garcia-Garcia et al. «A Review on Deep Learning Techniques Applied to Se mantic Segmentation». En: (abr. de 2017). URL: https://arxiv.org/abs/1704. 06857v1. Jeremy Jordan. «An overview of semantic image segmentation.» En: (mayo de 2018). URL: https://www.jeremyjordan.me/semantic-segmentation/. Larry Hardesty. «Neural networks». En: MIT News Office 14 (5 oct. de 2017), págs. 503-519. ISSN: 17518520. DOI: 10.1007/S11633- 017- 1054- 2. URL: https://news.mit. edu/2017/explained-neural-networks-deep-learning-0414 Rahul Chauhan, Kamal Kumar Ghanshala y R. C. Joshi. «Convolutional Neural Network (CNN) for Image Detection and Recognition». En: ICSCCC 2018 - 1st International Con ference on Secure Cyber Computing and Communications (jul. de 2018), págs. 278-282. DOI: 10.1109/ICSCCC.2018.8703316. Vitaly Bushaev. «How do we ‘train’ neural networks». En: Towards data science (nov. de 2017). URL: https://towardsdatascience.com/how-do-we-train-neural networks-edd985562b73. Arden Dertat. Applied Deep Learning. Nov. de 2017. URL: https://towardsdatascience. com/applied-deep-learning-part-4-convolutional-neural-networks 584bc134c1e2. Kevin Gurney y New York. An introduction to neural networks. 1997 Niklas Donges. What Is Transfer Learning? A Guide for Deep Learning | Built In. Sep. de 2022. URL: https://builtin.com/data-science/transfer-learning. Hyeok June Jeong, Kyeong Sik Park y Young Guk Ha. «Image Preprocessing for Efficient Training of YOLO Deep Learning Networks». En: Proceedings - 2018 IEEE International Conference on Big Data and Smart Computing, BigComp 2018 (mayo de 2018), págs. 635-637. DOI: 10.1109/BIGCOMP.2018.00113. Rohit Kundu. YOLO Algorithm for Object Detection Explained. Ene. de 2023. URL: https: //www.v7labs.com/blog/yolo-object-detection. Gaudenz Boesch. YOLOv7: The Fastest Object Detection Algorithm (2023) - viso.ai. URL: https://viso.ai/deep-learning/yolov7-guide/. Learn OpenCV. YOLOv7 Object Detection Paper Explanation and Inference. 2023. URL: https: //learnopencv.com/yolov7-object-detection-paper-explanation-and inference/. Zijia Yang et al. «Tea Tree Pest Detection Algorithm Based on Improved Yolov7-Tiny». En: Agriculture 13.5 (2023), pág. 1031. DOI: 10 . xxxx / agriculture13051031. URL: https://www.mdpi.com/2077-0472/13/5/103 Li Ma et al. «Detection and Counting of Small Target Apples under Complicated Envi ronments by Using Improved YOLOv7-tiny». En: Agronomy 13.5 (2023), pág. 1419. DOI: 10.xxxx/agronomy13051419. URL: https://www.mdpi.com/2073-4395/13/5/ 1419. Rocío Alvarez-Cedrón García-Zarandieta. Implementación de un modelo de detección y segui miento de jugadores de waterpolo para el análisis de modelos de juego. Grado en Ingeniería de Tecnologías y Servicios de Telecomunicación. Universidad Politécnica de Madrid (UPM). 2020. URL: https://oa.upm.es/62753/. Kaiming He et al. «Mask R-CNN». En: Proceedings of the IEEE International Conference on Computer Vision (ICCV). Oct. de 2017. Viso.AI. Everything about Mask R-CNN: A Beginner’s Guide. 2021. URL: https://viso. ai/deep-learning/mask-r-cnn/. Jacob Solawetz. An Introduction to the COCO Dataset. Oct. de 2020. URL: https://blog. roboflow.com/coco-dataset/ Amazon Web Services (AWS). Transformación de los conjuntos de datos de COCO. Fecha de acceso. URL: https://docs.aws.amazon.com/es_es/rekognition/latest/ customlabels-dg/md-transform-coco.html Jacob Solawetz. An Introduction to the COCO Dataset. Oct. de 2020. URL: https://blog. roboflow.com/coco-dataset/#object-detection-with-coco. Xiaolei Wang et al. «A deep learning method for optimizing semantic segmentation ac curacy of remote sensing images based on improved UNet». En: Scientific reports (2023), págs. 1-10. Evan Shelhamer, Jonathan Long y Trevor Darrell. Fully Convolutional Networks for Seman tic Segmentation. 2016. arXiv: 1605.06211 [cs.CV]. Liang-Chien Chen et al. «DeepLab: Semantic Image Segmentation with Deep Convolu tional Nets, Atrous Convolution, and Fully Connected CRFs». En: (mayo de 201 Wei Liu et al. «SSD: Single Shot MultiBox Detector». En: (2016), págs. 21-37. DOI: 10. 1007/978-3-319-46448-0_2 Jose León et al. «Robot swarms theory applicable to seek and rescue operation». En: In telligent Systems Design and Applications: 16th International Conference on Intelligent Systems Design and Applications (ISDA 2016) held in Porto, Portugal, December 16-18, 2016. Springer. 2017, págs. 1061-1070. Gustavo A Cardona y Juan M Calderon. «Robot swarm navigation and victim detection using rendezvous consensus in search and rescue operations». En: Applied Sciences 9.8 (2019), pág. 1702 David Paez et al. «Distributed particle swarm optimization for multi-robot system in search and rescue operations». En: IFAC-PapersOnLine 54.4 (2021), págs. 1-6. Nicolás Gómez et al. «Leader-follower behavior in multi-agent systems for search and rescue based on pso approach». En: SoutheastCon 2022. IEEE. 2022, págs. 413-420. Edgar C Camacho, Nestor I Ospina y Juan M Calderón. «COVID-Bot: UV-C based au tonomous sanitizing robotic platform for COVID-19». En: Ifac-papersonline 54.13 (2021), págs. 317-322. Gustavo A Cardona et al. «Robust adaptive synchronization of interconnected hetero geneous quadrotors transporting a cable-suspended load». En: 2021 IEEE International Conference on Robotics and Automation (ICRA). IEEE. 2021, págs. 31-37 Gustavo A Cardona et al. «Adaptive Multi-Quadrotor Control for Cooperative Transpor tation of a Cable-Suspended Load». En: 2021 European Control Conference (ECC). IEEE. 2021, págs. 696-701 |
| dc.rights.*.fl_str_mv |
Atribución-NoComercial-SinDerivadas 2.5 Colombia |
| dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/2.5/co/ |
| dc.rights.local.spa.fl_str_mv |
Abierto (Texto Completo) |
| dc.rights.accessrights.none.fl_str_mv |
info:eu-repo/semantics/openAccess |
| dc.rights.coar.spa.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
| rights_invalid_str_mv |
Atribución-NoComercial-SinDerivadas 2.5 Colombia http://creativecommons.org/licenses/by-nc-nd/2.5/co/ Abierto (Texto Completo) http://purl.org/coar/access_right/c_abf2 |
| eu_rights_str_mv |
openAccess |
| dc.format.mimetype.spa.fl_str_mv |
application/pdf |
| dc.coverage.campus.spa.fl_str_mv |
CRAI-USTA Bogotá |
| dc.publisher.spa.fl_str_mv |
Universidad Santo Tomás |
| dc.publisher.program.spa.fl_str_mv |
Pregrado Ingeniería Electrónica |
| dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ingeniería Electrónica |
| institution |
Universidad Santo Tomás |
| bitstream.url.fl_str_mv |
https://repository.usta.edu.co/bitstream/11634/53053/6/2023AngelaSarriaAngelaRojas.pdf.jpg https://repository.usta.edu.co/bitstream/11634/53053/7/Carta_aprobacion_Biblioteca....pdf.jpg https://repository.usta.edu.co/bitstream/11634/53053/8/Carta_autorizacion_autoarchivo_autor_2021.pdf.jpg https://repository.usta.edu.co/bitstream/11634/53053/1/2023AngelaSarriaAngelaRojas.pdf https://repository.usta.edu.co/bitstream/11634/53053/2/Carta_aprobacion_Biblioteca....pdf https://repository.usta.edu.co/bitstream/11634/53053/3/Carta_autorizacion_autoarchivo_autor_2021.pdf https://repository.usta.edu.co/bitstream/11634/53053/4/license_rdf https://repository.usta.edu.co/bitstream/11634/53053/5/license.txt |
| bitstream.checksum.fl_str_mv |
f0f93d0bacd9552fe92bd4c50a90d4d6 b3af9cbb58c22ba56e59f5795bc626a3 380489d18abb905543b940d0d2a2ab41 bf3e6a080a8217adabfcb795f6815b4c 850d80f738a12bd8fe56af439566ca8c 30c553c0d42e31fdafbf60cb8683256c 217700a34da79ed616c2feb68d4c5e06 aedeaf396fcd827b537c73d23464fc27 |
| bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
| repository.name.fl_str_mv |
Repositorio Universidad Santo Tomás |
| repository.mail.fl_str_mv |
noreply@usta.edu.co |
| _version_ |
1860881918132748288 |
| spelling |
Calderon Chávez, Juan ManuelSarria Arteaga, Angela MariaRojas Guayambuco, Angela Mariahttps://orcid.org/0000-0002-4471-3980https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000380938Universidad Santo Tomás2023-11-28T20:47:17Z2023-11-28T20:47:17Z2023-07Sarria Arteaga, A. M. y Rojas Guayambuco, A. M. (2023). Sistema de Identificación de Objetos en Espacios Cerrados Basado en Segmentación Semántica. [Trabajo de Grado, Universidad Santo Tomas´]. Reportorio Institucional.http://hdl.handle.net/11634/53053reponame:Repositorio Institucional Universidad Santo Tomásinstname:Universidad Santo Tomásrepourl:https://repository.usta.edu.coEste proyecto propone realizar el reconocimiento de objetos en entornos cerrados basado en segmentación semántica utilizando redes neuronales profundas. Para lograr esto, se han selec- cionado dos arquitecturas de referencia ampliamente utilizadas en el campo de la visión: YOLO (You Only Look Once, YOLOv7) y Mask R-CNN. La elección de la arquitectura YOLOv7 para la detección de objetos se debe a su capacidad para identificar objetos de manera eficiente en tiempo real. YOLO utiliza una única iteración para detectar objetos en una imagen, lo que la hace especialmente adecuada para aplicaciones donde la velocidad es un factor crítico. Por otro lado, la arquitectura Mask R-CNN se seleccionó para abordar la tarea de la segmen- tación semántica. Esta permite asignar una máscara a cada objeto detectado, lo que brinda información detallada de la forma precisa de cada objeto en la imagen. Ambas arquitecturas, YOLO y Mask R-CNN, se han entrenado y evaluado utilizando la reco- nocida base de datos COCO (Common Objects in Context). COCO ofrece una amplia variedad de imágenes etiquetadas y anotadas, lo que permite entrenar las redes neuronales en un conjunto diverso de categorías de objetos y contextos.This project proposes to perform object recognition in indoor environments based on semantic segmentation using deep neural networks. To achieve this, two reference architectures widely used in the vision field have been selected: YOLO (YOLOv7) and Mask R-CNN. The choice of the YOLOv7 architecture for object detection is due to its ability to efficiently identify objects in real time. YOLO uses a single pass through the neural network to detect objects in an image, making it especially suitable for real-time applications where speed is a critical factor. On the other hand, the Mask R-CNN architecture was selected to address the task of semantic segmentation. It is used for mask assigment to each detected object, which provides detailed information on the precise shape of each object in the image. Both architectures, YOLO and Mask R-CNN, have been trained and evaluated using the well- known COCO (Common Objects in Context) database. COCO provides a wide variety of labeled and annotated images, allowing neural networks to be trained on a diverse set of object cate- gories and contexts.Ingeniero ElectronicoPregradoapplication/pdfspaUniversidad Santo TomásPregrado Ingeniería ElectrónicaFacultad de Ingeniería ElectrónicaAtribución-NoComercial-SinDerivadas 2.5 Colombiahttp://creativecommons.org/licenses/by-nc-nd/2.5/co/Abierto (Texto Completo)info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Sistema de Identificación de Objetos en Espacios Cerrados Basado en Segmentación SemánticaVisión ArtificialInteligencia artificialIngeniería ElectrónicaRedes neuronales profundasReconocimiento de objetosSegmentación semánticaYOLOMask R-CNNDetección de objetosTrabajo de gradoinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1finfo:eu-repo/semantics/bachelorThesisCRAI-USTA BogotáJames et al. Image Processing and Computer Vision. 1999. DOI: 10.1007/0-387-24579- 0_5. URL: https://doi.org/10.1007/0-387-24579-0_5.Pedro Meseguer Gonzalez y Ramon Lopez de Mantaras Badia. Inteligencia artificial. Edito rial CSIC Consejo Superior de Investigaciones Cientificas, 2017, pág. 159. ISBN: 9788400102340. URL: https://elibro.net/es/lc/usta/titulos/42319.Xingchao Yan et al. «RAFNet: RGB-D attention feature fusion network for indoor seman tic segmentation». En: Displays 70 (2021), pág. 102082. ISSN: 0141-9382. DOI: https:// doi.org/10.1016/j.displa.2021.102082. URL: https://www.sciencedirect. com/science/article/pii/S0141938221000883.Jinming Cao et al. «RGBD: Learning Depth-Weighted RGB Patches for RGB-D Indoor Semantic Segmentation». En: Neurocomput. 462 (C oct. de 2021), págs. 568-580. ISSN: 0925- 2312. DOI: 10.1016/j.neucom.2021.08.009. URL: https://doi.org/10.1016/ j.neucom.2021.08.009.«Segmentación semántica para reconocimiento de escenas». En: 6.19 (2019), págs. 6-7. URL: http://doi.org/10.1109/ICIP.2014.7025197.Amin Valizadeh y Morteza Shariatee. «The Progress of Medical Image Semantic Segmen tation Methods for Application in COVID-19 Detection». En: Computational intelligence and neuroscience 2021 (nov. de 2021), pág. 7265644. ISSN: 1687-5273. DOI: 10.1155/2021/ 7265644. URL: https : / / pubmed . ncbi . nlm . nih . gov / 34840563 % 20https : //www.ncbi.nlm.nih.gov/pmc/articles/PMC8611358/.Bike Chen, Chen Gong y Jian Yang. «Importance-Aware Semantic Segmentation for Au tonomous Vehicles». En: IEEE Transactions on Intelligent Transportation Systems 20.1 (2019), págs. 137-148. DOI: 10.1109/TITS.2018.2801309Junho Jo et al. «Handwritten Text Segmentation via End-to-End Learning of Convolutio nal Neural Networks». En: Multimed Tools Applications (jun. de 2019).Mohamed Chouai, Mostefa Merah y Malika Mimi. «CH-Net: Deep adversarial autoenco ders for semantic segmentation in X-ray images of cabin baggage screening at airports». En: Journal of Transportation Security 13 (1 2020), págs. 71-89. ISSN: 1938-775X. DOI: 10. 1007/s12198-020-00211-5. URL: https://doi.org/10.1007/s12198-020- 00211-5.Javier A Cardenas et al. «Intelligent Position Controller for Unmanned Aerial Vehicles (UAV) Based on Supervised Deep Learning». En: Machines 11.6 (2023), pág. 606.Luis G Jaimes y Juan M Calderon. «An UAV-based incentive mechanism for Crowdsen sing with budget constraints». En: 2020 IEEE 17th Annual Consumer Communications & Networking Conference (CCNC). IEEE. 2020, págs. 1-6GA Cardona et al. «Autonomous navigation for exploration of unknown environments and collision avoidance in mobile robots using reinforcement learning». En: 2019 Southeast Con. IEEE. 2019, págs. 1-7.Javier Alexis Cárdenas et al. «Optimal PID ø axis Control for UAV Quadrotor based on Multi-Objective PSO». En: IFAC-PapersOnLine 55.14 (2022), págs. 101-106.Wilson O Quesada et al. «Leader-follower formation for UAV robot swarm based on fuzzy logic theory». En: Artificial Intelligence and Soft Computing: 17th International Confe rence, ICAISC 2018, Zakopane, Poland, June 3-7, 2018, Proceedings, Part II 17. Springer. 2018, págs. 740-751.César Antonio Toro. «Algoritmos de segmentación semántica para anotación de imáge nes». En: (2019). URL: http://oa.upm.es/55407/1/CESAR_ANTONIO_ORTIZ_ TORO.pdf.Olanda Prieto Ordaz y David Maloof Flores. «Segmentación Semántica para Reconoci miento de Escenas». En: FINGUACH. Revista de Investigación Científica de la Facultad de Ingeniería de la Universidad Autónoma de Chihuahua 6.19 (jun. de 2019), págs. 6, 7. URL: https://vocero.uach.mx/index.php/finguach/article/view/37Alejandro Barrera et al. Análisis, evaluación e implementación de algoritmos de segmentación semántica para su aplicación en vehículos inteligentes. Universidad Carlos III de Madrid, sep. de 2018. URL: https://github.com/tzutalin/ros_caffe.Yu-Jin Zhang. «Image Segmentation in the Last 40 Years». En: https://services.igi-global.com/resolvedoi/resolve.aspx?doi=10.4018/978- 1-60566-026-4.ch286 (ene. de 2009), págs. 1818-1823. DOI: 10.4018/978- 1- 60566- 026-4.CH286. URL: https://www.igi-global.com/chapter/image-segmentation last-years/13824%20www.igi-global.com/chapter/image-segmentation last-years/13824Keith Foote. «A Brief History of Semantics - DATAVERSITY». En: (mayo de 2016). URL: https://www.dataversity.net/brief-history-semantics/.Eai Fund Official. «History of image segmentation». En: (oct. de 2018). URL: https:// medium.com/@eaifundoffical/history-of-image-segmentation-655eb793559a.Dhruv Parthasarathy. «A Brief History of CNNs in Image Segmentation: From R-CNN to Mask R-CNN | by Dhruv Parthasarathy | Athelas». En: Athelas (abr. de 2017). URL: https : / / blog . athelas . com / a - brief - history - of - cnns - in - image - segmentation-from-r-cnn-to-mask-r-cnn-34ea83205de4Xuming He, Richard S Zemel y Miguel Á Carreira-Perpiñán. «Multiscale Conditional Random Fields for Image Labeling». En: Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (2004), págs. 695-703John et al. «TextonBoost: Joint Appearance, Shape and Context Modeling for Multi-class Object Recognition and Segmentation». En: Computer Vision – ECCV 2006 (2006). Ed. por Horst, Pinz Axel Leonardis Aleš y Bischof, págs. 1-15.Torralba et al. «Context-based vision system for place and object recognition». En: Pro ceedings Ninth IEEE International Conference on Computer Vision (2003), 273-280 vol.1. DOI: 10.1109/ICCV.2003.1238354.Lijun Ren y Yuansheng Liu. «Research on the Application of Semantic Segmentation of driverless vehicles in Park Scene». En: 2020, págs. 342-345. DOI: 10.1109/ISCID51228. 2020.00083.Changshuo Wang et al. «A brief survey on RGB-D semantic segmentation using deep learning». En: Displays 70 (2021), pág. 102080. ISSN: 0141-9382. DOI: https : / / doi . org/10.1016/j.displa.2021.102080. URL: https://www.sciencedirect. com/science/article/pii/S014193822100086XPedro Ignacio Orellana Rueda. «SEGMENTACIÓN SEMÁNTICA Y RECONOCIMIEN TO DE LUGARES USANDO CARACTERÍSTICAS CNN PREENTRENADAS». Universi dad de chile, 2019. URL: https://repositorio.uchile.cl/bitstream/handle/ 2250/173733/cf-orellana_pr.pdf?sequence=1&isAllowed=yDerek et al. «Indoor Segmentation and Support Inference from RGBD Images». En: Com puter Vision – ECCV 2012 (2012). Ed. por Svetlana et al., págs. 746-760.Kaiming He et al. «Mask R-CNN». En: 2017 IEEE International Conference on Computer Vision (ICCV) (2017), págs. 2980-2988. DOI: 10.1109/ICCV.2017.322.Xin Wang et al. «Path and Floor Detection in Outdoor Environments for Fall Prevention of the Visually Impaired Population». En: 2022 IEEE 19th Annual Consumer Communications & Networking Conference (CCNC). IEEE. 2022, págs. 1-6.Gustavo A Cardona et al. «Visual victim detection and quadrotor-swarm coordination control in search and rescue environment». En: International Journal of Electrical and Com puter Engineering 11.3 (2021), pág. 2079.Seungyong Lee, Seong-Jin Park y Ki-Sang Hong. «RDFNet: RGB-D Multi-level Residual Feature Fusion for Indoor Semantic Segmentation». En: 2017 IEEE International Conference on Computer Vision (ICCV) (2017), págs. 4990-4999. DOI: 10.1109/ICCV.2017.533.Yang He et al. «STD2P: RGBD Semantic Segmentation Using Spatio-Temporal Data-Driven Pooling». En: (2017), págs. 7158-7167. DOI: 10.1109/CVPR.2017.757.Laura J Padilla Reyes et al. «Adaptable Recommendation System for Outfit Selection with Deep Learning Approach». En: IFAC-PapersOnLine 54.13 (2021), págs. 605-610.Steven Ricardo Castro Ramirez y Oscar Felipe Roncancio Avendaño. «Desarrollo de sis tema de navegación para un vehículo terrestre basado en segmentación semántica para ambientes internos controlados». Universidad Piloto de Colombia, ago. de 2021. URL: http://repository.unipiloto.edu.co/handle/20.500.12277/10841Wenbang Deng et al. «Semantic RGB-D SLAM for Rescue Robot Navigation». En: IEEE Access 8 (oct. de 2020), págs. 221320-221329. ISSN: 21693536. DOI: 10.1109/ACCESS. 2020.3031867.Fude Cao y Qinghai Bao. «A Survey On Image Semantic Segmentation Methods With Convolutional Neural Network». En: 2020 International Conference on Communications, In formation System and Computer Engineering (CISCE). 2020, págs. 458-462. DOI: 10.1109/ CISCE50729.2020.00103.Jiafan Zhuang, Zilei Wang y Bingke Wang. «Distortion-Aware Feature Correction». En: 31.8 (2021), págs. 3128-3139.ZHIJIE LIN et al. «Image style transfer algorithm based on semantic segmentation». En: IEEE Access (ene. de 2021). URL: https://ieeexplore.ieee.org/stamp/stamp. jsp?arnumber=9336718.Fahimeh Fooladgar y Shohreh Kasaei. «A survey on indoor RGB-D semantic segmenta tion: from hand-crafted features to deep convolutional neural networks». En: Multime dia Tools and Applications 79 (7 2020), págs. 4499-4524. ISSN: 1573-7721. DOI: 10.1007/ s11042-019-7684-3. URL: https://doi.org/10.1007/s11042-019-7684-3.Alejandro de Nova Guerrero. «Detección y segmentación de objetos en imágenes pano rámicas». En: ().Rui Zhang et al. «A survey on deep learning-based precise boundary recovery of seman tic segmentation for images and point clouds». En: International Journal of Applied Earth Observation and Geoinformation 102 (2021), pág. 102411. ISSN: 1569-8432. DOI: https:// doi.org/10.1016/j.jag.2021.102411. URL: https://www.sciencedirect. com/science/article/pii/S0303243421001185.Yujian Mo et al. «Review the state-of-the-art technologies of semantic segmentation based on deep learning». En: Neurocomputing 493 (2022), págs. 626-646. ISSN: 0925-2312. DOI: https://doi.org/10.1016/j.neucom.2022.01.005. URL: https://www. sciencedirect.com/science/article/pii/S0925231222000054.Íñigo Alonso Ruiz. «Segmentación Semántica con Modelos de Deep Learning y Etique tados No Densos». Universidad de Zaragoza, ene. de 2018. URL: https://zaguan. unizar.es/record/69800/files/TAZ-TFM-2018-012.pdf.Alberto Garcia-Garcia et al. «A Review on Deep Learning Techniques Applied to Se mantic Segmentation». En: (abr. de 2017). URL: https://arxiv.org/abs/1704. 06857v1.Jeremy Jordan. «An overview of semantic image segmentation.» En: (mayo de 2018). URL: https://www.jeremyjordan.me/semantic-segmentation/.Larry Hardesty. «Neural networks». En: MIT News Office 14 (5 oct. de 2017), págs. 503-519. ISSN: 17518520. DOI: 10.1007/S11633- 017- 1054- 2. URL: https://news.mit. edu/2017/explained-neural-networks-deep-learning-0414Rahul Chauhan, Kamal Kumar Ghanshala y R. C. Joshi. «Convolutional Neural Network (CNN) for Image Detection and Recognition». En: ICSCCC 2018 - 1st International Con ference on Secure Cyber Computing and Communications (jul. de 2018), págs. 278-282. DOI: 10.1109/ICSCCC.2018.8703316.Vitaly Bushaev. «How do we ‘train’ neural networks». En: Towards data science (nov. de 2017). URL: https://towardsdatascience.com/how-do-we-train-neural networks-edd985562b73.Arden Dertat. Applied Deep Learning. Nov. de 2017. URL: https://towardsdatascience. com/applied-deep-learning-part-4-convolutional-neural-networks 584bc134c1e2.Kevin Gurney y New York. An introduction to neural networks. 1997Niklas Donges. What Is Transfer Learning? A Guide for Deep Learning | Built In. Sep. de 2022. URL: https://builtin.com/data-science/transfer-learning.Hyeok June Jeong, Kyeong Sik Park y Young Guk Ha. «Image Preprocessing for Efficient Training of YOLO Deep Learning Networks». En: Proceedings - 2018 IEEE International Conference on Big Data and Smart Computing, BigComp 2018 (mayo de 2018), págs. 635-637. DOI: 10.1109/BIGCOMP.2018.00113.Rohit Kundu. YOLO Algorithm for Object Detection Explained. Ene. de 2023. URL: https: //www.v7labs.com/blog/yolo-object-detection.Gaudenz Boesch. YOLOv7: The Fastest Object Detection Algorithm (2023) - viso.ai. URL: https://viso.ai/deep-learning/yolov7-guide/.Learn OpenCV. YOLOv7 Object Detection Paper Explanation and Inference. 2023. URL: https: //learnopencv.com/yolov7-object-detection-paper-explanation-and inference/.Zijia Yang et al. «Tea Tree Pest Detection Algorithm Based on Improved Yolov7-Tiny». En: Agriculture 13.5 (2023), pág. 1031. DOI: 10 . xxxx / agriculture13051031. URL: https://www.mdpi.com/2077-0472/13/5/103Li Ma et al. «Detection and Counting of Small Target Apples under Complicated Envi ronments by Using Improved YOLOv7-tiny». En: Agronomy 13.5 (2023), pág. 1419. DOI: 10.xxxx/agronomy13051419. URL: https://www.mdpi.com/2073-4395/13/5/ 1419.Rocío Alvarez-Cedrón García-Zarandieta. Implementación de un modelo de detección y segui miento de jugadores de waterpolo para el análisis de modelos de juego. Grado en Ingeniería de Tecnologías y Servicios de Telecomunicación. Universidad Politécnica de Madrid (UPM). 2020. URL: https://oa.upm.es/62753/.Kaiming He et al. «Mask R-CNN». En: Proceedings of the IEEE International Conference on Computer Vision (ICCV). Oct. de 2017.Viso.AI. Everything about Mask R-CNN: A Beginner’s Guide. 2021. URL: https://viso. ai/deep-learning/mask-r-cnn/.Jacob Solawetz. An Introduction to the COCO Dataset. Oct. de 2020. URL: https://blog. roboflow.com/coco-dataset/Amazon Web Services (AWS). Transformación de los conjuntos de datos de COCO. Fecha de acceso. URL: https://docs.aws.amazon.com/es_es/rekognition/latest/ customlabels-dg/md-transform-coco.htmlJacob Solawetz. An Introduction to the COCO Dataset. Oct. de 2020. URL: https://blog. roboflow.com/coco-dataset/#object-detection-with-coco.Xiaolei Wang et al. «A deep learning method for optimizing semantic segmentation ac curacy of remote sensing images based on improved UNet». En: Scientific reports (2023), págs. 1-10.Evan Shelhamer, Jonathan Long y Trevor Darrell. Fully Convolutional Networks for Seman tic Segmentation. 2016. arXiv: 1605.06211 [cs.CV].Liang-Chien Chen et al. «DeepLab: Semantic Image Segmentation with Deep Convolu tional Nets, Atrous Convolution, and Fully Connected CRFs». En: (mayo de 201Wei Liu et al. «SSD: Single Shot MultiBox Detector». En: (2016), págs. 21-37. DOI: 10. 1007/978-3-319-46448-0_2Jose León et al. «Robot swarms theory applicable to seek and rescue operation». En: In telligent Systems Design and Applications: 16th International Conference on Intelligent Systems Design and Applications (ISDA 2016) held in Porto, Portugal, December 16-18, 2016. Springer. 2017, págs. 1061-1070.Gustavo A Cardona y Juan M Calderon. «Robot swarm navigation and victim detection using rendezvous consensus in search and rescue operations». En: Applied Sciences 9.8 (2019), pág. 1702David Paez et al. «Distributed particle swarm optimization for multi-robot system in search and rescue operations». En: IFAC-PapersOnLine 54.4 (2021), págs. 1-6.Nicolás Gómez et al. «Leader-follower behavior in multi-agent systems for search and rescue based on pso approach». En: SoutheastCon 2022. IEEE. 2022, págs. 413-420.Edgar C Camacho, Nestor I Ospina y Juan M Calderón. «COVID-Bot: UV-C based au tonomous sanitizing robotic platform for COVID-19». En: Ifac-papersonline 54.13 (2021), págs. 317-322.Gustavo A Cardona et al. «Robust adaptive synchronization of interconnected hetero geneous quadrotors transporting a cable-suspended load». En: 2021 IEEE International Conference on Robotics and Automation (ICRA). IEEE. 2021, págs. 31-37Gustavo A Cardona et al. «Adaptive Multi-Quadrotor Control for Cooperative Transpor tation of a Cable-Suspended Load». En: 2021 European Control Conference (ECC). IEEE. 2021, págs. 696-701THUMBNAIL2023AngelaSarriaAngelaRojas.pdf.jpg2023AngelaSarriaAngelaRojas.pdf.jpgIM Thumbnailimage/jpeg7235https://repository.usta.edu.co/bitstream/11634/53053/6/2023AngelaSarriaAngelaRojas.pdf.jpgf0f93d0bacd9552fe92bd4c50a90d4d6MD56open accessCarta_aprobacion_Biblioteca....pdf.jpgCarta_aprobacion_Biblioteca....pdf.jpgIM Thumbnailimage/jpeg7021https://repository.usta.edu.co/bitstream/11634/53053/7/Carta_aprobacion_Biblioteca....pdf.jpgb3af9cbb58c22ba56e59f5795bc626a3MD57open accessCarta_autorizacion_autoarchivo_autor_2021.pdf.jpgCarta_autorizacion_autoarchivo_autor_2021.pdf.jpgIM Thumbnailimage/jpeg7493https://repository.usta.edu.co/bitstream/11634/53053/8/Carta_autorizacion_autoarchivo_autor_2021.pdf.jpg380489d18abb905543b940d0d2a2ab41MD58open accessORIGINAL2023AngelaSarriaAngelaRojas.pdf2023AngelaSarriaAngelaRojas.pdfArticulo trabajo de gradoapplication/pdf22776593https://repository.usta.edu.co/bitstream/11634/53053/1/2023AngelaSarriaAngelaRojas.pdfbf3e6a080a8217adabfcb795f6815b4cMD51open accessCarta_aprobacion_Biblioteca....pdfCarta_aprobacion_Biblioteca....pdfCarta aprobación facultadapplication/pdf161145https://repository.usta.edu.co/bitstream/11634/53053/2/Carta_aprobacion_Biblioteca....pdf850d80f738a12bd8fe56af439566ca8cMD52metadata only accessCarta_autorizacion_autoarchivo_autor_2021.pdfCarta_autorizacion_autoarchivo_autor_2021.pdfCarta cesión de derechosapplication/pdf925706https://repository.usta.edu.co/bitstream/11634/53053/3/Carta_autorizacion_autoarchivo_autor_2021.pdf30c553c0d42e31fdafbf60cb8683256cMD53metadata only accessCC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8811https://repository.usta.edu.co/bitstream/11634/53053/4/license_rdf217700a34da79ed616c2feb68d4c5e06MD54open accessLICENSElicense.txtlicense.txttext/plain; charset=utf-8807https://repository.usta.edu.co/bitstream/11634/53053/5/license.txtaedeaf396fcd827b537c73d23464fc27MD55open access11634/53053oai:repository.usta.edu.co:11634/530532023-11-29 03:02:58.911open accessRepositorio Universidad Santo Tomásnoreply@usta.edu.coQXV0b3Jpem8gYWwgQ2VudHJvIGRlIFJlY3Vyc29zIHBhcmEgZWwgQXByZW5kaXphamUgeSBsYSBJbnZlc3RpZ2FjacOzbiwgQ1JBSS1VU1RBCmRlIGxhIFVuaXZlcnNpZGFkIFNhbnRvIFRvbcOhcywgcGFyYSBxdWUgY29uIGZpbmVzIGFjYWTDqW1pY29zIGFsbWFjZW5lIGxhCmluZm9ybWFjacOzbiBpbmdyZXNhZGEgcHJldmlhbWVudGUuCgpTZSBwZXJtaXRlIGxhIGNvbnN1bHRhLCByZXByb2R1Y2Npw7NuIHBhcmNpYWwsIHRvdGFsIG8gY2FtYmlvIGRlIGZvcm1hdG8gY29uCmZpbmVzIGRlIGNvbnNlcnZhY2nDs24sIGEgbG9zIHVzdWFyaW9zIGludGVyZXNhZG9zIGVuIGVsIGNvbnRlbmlkbyBkZSBlc3RlCnRyYWJham8sIHBhcmEgdG9kb3MgbG9zIHVzb3MgcXVlIHRlbmdhbiBmaW5hbGlkYWQgYWNhZMOpbWljYSwgc2llbXByZSB5IGN1YW5kbwptZWRpYW50ZSBsYSBjb3JyZXNwb25kaWVudGUgY2l0YSBiaWJsaW9ncsOhZmljYSBzZSBsZSBkw6kgY3LDqWRpdG8gYWwgdHJhYmFqbyBkZQpncmFkbyB5IGEgc3UgYXV0b3IuIERlIGNvbmZvcm1pZGFkIGNvbiBsbyBlc3RhYmxlY2lkbyBlbiBlbCBhcnTDrWN1bG8gMzAgZGUgbGEKTGV5IDIzIGRlIDE5ODIgeSBlbCBhcnTDrWN1bG8gMTEgZGUgbGEgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5Mywg4oCcTG9zIGRlcmVjaG9zCm1vcmFsZXMgc29icmUgZWwgdHJhYmFqbyBzb24gcHJvcGllZGFkIGRlIGxvcyBhdXRvcmVz4oCdLCBsb3MgY3VhbGVzIHNvbgppcnJlbnVuY2lhYmxlcywgaW1wcmVzY3JpcHRpYmxlcywgaW5lbWJhcmdhYmxlcyBlIGluYWxpZW5hYmxlcy4K |
