Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario

En los campus universitarios, guiar a personas de manera segura y eficiente es un desafío que los robots móviles pueden afrontar con un adecuado sistema de percepción, con esta motivación el trabajo se enfoca en los desafíos técnicos de desarrollar un sistema de percepción robótica que permita el re...

Full description

Autores:
Fernández Urbano, Alejandro
Guartos Arango, Fabián
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2024
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/15687
Acceso en línea:
https://hdl.handle.net/10614/15687
https://red.uao.edu.co/
Palabra clave:
Ingeniería Mecatrónica
Fusión sensorial
Detección 2D y 3D
Seguimiento de múltiples objetos
Robot móvil
Sensor fusion
2D and 3D detection
Multiple object tracking
Mobile robot
Rights
openAccess
License
Derechos reservados - Universidad Autónoma de Occidente, 2024
id REPOUAO2_3f42365ae24a7a081e0db0c7d5477c79
oai_identifier_str oai:red.uao.edu.co:10614/15687
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario
title Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario
spellingShingle Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario
Ingeniería Mecatrónica
Fusión sensorial
Detección 2D y 3D
Seguimiento de múltiples objetos
Robot móvil
Sensor fusion
2D and 3D detection
Multiple object tracking
Mobile robot
title_short Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario
title_full Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario
title_fullStr Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario
title_full_unstemmed Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario
title_sort Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario
dc.creator.fl_str_mv Fernández Urbano, Alejandro
Guartos Arango, Fabián
dc.contributor.advisor.none.fl_str_mv Llanos Neuta, Nicolas
dc.contributor.author.none.fl_str_mv Fernández Urbano, Alejandro
Guartos Arango, Fabián
dc.contributor.corporatename.spa.fl_str_mv Universidad Autónoma de Occidente
dc.contributor.jury.none.fl_str_mv Velandia Fajardo, Natali
dc.subject.proposal.spa.fl_str_mv Ingeniería Mecatrónica
Fusión sensorial
Detección 2D y 3D
Seguimiento de múltiples objetos
Robot móvil
topic Ingeniería Mecatrónica
Fusión sensorial
Detección 2D y 3D
Seguimiento de múltiples objetos
Robot móvil
Sensor fusion
2D and 3D detection
Multiple object tracking
Mobile robot
dc.subject.proposal.eng.fl_str_mv Sensor fusion
2D and 3D detection
Multiple object tracking
Mobile robot
description En los campus universitarios, guiar a personas de manera segura y eficiente es un desafío que los robots móviles pueden afrontar con un adecuado sistema de percepción, con esta motivación el trabajo se enfoca en los desafíos técnicos de desarrollar un sistema de percepción robótica que permita el reconocimiento y seguimiento de personas, mediante la fusión sensorial de múltiples sensores (cámara y LIDAR), en un entorno universitario. Este sistema propuesto implica tecnología de fusión sensorial y machine learning, para lo cual se utilizaron modelos, conjuntos de datos existentes y un conjunto de datos propio creado a partir de la toma de datos en espacios dentro del campus de la Universidad Autónoma de Occidente. El sistema se implementó en una plataforma móvil y se evaluó mediante pruebas experimentales en tiempo real, para demostrar su desempeño durante el seguimiento de personas. Las pruebas realizadas indican resultados aceptables pese a la aplicación del sistema y al hardware de bajo rendimiento donde se implementó, concluyendo que existe un margen de mejora por parte del algoritmo de seguimiento
publishDate 2024
dc.date.accessioned.none.fl_str_mv 2024-08-01T21:48:25Z
dc.date.available.none.fl_str_mv 2024-08-01T21:48:25Z
dc.date.issued.none.fl_str_mv 2024-07-06
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
dc.type.coar.eng.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.eng.fl_str_mv Text
dc.type.driver.eng.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.eng.fl_str_mv http://purl.org/redcol/resource_type/TP
dc.type.version.eng.fl_str_mv info:eu-repo/semantics/publishedVersion
format http://purl.org/coar/resource_type/c_7a1f
status_str publishedVersion
dc.identifier.citation.spa.fl_str_mv Fernández Urbano, A.; Guartos Arango, F. (2024). Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://hdl.handle.net/10614/15687
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/10614/15687
dc.identifier.instname.spa.fl_str_mv Universidad Autónoma de Occidente
dc.identifier.reponame.spa.fl_str_mv Respositorio Educativo Digital UAO
dc.identifier.repourl.none.fl_str_mv https://red.uao.edu.co/
identifier_str_mv Fernández Urbano, A.; Guartos Arango, F. (2024). Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://hdl.handle.net/10614/15687
Universidad Autónoma de Occidente
Respositorio Educativo Digital UAO
url https://hdl.handle.net/10614/15687
https://red.uao.edu.co/
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.none.fl_str_mv S. Abdi, I. Kitsara, M. S. Hawley, y L. P. de Witte, “Emerging technologies and their potential for generating new assistive technologies”, Assistive Technology, vol. 33, no. sup1, pp. 17–26, Dec. 2021, doi: 10.1080/10400435.2021.1945704. M. B. Alatise y G. P. Hancke, “A Review on Challenges of Autonomous Mobile Robot and Sensor Fusion Methods”, IEEE Access, vol. 8, pp. 39830–39846, 2020, doi: 10.1109/ACCESS.2020.2975643. H-Y. Lin, C-L. Tsai, y V-L. Tran, “Depth Measurement Based on Stereo Vision with Integrated Camera Rotation”, IEEE Trans Instrum Meas, vol. 70, 2021, doi: 10.1109/TIM.2021.3073687. M. Dirik, A. F. Kocamaz, y O. Castillo, “Global Path Planning and Path-Following for Wheeled Mobile Robot Using a Novel Control Structure Based on a Vision Sensor”, International Journal of Fuzzy Systems, vol. 22, no. 6, pp. 1880–1891, Sep. 2020, doi: 10.1007/S40815-020-00888-9/METRICS. E. Blasch, P. Tien, C-Y. Chong, H. Leung, D. Braines, T. Abdelzaher, y W. Koch, “Machine Learning/Artificial Intelligence for Sensor Data Fusion-Opportunities and Challenges”, IEEE Aerospace and Electronic Systems Magazine, vol. 36, no. 7, pp. 80–93, Jul. 2021, doi: 10.1109/MAES.2020.3049030. D. Nahata, y K. Othman, “Exploring the challenges and opportunities of image processing and sensor fusion in autonomous vehicles: A comprehensive review”, AIMS Electronics and Electrical Engineering 2023 4:271, vol. 7, no. 4, pp. 271–321, 2023, doi: 10.3934/ELECTRENG.2023016. J. G. Guarnizo Marin, D. Bautista Díaz, y J. S. Sierra Torres, “Una revisión sobre la evolución de la robótica móvil”, Una revisión sobre la evolución de la robótica móvil, 2021, doi: 10.15332/DT.INV.2021.02848. OMS, “Sordera y pérdida de la audición”, Centro de prensa. Accedido: Apr. 05, 2024. [en línea]. Disponible en: https://www.who.int/es/news-room/factsheets/ detail/deafness-and-hearing-loss Y-T. Cheng, A. Patel, D. Bullock, y A. Habib, “LiDAR-based lane marking extraction through intensity thresholding and deep learning approaches: a pavement-based assessment”, The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XLIII-B3-2020, no. B3, pp. 507–514, Aug. 2020, doi: 10.5194/ISPRS-ARCHIVES-XLIII-B3-2020-507-2020. Y. Li, G. Chai, Y. Wang, L. Lei, y X. Zhang, “ACE R-CNN: An Attention Complementary and Edge Detection-Based Instance Segmentation Algorithm for Individual Tree Species Identification Using UAV RGB Images and LiDAR Data”, Remote Sensing 2022, Vol. 14, Page 3035, vol. 14, no. 13, p. 3035, Jun. 2022, doi: 10.3390/RS14133035. L. Alcayaga, “Filtering of pulsed lidar data using spatial information and a clustering algorithm”, Atmos Meas Tech, vol. 13, no. 11, pp. 6237–6254, Nov. 2020, doi: 10.5194/AMT-13-6237-2020. Y-C. Lin, y A. Habib, “Boosting LiDAR-based Semantic Labeling by Cross-Modal Training Data Generation”, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), vol. 11134 LNCS, pp. 497–513, Apr. 2018, doi: 10.1007/978-3-030-11024-6_39. M. Cordts, M. Omran, S. Ramos, T. Rehfeld, M. Enzweiler, R. Benenson, U. Franke, S. Roth, y B. Schiele, “The Cityscapes Dataset for Semantic Urban Scene Understanding”, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, vol. 2016-December, pp. 3213–3223, Apr. 2016, doi: 10.1109/CVPR.2016.350. Y. Li, A. Linero, y J. Murray, “Adaptive Conditional Distribution Estimation with Bayesian Decision Tree Ensembles”, J Am Stat Assoc, 2023, doi: 10.1080/01621459.2022.2037431. C. Urrea y R. Agramonte, “Kalman Filter: Historical Overview and Review of Its Use in Robotics 60 Years after Its Creation”, J Sens, vol. 2021, 2021, doi: 10.1155/2021/9674015. MechStuff, “How sensors on a Tesla make Self-driving possible? – MechStuff.” Accedido: Feb. 20, 2024. [en línea]. Disponible en: https://mechstuff.com/howsensors- on-a-tesla-make-self-driving-possible/ Tesla, “Tesla Vision Update: Replacing Ultrasonic Sensors with Tesla Vision | Tesla Support.” Accedido: Feb. 20, 2024. [en línea]. Dispoible en: https://www.tesla.com/support/transitioning-tesla-vision Y. Zhang, A. Carballo, H. Yang, y K. Takeda, “Perception and sensing for autonomous vehicles under adverse weather conditions: A survey”, ISPRS Journal of Photogrammetry and Remote Sensing, vol. 196, pp. 146–177, Feb. 2023, doi: 10.1016/J.ISPRSJPRS.2022.12.021. J. Redmon y A. Farhadi, “YOLOv3: An Incremental Improvement”, arXiv. Accedido: Apr. 05, 2024. [en línea]. Disponible en: https://pjreddie.com/darknet/yolo/ A. I. B. Parico y T. Ahamed, “Real time pear fruit detection and counting using yolov4 models and deep sort”, Sensors, vol. 21, no. 14, Jul. 2021, doi: 10.3390/S21144803. G. A. Kumar, J. H. Lee, J. Hwang, J. Park, S. H. Youn, y S. Kwon, “LiDAR and Camera Fusion Approach for Object Distance Estimation in Self-Driving Vehicles”, Symmetry 2020, Vol. 12, Page 324, vol. 12, no. 2, p. 324, Feb. 2020, doi: 10.3390/SYM12020324. G. Boesch, “The 100 Most Popular Computer Vision Applications in 2024 - viso.ai.”, VisoIA Accedido: Feb. 20, 2024. [en línea]. Disponible en: https://viso.ai/applications/computer-vision-applications/ Automatic Addison, “How to perform Camera Calibration Using OpenCV.” Accedido: Feb. 28, 2024. [en línea]. Disponible en: https://automaticaddison.com/how-toperform- camera-calibration-using-opencv/ L. C. Ngugi, M. Abelwahab, y M. Abo-Zahhad, “Recent advances in image processing techniques for automated leaf pest and disease recognition – A review”, Information Processing in Agriculture, vol. 8, no. 1, pp. 27–51, Mar. 2021, doi: 10.1016/J.INPA.2020.04.004. D. Kőnig. "Grafos y su aplicación a la teoría de determinantes y conjuntos.”, Boletín de Ciencias Matemáticas y Naturales, 1931. [en línea]. Disponible en: https://theses.hal.science/file/index/docid/591307/filename/mizunothesefinale.pdf R. Jonker, y A. Volgenant, "A Shortest Augmenting Path Algorithm for Dense and Sparse Linear Assignment Problems", Computing, 1987. [en línea]. Disponible en: https://gwern.net/doc/statistics/decision/1987-jonker.pdf OpenPCDet Development Team, “OpenPCDet: An Open-source Toolbox for 3D Object Detection from Point Clouds”, Github. Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://github.com/open-mmlab/OpenPCDet/tree/master A. Medewar, “LabelImg: The Ultimate Tool for Efficient Data Annotation | by Abhishri Medewar | Medium”, Medium. Accedido: Apr. 06, 2024. [en línea]. Disponible en: https://abhishri-medewar.medium.com/labelimg-the-ultimate-tool-for-efficient-dataannotation-b2fea57fce83 J. Li, H. Dai, L. Shao, y Y. DIng, “From Voxel to Point: IoU-guided 3D Object Detection for Point Cloud with Voxel-to-Point Decoder”, MM 2021 - Proceedings of the 29th ACM International Conference on Multimedia, pp. 4622–4631, Aug. 2021, doi: 10.1145/3474085.3475314. H. Liu, C. Wu, y H. Wang, “Real time object detection using LiDAR and camera fusion for autonomous driving,” Scientific Reports 2023 13:1, vol. 13, no. 1, pp. 1–12, May 2023, doi: 10.1038/s41598-023-35170-z. S. A. Kashinath, S. Mostafa, A. Mustapha, y H. Mahdin, “Review of data fusion methods for real-time and multi-sensor traffic flow analysis”, IEEE Acceso, vol. 9, pp. 51258–51276, 2021, doi: 10.1109/ACCESS.2021.3069770. A. Geiger, P. Lenz, C. Stiller, y R. Urtasun, “Vision meets robotics: The KITTI dataset”, International Journal of Robotics Research, vol. 32, no. 11, pp. 1231–1237, Sep. 2013, doi: 10.1177/0278364913491297/FORMAT/EPUB. W. Zhou, J. S. Berrio, C. de Alvis, M. Shan, “Developing and Testing Robust Autonomy: The University of Sydney Campus Data Set”, IEEE Intelligent Transportation Systems Magazine, vol. 12, no. 4, pp. 23–40, Dec. 2020, doi: 10.1109/MITS.2020.2990183. Motion, “nuScenes: Dataset.” Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://www.nuscenes.org/ H. Caesar, V. Bankiti, A. H. Lang, S. Vora, V. E. Liong, Q. Xu, A. Krishnan, Y. Pan, G. Baldan, O. Beijbom, “nuScenes: A multimodal dataset for autonomous driving”, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 11618–11628, Mar. 2019, doi: 10.1109/CVPR42600.2020.01164. P. Sun, H. Kretzschmar, X. Dotiwalla, A. Chouard, V. Patnaik, P. Tsui, J. Guo, Y. Zhou, Y. Chai, B. Caine, V. Vasudevan, W. Han, J. Ngiam, H. Zhao, A. Timofeev, S. Ettinger, M. Krivokon, A. Gao, A. Joshi, S. Zhao, S. Cheng, Y. Zhang, J. Shlens, Z. Chen, y D. Anguelov, “Scalability in Perception for Autonomous Driving: Waymo Open Dataset”, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 2443–2451, Dec. 2019, doi: 10.1109/CVPR42600.2020.00252. L. Leal-Taixé, T. Taixé, A. Milan, I. Reid, S. Roth, y K. Schindler, “MOTChallenge 2015: Towards a Benchmark for Multi-Target Tracking”, Apr. 2015, Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://arxiv.org/abs/1504.01942v1 T-Y. Lin, M. Marie, S. Belongie, L. Bourdev, R. Girshick, J. Hays, P. Perona, D. Ramanan, C. L. Zitnick, y P. Dollár, “Microsoft COCO: Common Objects in Context”, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), vol. 8693 LNCS, no. PART 5, pp. 740–755, May 2014, doi: 10.1007/978-3-319-10602-1_48. Coco dataset, “COCO - Common Objects in Context.” Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://cocodataset.org/#home S. Sharma, (2022). “Introduction to Tracker KPI.” Accedido: Mar. 22, 2024. [en línea]. Disponible en: https://medium.com/digital-engineering-centific/introductionto- tracker-kpi-6aed380dd688 A. Milan, L. Leal-Taixé, I.D. Reid, S. Roth, y K. Schindler, “MOT16: A Benchmark for Multi-Object Tracking”, Abril 2016. [en línea]. Disponible en: https://arxiv.org/pdf/1603.00831. VisAI Labs. “Evaluating multiple object tracking accuracy and performance metrics in a real-time setting”. 2021 Accedido: May. 19, 2024. [en línea]. Disponible en: https://visailabs.com/evaluating-multiple-object-tracking-accuracy-andperformance-metrics-in-a-real-time-setting/ M. Gao, J. Jiang, G. Zou, V. John, y Z. Liu, “RGB-D-Based Object Recognition Using Multimodal Convolutional Neural Networks: A Survey”, IEEE Access, vol. 7, pp. 43110–43136, 2019, doi: 10.1109/ACCESS.2019.2907071. N. Wojke, A. Bewley, y D. Paulus, “Simple Online and Realtime Tracking with a Deep Association Metric”, Proceedings - International Conference on Image Processing, ICIP, vol. 2017-September, pp. 3645–3649, Mar. 2017, doi: 10.1109/ICIP.2017.8296962. D. Tan, “Camera-Lidar Projection: Navigating between 2D and 3D | by Daryl Tan | The Startup | Medium,” Medium. Accedido: Apr. 06, 2024. [en línea]. Disponible en: https://medium.com/swlh/camera-lidar-projection-navigating-between-2d-and-3d-911c78167a94 A. Garcia-Garcia, S. Orts-Escolano, S. O. Oprea, V. Villena-Martinez, y J. Garcia-Rodriguez, “A Review on Deep Learning Techniques Applied to Semantic Segmentation”, Apr. 2017, Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://arxiv.org/abs/1704.06857v1 Y. Guohang, L. Zhuochun, W. Chengjie, S. Chunlei, W. Pengjin, C. Xinyu, M. Tao, L. Zhizheng, Z. Zebin, L. Yuqian, Z. Ming, M. Zheng, y L. Yikang, “Automatic Calibration and Refinement based on Line Feature for LiDAR and Camera in Road Scenes”, Mar. 2021, Accedido: Apr. 06, 2024. [en línea]. Disponible en: https://github.com/PJLab-ADG/SensorsCalibration/tree/master/lidar2camera
dc.rights.spa.fl_str_mv Derechos reservados - Universidad Autónoma de Occidente, 2024
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.eng.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.eng.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.spa.fl_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
rights_invalid_str_mv Derechos reservados - Universidad Autónoma de Occidente, 2024
https://creativecommons.org/licenses/by-nc-nd/4.0/
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.spa.fl_str_mv 80 páginas
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.spa.fl_str_mv Universidad Autónoma de Occidente
dc.publisher.program.spa.fl_str_mv Ingeniería Mecatrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.publisher.place.spa.fl_str_mv Cali
institution Universidad Autónoma de Occidente
bitstream.url.fl_str_mv https://red.uao.edu.co/bitstreams/63e343f9-59ce-4c56-9bb6-cc42451cec01/download
https://red.uao.edu.co/bitstreams/bbf0a1df-f520-4fd2-8a46-be3719ef27ed/download
https://red.uao.edu.co/bitstreams/3763e3dd-76d5-44c4-bdfe-e8b89269e4d0/download
https://red.uao.edu.co/bitstreams/c8d3c64f-27b4-461f-bd0a-0dfb642b37f7/download
https://red.uao.edu.co/bitstreams/6e004cc5-4240-47ea-b5e4-5f37572aa2c4/download
https://red.uao.edu.co/bitstreams/4961831a-aeca-40e5-bc8e-0004d58d91f8/download
https://red.uao.edu.co/bitstreams/44670cb6-cec9-448c-8744-625dbe6fb469/download
bitstream.checksum.fl_str_mv 6987b791264a2b5525252450f99b10d1
22aa33a0a2efbe3361dedaa191141ffd
493fbb1cca2123ff0141217a308e6db7
964cb6bcdfb49555f1239ee6d57dc048
ff4c8ff01d544500ea4bfea43e6108c1
cc4722d0ab0e61eaf65fc29e281bfae1
97e33ffee6407337f3137b7a63ccd3af
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Digital Universidad Autonoma de Occidente
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1808478898086739968
spelling Llanos Neuta, NicolasFernández Urbano, AlejandroGuartos Arango, FabiánUniversidad Autónoma de OccidenteVelandia Fajardo, Natali2024-08-01T21:48:25Z2024-08-01T21:48:25Z2024-07-06Fernández Urbano, A.; Guartos Arango, F. (2024). Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://hdl.handle.net/10614/15687https://hdl.handle.net/10614/15687Universidad Autónoma de OccidenteRespositorio Educativo Digital UAOhttps://red.uao.edu.co/En los campus universitarios, guiar a personas de manera segura y eficiente es un desafío que los robots móviles pueden afrontar con un adecuado sistema de percepción, con esta motivación el trabajo se enfoca en los desafíos técnicos de desarrollar un sistema de percepción robótica que permita el reconocimiento y seguimiento de personas, mediante la fusión sensorial de múltiples sensores (cámara y LIDAR), en un entorno universitario. Este sistema propuesto implica tecnología de fusión sensorial y machine learning, para lo cual se utilizaron modelos, conjuntos de datos existentes y un conjunto de datos propio creado a partir de la toma de datos en espacios dentro del campus de la Universidad Autónoma de Occidente. El sistema se implementó en una plataforma móvil y se evaluó mediante pruebas experimentales en tiempo real, para demostrar su desempeño durante el seguimiento de personas. Las pruebas realizadas indican resultados aceptables pese a la aplicación del sistema y al hardware de bajo rendimiento donde se implementó, concluyendo que existe un margen de mejora por parte del algoritmo de seguimientoOn university campuses, guiding people safely and efficiently is a challenge that mobile robots can face with an adequate perception system. With this motivation, the work focuses on the technical challenges of developing a robotic perception system that allows the recognition and tracking of people, through the sensory fusion of multiple sensors (camera and LIDAR) in a university environment. This proposed system involves sensory fusion technology and machine learning, for which models, existing data sets and an own data set created from data collection in spaces within the campus of the Universidad Autonoma de Occidente were used. The system was implemented on a mobile platform and evaluated through real-time experimental tests and a quantitative evaluation was carried out where the selected metrics demonstrate that there is a loss while tracking people. The tests carried out indicate acceptable results despite the application of the system and the low computing hardware where it was implemented, concluding that there is room for improvement on the part of the tracking algorithmProyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2024PregradoIngeniero(a) Mecatrónico(a)80 páginasapplication/pdfspaUniversidad Autónoma de OccidenteIngeniería MecatrónicaFacultad de IngenieríaCaliDerechos reservados - Universidad Autónoma de Occidente, 2024https://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitarioTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttp://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85S. Abdi, I. Kitsara, M. S. Hawley, y L. P. de Witte, “Emerging technologies and their potential for generating new assistive technologies”, Assistive Technology, vol. 33, no. sup1, pp. 17–26, Dec. 2021, doi: 10.1080/10400435.2021.1945704. M. B. Alatise y G. P. Hancke, “A Review on Challenges of Autonomous Mobile Robot and Sensor Fusion Methods”, IEEE Access, vol. 8, pp. 39830–39846, 2020, doi: 10.1109/ACCESS.2020.2975643. H-Y. Lin, C-L. Tsai, y V-L. Tran, “Depth Measurement Based on Stereo Vision with Integrated Camera Rotation”, IEEE Trans Instrum Meas, vol. 70, 2021, doi: 10.1109/TIM.2021.3073687. M. Dirik, A. F. Kocamaz, y O. Castillo, “Global Path Planning and Path-Following for Wheeled Mobile Robot Using a Novel Control Structure Based on a Vision Sensor”, International Journal of Fuzzy Systems, vol. 22, no. 6, pp. 1880–1891, Sep. 2020, doi: 10.1007/S40815-020-00888-9/METRICS. E. Blasch, P. Tien, C-Y. Chong, H. Leung, D. Braines, T. Abdelzaher, y W. Koch, “Machine Learning/Artificial Intelligence for Sensor Data Fusion-Opportunities and Challenges”, IEEE Aerospace and Electronic Systems Magazine, vol. 36, no. 7, pp. 80–93, Jul. 2021, doi: 10.1109/MAES.2020.3049030. D. Nahata, y K. Othman, “Exploring the challenges and opportunities of image processing and sensor fusion in autonomous vehicles: A comprehensive review”, AIMS Electronics and Electrical Engineering 2023 4:271, vol. 7, no. 4, pp. 271–321, 2023, doi: 10.3934/ELECTRENG.2023016. J. G. Guarnizo Marin, D. Bautista Díaz, y J. S. Sierra Torres, “Una revisión sobre la evolución de la robótica móvil”, Una revisión sobre la evolución de la robótica móvil, 2021, doi: 10.15332/DT.INV.2021.02848. OMS, “Sordera y pérdida de la audición”, Centro de prensa. Accedido: Apr. 05, 2024. [en línea]. Disponible en: https://www.who.int/es/news-room/factsheets/ detail/deafness-and-hearing-loss Y-T. Cheng, A. Patel, D. Bullock, y A. Habib, “LiDAR-based lane marking extraction through intensity thresholding and deep learning approaches: a pavement-based assessment”, The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XLIII-B3-2020, no. B3, pp. 507–514, Aug. 2020, doi: 10.5194/ISPRS-ARCHIVES-XLIII-B3-2020-507-2020. Y. Li, G. Chai, Y. Wang, L. Lei, y X. Zhang, “ACE R-CNN: An Attention Complementary and Edge Detection-Based Instance Segmentation Algorithm for Individual Tree Species Identification Using UAV RGB Images and LiDAR Data”, Remote Sensing 2022, Vol. 14, Page 3035, vol. 14, no. 13, p. 3035, Jun. 2022, doi: 10.3390/RS14133035. L. Alcayaga, “Filtering of pulsed lidar data using spatial information and a clustering algorithm”, Atmos Meas Tech, vol. 13, no. 11, pp. 6237–6254, Nov. 2020, doi: 10.5194/AMT-13-6237-2020. Y-C. Lin, y A. Habib, “Boosting LiDAR-based Semantic Labeling by Cross-Modal Training Data Generation”, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), vol. 11134 LNCS, pp. 497–513, Apr. 2018, doi: 10.1007/978-3-030-11024-6_39. M. Cordts, M. Omran, S. Ramos, T. Rehfeld, M. Enzweiler, R. Benenson, U. Franke, S. Roth, y B. Schiele, “The Cityscapes Dataset for Semantic Urban Scene Understanding”, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, vol. 2016-December, pp. 3213–3223, Apr. 2016, doi: 10.1109/CVPR.2016.350. Y. Li, A. Linero, y J. Murray, “Adaptive Conditional Distribution Estimation with Bayesian Decision Tree Ensembles”, J Am Stat Assoc, 2023, doi: 10.1080/01621459.2022.2037431. C. Urrea y R. Agramonte, “Kalman Filter: Historical Overview and Review of Its Use in Robotics 60 Years after Its Creation”, J Sens, vol. 2021, 2021, doi: 10.1155/2021/9674015. MechStuff, “How sensors on a Tesla make Self-driving possible? – MechStuff.” Accedido: Feb. 20, 2024. [en línea]. Disponible en: https://mechstuff.com/howsensors- on-a-tesla-make-self-driving-possible/ Tesla, “Tesla Vision Update: Replacing Ultrasonic Sensors with Tesla Vision | Tesla Support.” Accedido: Feb. 20, 2024. [en línea]. Dispoible en: https://www.tesla.com/support/transitioning-tesla-vision Y. Zhang, A. Carballo, H. Yang, y K. Takeda, “Perception and sensing for autonomous vehicles under adverse weather conditions: A survey”, ISPRS Journal of Photogrammetry and Remote Sensing, vol. 196, pp. 146–177, Feb. 2023, doi: 10.1016/J.ISPRSJPRS.2022.12.021. J. Redmon y A. Farhadi, “YOLOv3: An Incremental Improvement”, arXiv. Accedido: Apr. 05, 2024. [en línea]. Disponible en: https://pjreddie.com/darknet/yolo/ A. I. B. Parico y T. Ahamed, “Real time pear fruit detection and counting using yolov4 models and deep sort”, Sensors, vol. 21, no. 14, Jul. 2021, doi: 10.3390/S21144803. G. A. Kumar, J. H. Lee, J. Hwang, J. Park, S. H. Youn, y S. Kwon, “LiDAR and Camera Fusion Approach for Object Distance Estimation in Self-Driving Vehicles”, Symmetry 2020, Vol. 12, Page 324, vol. 12, no. 2, p. 324, Feb. 2020, doi: 10.3390/SYM12020324. G. Boesch, “The 100 Most Popular Computer Vision Applications in 2024 - viso.ai.”, VisoIA Accedido: Feb. 20, 2024. [en línea]. Disponible en: https://viso.ai/applications/computer-vision-applications/ Automatic Addison, “How to perform Camera Calibration Using OpenCV.” Accedido: Feb. 28, 2024. [en línea]. Disponible en: https://automaticaddison.com/how-toperform- camera-calibration-using-opencv/ L. C. Ngugi, M. Abelwahab, y M. Abo-Zahhad, “Recent advances in image processing techniques for automated leaf pest and disease recognition – A review”, Information Processing in Agriculture, vol. 8, no. 1, pp. 27–51, Mar. 2021, doi: 10.1016/J.INPA.2020.04.004. D. Kőnig. "Grafos y su aplicación a la teoría de determinantes y conjuntos.”, Boletín de Ciencias Matemáticas y Naturales, 1931. [en línea]. Disponible en: https://theses.hal.science/file/index/docid/591307/filename/mizunothesefinale.pdf R. Jonker, y A. Volgenant, "A Shortest Augmenting Path Algorithm for Dense and Sparse Linear Assignment Problems", Computing, 1987. [en línea]. Disponible en: https://gwern.net/doc/statistics/decision/1987-jonker.pdf OpenPCDet Development Team, “OpenPCDet: An Open-source Toolbox for 3D Object Detection from Point Clouds”, Github. Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://github.com/open-mmlab/OpenPCDet/tree/master A. Medewar, “LabelImg: The Ultimate Tool for Efficient Data Annotation | by Abhishri Medewar | Medium”, Medium. Accedido: Apr. 06, 2024. [en línea]. Disponible en: https://abhishri-medewar.medium.com/labelimg-the-ultimate-tool-for-efficient-dataannotation-b2fea57fce83 J. Li, H. Dai, L. Shao, y Y. DIng, “From Voxel to Point: IoU-guided 3D Object Detection for Point Cloud with Voxel-to-Point Decoder”, MM 2021 - Proceedings of the 29th ACM International Conference on Multimedia, pp. 4622–4631, Aug. 2021, doi: 10.1145/3474085.3475314. H. Liu, C. Wu, y H. Wang, “Real time object detection using LiDAR and camera fusion for autonomous driving,” Scientific Reports 2023 13:1, vol. 13, no. 1, pp. 1–12, May 2023, doi: 10.1038/s41598-023-35170-z. S. A. Kashinath, S. Mostafa, A. Mustapha, y H. Mahdin, “Review of data fusion methods for real-time and multi-sensor traffic flow analysis”, IEEE Acceso, vol. 9, pp. 51258–51276, 2021, doi: 10.1109/ACCESS.2021.3069770. A. Geiger, P. Lenz, C. Stiller, y R. Urtasun, “Vision meets robotics: The KITTI dataset”, International Journal of Robotics Research, vol. 32, no. 11, pp. 1231–1237, Sep. 2013, doi: 10.1177/0278364913491297/FORMAT/EPUB. W. Zhou, J. S. Berrio, C. de Alvis, M. Shan, “Developing and Testing Robust Autonomy: The University of Sydney Campus Data Set”, IEEE Intelligent Transportation Systems Magazine, vol. 12, no. 4, pp. 23–40, Dec. 2020, doi: 10.1109/MITS.2020.2990183. Motion, “nuScenes: Dataset.” Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://www.nuscenes.org/ H. Caesar, V. Bankiti, A. H. Lang, S. Vora, V. E. Liong, Q. Xu, A. Krishnan, Y. Pan, G. Baldan, O. Beijbom, “nuScenes: A multimodal dataset for autonomous driving”, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 11618–11628, Mar. 2019, doi: 10.1109/CVPR42600.2020.01164. P. Sun, H. Kretzschmar, X. Dotiwalla, A. Chouard, V. Patnaik, P. Tsui, J. Guo, Y. Zhou, Y. Chai, B. Caine, V. Vasudevan, W. Han, J. Ngiam, H. Zhao, A. Timofeev, S. Ettinger, M. Krivokon, A. Gao, A. Joshi, S. Zhao, S. Cheng, Y. Zhang, J. Shlens, Z. Chen, y D. Anguelov, “Scalability in Perception for Autonomous Driving: Waymo Open Dataset”, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 2443–2451, Dec. 2019, doi: 10.1109/CVPR42600.2020.00252. L. Leal-Taixé, T. Taixé, A. Milan, I. Reid, S. Roth, y K. Schindler, “MOTChallenge 2015: Towards a Benchmark for Multi-Target Tracking”, Apr. 2015, Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://arxiv.org/abs/1504.01942v1 T-Y. Lin, M. Marie, S. Belongie, L. Bourdev, R. Girshick, J. Hays, P. Perona, D. Ramanan, C. L. Zitnick, y P. Dollár, “Microsoft COCO: Common Objects in Context”, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), vol. 8693 LNCS, no. PART 5, pp. 740–755, May 2014, doi: 10.1007/978-3-319-10602-1_48. Coco dataset, “COCO - Common Objects in Context.” Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://cocodataset.org/#home S. Sharma, (2022). “Introduction to Tracker KPI.” Accedido: Mar. 22, 2024. [en línea]. Disponible en: https://medium.com/digital-engineering-centific/introductionto- tracker-kpi-6aed380dd688 A. Milan, L. Leal-Taixé, I.D. Reid, S. Roth, y K. Schindler, “MOT16: A Benchmark for Multi-Object Tracking”, Abril 2016. [en línea]. Disponible en: https://arxiv.org/pdf/1603.00831. VisAI Labs. “Evaluating multiple object tracking accuracy and performance metrics in a real-time setting”. 2021 Accedido: May. 19, 2024. [en línea]. Disponible en: https://visailabs.com/evaluating-multiple-object-tracking-accuracy-andperformance-metrics-in-a-real-time-setting/ M. Gao, J. Jiang, G. Zou, V. John, y Z. Liu, “RGB-D-Based Object Recognition Using Multimodal Convolutional Neural Networks: A Survey”, IEEE Access, vol. 7, pp. 43110–43136, 2019, doi: 10.1109/ACCESS.2019.2907071. N. Wojke, A. Bewley, y D. Paulus, “Simple Online and Realtime Tracking with a Deep Association Metric”, Proceedings - International Conference on Image Processing, ICIP, vol. 2017-September, pp. 3645–3649, Mar. 2017, doi: 10.1109/ICIP.2017.8296962. D. Tan, “Camera-Lidar Projection: Navigating between 2D and 3D | by Daryl Tan | The Startup | Medium,” Medium. Accedido: Apr. 06, 2024. [en línea]. Disponible en: https://medium.com/swlh/camera-lidar-projection-navigating-between-2d-and-3d-911c78167a94 A. Garcia-Garcia, S. Orts-Escolano, S. O. Oprea, V. Villena-Martinez, y J. Garcia-Rodriguez, “A Review on Deep Learning Techniques Applied to Semantic Segmentation”, Apr. 2017, Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://arxiv.org/abs/1704.06857v1 Y. Guohang, L. Zhuochun, W. Chengjie, S. Chunlei, W. Pengjin, C. Xinyu, M. Tao, L. Zhizheng, Z. Zebin, L. Yuqian, Z. Ming, M. Zheng, y L. Yikang, “Automatic Calibration and Refinement based on Line Feature for LiDAR and Camera in Road Scenes”, Mar. 2021, Accedido: Apr. 06, 2024. [en línea]. Disponible en: https://github.com/PJLab-ADG/SensorsCalibration/tree/master/lidar2cameraIngeniería MecatrónicaFusión sensorialDetección 2D y 3DSeguimiento de múltiples objetosRobot móvilSensor fusion2D and 3D detectionMultiple object trackingMobile robotComunidad generalPublicationLICENSElicense.txtlicense.txttext/plain; charset=utf-81672https://red.uao.edu.co/bitstreams/63e343f9-59ce-4c56-9bb6-cc42451cec01/download6987b791264a2b5525252450f99b10d1MD51ORIGINALT11146_Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario.pdfT11146_Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario.pdfArchivo texto completo del trabajo de grado, PDFapplication/pdf1579594https://red.uao.edu.co/bitstreams/bbf0a1df-f520-4fd2-8a46-be3719ef27ed/download22aa33a0a2efbe3361dedaa191141ffdMD52TA11146_Autorización trabajo de grado.pdfTA11146_Autorización trabajo de grado.pdfAutorización para publicación del trabajo de gradoapplication/pdf983991https://red.uao.edu.co/bitstreams/3763e3dd-76d5-44c4-bdfe-e8b89269e4d0/download493fbb1cca2123ff0141217a308e6db7MD53TEXTT11146_Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario.pdf.txtT11146_Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario.pdf.txtExtracted texttext/plain101809https://red.uao.edu.co/bitstreams/c8d3c64f-27b4-461f-bd0a-0dfb642b37f7/download964cb6bcdfb49555f1239ee6d57dc048MD54TA11146_Autorización trabajo de grado.pdf.txtTA11146_Autorización trabajo de grado.pdf.txtExtracted texttext/plain4https://red.uao.edu.co/bitstreams/6e004cc5-4240-47ea-b5e4-5f37572aa2c4/downloadff4c8ff01d544500ea4bfea43e6108c1MD56THUMBNAILT11146_Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario.pdf.jpgT11146_Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario.pdf.jpgGenerated Thumbnailimage/jpeg6957https://red.uao.edu.co/bitstreams/4961831a-aeca-40e5-bc8e-0004d58d91f8/downloadcc4722d0ab0e61eaf65fc29e281bfae1MD55TA11146_Autorización trabajo de grado.pdf.jpgTA11146_Autorización trabajo de grado.pdf.jpgGenerated Thumbnailimage/jpeg14287https://red.uao.edu.co/bitstreams/44670cb6-cec9-448c-8744-625dbe6fb469/download97e33ffee6407337f3137b7a63ccd3afMD5710614/15687oai:red.uao.edu.co:10614/156872024-08-02 03:01:45.48https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos reservados - Universidad Autónoma de Occidente, 2024open.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coPHA+RUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS48L3A+Cg==