Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario
En los campus universitarios, guiar a personas de manera segura y eficiente es un desafío que los robots móviles pueden afrontar con un adecuado sistema de percepción, con esta motivación el trabajo se enfoca en los desafíos técnicos de desarrollar un sistema de percepción robótica que permita el re...
- Autores:
-
Fernández Urbano, Alejandro
Guartos Arango, Fabián
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2024
- Institución:
- Universidad Autónoma de Occidente
- Repositorio:
- RED: Repositorio Educativo Digital UAO
- Idioma:
- spa
- OAI Identifier:
- oai:red.uao.edu.co:10614/15687
- Acceso en línea:
- https://hdl.handle.net/10614/15687
https://red.uao.edu.co/
- Palabra clave:
- Ingeniería Mecatrónica
Fusión sensorial
Detección 2D y 3D
Seguimiento de múltiples objetos
Robot móvil
Sensor fusion
2D and 3D detection
Multiple object tracking
Mobile robot
- Rights
- openAccess
- License
- Derechos reservados - Universidad Autónoma de Occidente, 2024
id |
REPOUAO2_3f42365ae24a7a081e0db0c7d5477c79 |
---|---|
oai_identifier_str |
oai:red.uao.edu.co:10614/15687 |
network_acronym_str |
REPOUAO2 |
network_name_str |
RED: Repositorio Educativo Digital UAO |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario |
title |
Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario |
spellingShingle |
Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario Ingeniería Mecatrónica Fusión sensorial Detección 2D y 3D Seguimiento de múltiples objetos Robot móvil Sensor fusion 2D and 3D detection Multiple object tracking Mobile robot |
title_short |
Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario |
title_full |
Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario |
title_fullStr |
Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario |
title_full_unstemmed |
Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario |
title_sort |
Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario |
dc.creator.fl_str_mv |
Fernández Urbano, Alejandro Guartos Arango, Fabián |
dc.contributor.advisor.none.fl_str_mv |
Llanos Neuta, Nicolas |
dc.contributor.author.none.fl_str_mv |
Fernández Urbano, Alejandro Guartos Arango, Fabián |
dc.contributor.corporatename.spa.fl_str_mv |
Universidad Autónoma de Occidente |
dc.contributor.jury.none.fl_str_mv |
Velandia Fajardo, Natali |
dc.subject.proposal.spa.fl_str_mv |
Ingeniería Mecatrónica Fusión sensorial Detección 2D y 3D Seguimiento de múltiples objetos Robot móvil |
topic |
Ingeniería Mecatrónica Fusión sensorial Detección 2D y 3D Seguimiento de múltiples objetos Robot móvil Sensor fusion 2D and 3D detection Multiple object tracking Mobile robot |
dc.subject.proposal.eng.fl_str_mv |
Sensor fusion 2D and 3D detection Multiple object tracking Mobile robot |
description |
En los campus universitarios, guiar a personas de manera segura y eficiente es un desafío que los robots móviles pueden afrontar con un adecuado sistema de percepción, con esta motivación el trabajo se enfoca en los desafíos técnicos de desarrollar un sistema de percepción robótica que permita el reconocimiento y seguimiento de personas, mediante la fusión sensorial de múltiples sensores (cámara y LIDAR), en un entorno universitario. Este sistema propuesto implica tecnología de fusión sensorial y machine learning, para lo cual se utilizaron modelos, conjuntos de datos existentes y un conjunto de datos propio creado a partir de la toma de datos en espacios dentro del campus de la Universidad Autónoma de Occidente. El sistema se implementó en una plataforma móvil y se evaluó mediante pruebas experimentales en tiempo real, para demostrar su desempeño durante el seguimiento de personas. Las pruebas realizadas indican resultados aceptables pese a la aplicación del sistema y al hardware de bajo rendimiento donde se implementó, concluyendo que existe un margen de mejora por parte del algoritmo de seguimiento |
publishDate |
2024 |
dc.date.accessioned.none.fl_str_mv |
2024-08-01T21:48:25Z |
dc.date.available.none.fl_str_mv |
2024-08-01T21:48:25Z |
dc.date.issued.none.fl_str_mv |
2024-07-06 |
dc.type.spa.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.coarversion.fl_str_mv |
http://purl.org/coar/version/c_970fb48d4fbd8a85 |
dc.type.coar.eng.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.eng.fl_str_mv |
Text |
dc.type.driver.eng.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.redcol.eng.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
dc.type.version.eng.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
publishedVersion |
dc.identifier.citation.spa.fl_str_mv |
Fernández Urbano, A.; Guartos Arango, F. (2024). Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://hdl.handle.net/10614/15687 |
dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/10614/15687 |
dc.identifier.instname.spa.fl_str_mv |
Universidad Autónoma de Occidente |
dc.identifier.reponame.spa.fl_str_mv |
Respositorio Educativo Digital UAO |
dc.identifier.repourl.none.fl_str_mv |
https://red.uao.edu.co/ |
identifier_str_mv |
Fernández Urbano, A.; Guartos Arango, F. (2024). Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://hdl.handle.net/10614/15687 Universidad Autónoma de Occidente Respositorio Educativo Digital UAO |
url |
https://hdl.handle.net/10614/15687 https://red.uao.edu.co/ |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.references.none.fl_str_mv |
S. Abdi, I. Kitsara, M. S. Hawley, y L. P. de Witte, “Emerging technologies and their potential for generating new assistive technologies”, Assistive Technology, vol. 33, no. sup1, pp. 17–26, Dec. 2021, doi: 10.1080/10400435.2021.1945704. M. B. Alatise y G. P. Hancke, “A Review on Challenges of Autonomous Mobile Robot and Sensor Fusion Methods”, IEEE Access, vol. 8, pp. 39830–39846, 2020, doi: 10.1109/ACCESS.2020.2975643. H-Y. Lin, C-L. Tsai, y V-L. Tran, “Depth Measurement Based on Stereo Vision with Integrated Camera Rotation”, IEEE Trans Instrum Meas, vol. 70, 2021, doi: 10.1109/TIM.2021.3073687. M. Dirik, A. F. Kocamaz, y O. Castillo, “Global Path Planning and Path-Following for Wheeled Mobile Robot Using a Novel Control Structure Based on a Vision Sensor”, International Journal of Fuzzy Systems, vol. 22, no. 6, pp. 1880–1891, Sep. 2020, doi: 10.1007/S40815-020-00888-9/METRICS. E. Blasch, P. Tien, C-Y. Chong, H. Leung, D. Braines, T. Abdelzaher, y W. Koch, “Machine Learning/Artificial Intelligence for Sensor Data Fusion-Opportunities and Challenges”, IEEE Aerospace and Electronic Systems Magazine, vol. 36, no. 7, pp. 80–93, Jul. 2021, doi: 10.1109/MAES.2020.3049030. D. Nahata, y K. Othman, “Exploring the challenges and opportunities of image processing and sensor fusion in autonomous vehicles: A comprehensive review”, AIMS Electronics and Electrical Engineering 2023 4:271, vol. 7, no. 4, pp. 271–321, 2023, doi: 10.3934/ELECTRENG.2023016. J. G. Guarnizo Marin, D. Bautista Díaz, y J. S. Sierra Torres, “Una revisión sobre la evolución de la robótica móvil”, Una revisión sobre la evolución de la robótica móvil, 2021, doi: 10.15332/DT.INV.2021.02848. OMS, “Sordera y pérdida de la audición”, Centro de prensa. Accedido: Apr. 05, 2024. [en línea]. Disponible en: https://www.who.int/es/news-room/factsheets/ detail/deafness-and-hearing-loss Y-T. Cheng, A. Patel, D. Bullock, y A. Habib, “LiDAR-based lane marking extraction through intensity thresholding and deep learning approaches: a pavement-based assessment”, The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XLIII-B3-2020, no. B3, pp. 507–514, Aug. 2020, doi: 10.5194/ISPRS-ARCHIVES-XLIII-B3-2020-507-2020. Y. Li, G. Chai, Y. Wang, L. Lei, y X. Zhang, “ACE R-CNN: An Attention Complementary and Edge Detection-Based Instance Segmentation Algorithm for Individual Tree Species Identification Using UAV RGB Images and LiDAR Data”, Remote Sensing 2022, Vol. 14, Page 3035, vol. 14, no. 13, p. 3035, Jun. 2022, doi: 10.3390/RS14133035. L. Alcayaga, “Filtering of pulsed lidar data using spatial information and a clustering algorithm”, Atmos Meas Tech, vol. 13, no. 11, pp. 6237–6254, Nov. 2020, doi: 10.5194/AMT-13-6237-2020. Y-C. Lin, y A. Habib, “Boosting LiDAR-based Semantic Labeling by Cross-Modal Training Data Generation”, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), vol. 11134 LNCS, pp. 497–513, Apr. 2018, doi: 10.1007/978-3-030-11024-6_39. M. Cordts, M. Omran, S. Ramos, T. Rehfeld, M. Enzweiler, R. Benenson, U. Franke, S. Roth, y B. Schiele, “The Cityscapes Dataset for Semantic Urban Scene Understanding”, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, vol. 2016-December, pp. 3213–3223, Apr. 2016, doi: 10.1109/CVPR.2016.350. Y. Li, A. Linero, y J. Murray, “Adaptive Conditional Distribution Estimation with Bayesian Decision Tree Ensembles”, J Am Stat Assoc, 2023, doi: 10.1080/01621459.2022.2037431. C. Urrea y R. Agramonte, “Kalman Filter: Historical Overview and Review of Its Use in Robotics 60 Years after Its Creation”, J Sens, vol. 2021, 2021, doi: 10.1155/2021/9674015. MechStuff, “How sensors on a Tesla make Self-driving possible? – MechStuff.” Accedido: Feb. 20, 2024. [en línea]. Disponible en: https://mechstuff.com/howsensors- on-a-tesla-make-self-driving-possible/ Tesla, “Tesla Vision Update: Replacing Ultrasonic Sensors with Tesla Vision | Tesla Support.” Accedido: Feb. 20, 2024. [en línea]. Dispoible en: https://www.tesla.com/support/transitioning-tesla-vision Y. Zhang, A. Carballo, H. Yang, y K. Takeda, “Perception and sensing for autonomous vehicles under adverse weather conditions: A survey”, ISPRS Journal of Photogrammetry and Remote Sensing, vol. 196, pp. 146–177, Feb. 2023, doi: 10.1016/J.ISPRSJPRS.2022.12.021. J. Redmon y A. Farhadi, “YOLOv3: An Incremental Improvement”, arXiv. Accedido: Apr. 05, 2024. [en línea]. Disponible en: https://pjreddie.com/darknet/yolo/ A. I. B. Parico y T. Ahamed, “Real time pear fruit detection and counting using yolov4 models and deep sort”, Sensors, vol. 21, no. 14, Jul. 2021, doi: 10.3390/S21144803. G. A. Kumar, J. H. Lee, J. Hwang, J. Park, S. H. Youn, y S. Kwon, “LiDAR and Camera Fusion Approach for Object Distance Estimation in Self-Driving Vehicles”, Symmetry 2020, Vol. 12, Page 324, vol. 12, no. 2, p. 324, Feb. 2020, doi: 10.3390/SYM12020324. G. Boesch, “The 100 Most Popular Computer Vision Applications in 2024 - viso.ai.”, VisoIA Accedido: Feb. 20, 2024. [en línea]. Disponible en: https://viso.ai/applications/computer-vision-applications/ Automatic Addison, “How to perform Camera Calibration Using OpenCV.” Accedido: Feb. 28, 2024. [en línea]. Disponible en: https://automaticaddison.com/how-toperform- camera-calibration-using-opencv/ L. C. Ngugi, M. Abelwahab, y M. Abo-Zahhad, “Recent advances in image processing techniques for automated leaf pest and disease recognition – A review”, Information Processing in Agriculture, vol. 8, no. 1, pp. 27–51, Mar. 2021, doi: 10.1016/J.INPA.2020.04.004. D. Kőnig. "Grafos y su aplicación a la teoría de determinantes y conjuntos.”, Boletín de Ciencias Matemáticas y Naturales, 1931. [en línea]. Disponible en: https://theses.hal.science/file/index/docid/591307/filename/mizunothesefinale.pdf R. Jonker, y A. Volgenant, "A Shortest Augmenting Path Algorithm for Dense and Sparse Linear Assignment Problems", Computing, 1987. [en línea]. Disponible en: https://gwern.net/doc/statistics/decision/1987-jonker.pdf OpenPCDet Development Team, “OpenPCDet: An Open-source Toolbox for 3D Object Detection from Point Clouds”, Github. Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://github.com/open-mmlab/OpenPCDet/tree/master A. Medewar, “LabelImg: The Ultimate Tool for Efficient Data Annotation | by Abhishri Medewar | Medium”, Medium. Accedido: Apr. 06, 2024. [en línea]. Disponible en: https://abhishri-medewar.medium.com/labelimg-the-ultimate-tool-for-efficient-dataannotation-b2fea57fce83 J. Li, H. Dai, L. Shao, y Y. DIng, “From Voxel to Point: IoU-guided 3D Object Detection for Point Cloud with Voxel-to-Point Decoder”, MM 2021 - Proceedings of the 29th ACM International Conference on Multimedia, pp. 4622–4631, Aug. 2021, doi: 10.1145/3474085.3475314. H. Liu, C. Wu, y H. Wang, “Real time object detection using LiDAR and camera fusion for autonomous driving,” Scientific Reports 2023 13:1, vol. 13, no. 1, pp. 1–12, May 2023, doi: 10.1038/s41598-023-35170-z. S. A. Kashinath, S. Mostafa, A. Mustapha, y H. Mahdin, “Review of data fusion methods for real-time and multi-sensor traffic flow analysis”, IEEE Acceso, vol. 9, pp. 51258–51276, 2021, doi: 10.1109/ACCESS.2021.3069770. A. Geiger, P. Lenz, C. Stiller, y R. Urtasun, “Vision meets robotics: The KITTI dataset”, International Journal of Robotics Research, vol. 32, no. 11, pp. 1231–1237, Sep. 2013, doi: 10.1177/0278364913491297/FORMAT/EPUB. W. Zhou, J. S. Berrio, C. de Alvis, M. Shan, “Developing and Testing Robust Autonomy: The University of Sydney Campus Data Set”, IEEE Intelligent Transportation Systems Magazine, vol. 12, no. 4, pp. 23–40, Dec. 2020, doi: 10.1109/MITS.2020.2990183. Motion, “nuScenes: Dataset.” Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://www.nuscenes.org/ H. Caesar, V. Bankiti, A. H. Lang, S. Vora, V. E. Liong, Q. Xu, A. Krishnan, Y. Pan, G. Baldan, O. Beijbom, “nuScenes: A multimodal dataset for autonomous driving”, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 11618–11628, Mar. 2019, doi: 10.1109/CVPR42600.2020.01164. P. Sun, H. Kretzschmar, X. Dotiwalla, A. Chouard, V. Patnaik, P. Tsui, J. Guo, Y. Zhou, Y. Chai, B. Caine, V. Vasudevan, W. Han, J. Ngiam, H. Zhao, A. Timofeev, S. Ettinger, M. Krivokon, A. Gao, A. Joshi, S. Zhao, S. Cheng, Y. Zhang, J. Shlens, Z. Chen, y D. Anguelov, “Scalability in Perception for Autonomous Driving: Waymo Open Dataset”, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 2443–2451, Dec. 2019, doi: 10.1109/CVPR42600.2020.00252. L. Leal-Taixé, T. Taixé, A. Milan, I. Reid, S. Roth, y K. Schindler, “MOTChallenge 2015: Towards a Benchmark for Multi-Target Tracking”, Apr. 2015, Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://arxiv.org/abs/1504.01942v1 T-Y. Lin, M. Marie, S. Belongie, L. Bourdev, R. Girshick, J. Hays, P. Perona, D. Ramanan, C. L. Zitnick, y P. Dollár, “Microsoft COCO: Common Objects in Context”, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), vol. 8693 LNCS, no. PART 5, pp. 740–755, May 2014, doi: 10.1007/978-3-319-10602-1_48. Coco dataset, “COCO - Common Objects in Context.” Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://cocodataset.org/#home S. Sharma, (2022). “Introduction to Tracker KPI.” Accedido: Mar. 22, 2024. [en línea]. Disponible en: https://medium.com/digital-engineering-centific/introductionto- tracker-kpi-6aed380dd688 A. Milan, L. Leal-Taixé, I.D. Reid, S. Roth, y K. Schindler, “MOT16: A Benchmark for Multi-Object Tracking”, Abril 2016. [en línea]. Disponible en: https://arxiv.org/pdf/1603.00831. VisAI Labs. “Evaluating multiple object tracking accuracy and performance metrics in a real-time setting”. 2021 Accedido: May. 19, 2024. [en línea]. Disponible en: https://visailabs.com/evaluating-multiple-object-tracking-accuracy-andperformance-metrics-in-a-real-time-setting/ M. Gao, J. Jiang, G. Zou, V. John, y Z. Liu, “RGB-D-Based Object Recognition Using Multimodal Convolutional Neural Networks: A Survey”, IEEE Access, vol. 7, pp. 43110–43136, 2019, doi: 10.1109/ACCESS.2019.2907071. N. Wojke, A. Bewley, y D. Paulus, “Simple Online and Realtime Tracking with a Deep Association Metric”, Proceedings - International Conference on Image Processing, ICIP, vol. 2017-September, pp. 3645–3649, Mar. 2017, doi: 10.1109/ICIP.2017.8296962. D. Tan, “Camera-Lidar Projection: Navigating between 2D and 3D | by Daryl Tan | The Startup | Medium,” Medium. Accedido: Apr. 06, 2024. [en línea]. Disponible en: https://medium.com/swlh/camera-lidar-projection-navigating-between-2d-and-3d-911c78167a94 A. Garcia-Garcia, S. Orts-Escolano, S. O. Oprea, V. Villena-Martinez, y J. Garcia-Rodriguez, “A Review on Deep Learning Techniques Applied to Semantic Segmentation”, Apr. 2017, Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://arxiv.org/abs/1704.06857v1 Y. Guohang, L. Zhuochun, W. Chengjie, S. Chunlei, W. Pengjin, C. Xinyu, M. Tao, L. Zhizheng, Z. Zebin, L. Yuqian, Z. Ming, M. Zheng, y L. Yikang, “Automatic Calibration and Refinement based on Line Feature for LiDAR and Camera in Road Scenes”, Mar. 2021, Accedido: Apr. 06, 2024. [en línea]. Disponible en: https://github.com/PJLab-ADG/SensorsCalibration/tree/master/lidar2camera |
dc.rights.spa.fl_str_mv |
Derechos reservados - Universidad Autónoma de Occidente, 2024 |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.uri.eng.fl_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0/ |
dc.rights.accessrights.eng.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.creativecommons.spa.fl_str_mv |
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) |
rights_invalid_str_mv |
Derechos reservados - Universidad Autónoma de Occidente, 2024 https://creativecommons.org/licenses/by-nc-nd/4.0/ Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.extent.spa.fl_str_mv |
80 páginas |
dc.format.mimetype.none.fl_str_mv |
application/pdf |
dc.publisher.spa.fl_str_mv |
Universidad Autónoma de Occidente |
dc.publisher.program.spa.fl_str_mv |
Ingeniería Mecatrónica |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ingeniería |
dc.publisher.place.spa.fl_str_mv |
Cali |
institution |
Universidad Autónoma de Occidente |
bitstream.url.fl_str_mv |
https://red.uao.edu.co/bitstreams/63e343f9-59ce-4c56-9bb6-cc42451cec01/download https://red.uao.edu.co/bitstreams/bbf0a1df-f520-4fd2-8a46-be3719ef27ed/download https://red.uao.edu.co/bitstreams/3763e3dd-76d5-44c4-bdfe-e8b89269e4d0/download https://red.uao.edu.co/bitstreams/c8d3c64f-27b4-461f-bd0a-0dfb642b37f7/download https://red.uao.edu.co/bitstreams/6e004cc5-4240-47ea-b5e4-5f37572aa2c4/download https://red.uao.edu.co/bitstreams/4961831a-aeca-40e5-bc8e-0004d58d91f8/download https://red.uao.edu.co/bitstreams/44670cb6-cec9-448c-8744-625dbe6fb469/download |
bitstream.checksum.fl_str_mv |
6987b791264a2b5525252450f99b10d1 22aa33a0a2efbe3361dedaa191141ffd 493fbb1cca2123ff0141217a308e6db7 964cb6bcdfb49555f1239ee6d57dc048 ff4c8ff01d544500ea4bfea43e6108c1 cc4722d0ab0e61eaf65fc29e281bfae1 97e33ffee6407337f3137b7a63ccd3af |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Digital Universidad Autonoma de Occidente |
repository.mail.fl_str_mv |
repositorio@uao.edu.co |
_version_ |
1814260041425879040 |
spelling |
Llanos Neuta, NicolasFernández Urbano, AlejandroGuartos Arango, FabiánUniversidad Autónoma de OccidenteVelandia Fajardo, Natali2024-08-01T21:48:25Z2024-08-01T21:48:25Z2024-07-06Fernández Urbano, A.; Guartos Arango, F. (2024). Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://hdl.handle.net/10614/15687https://hdl.handle.net/10614/15687Universidad Autónoma de OccidenteRespositorio Educativo Digital UAOhttps://red.uao.edu.co/En los campus universitarios, guiar a personas de manera segura y eficiente es un desafío que los robots móviles pueden afrontar con un adecuado sistema de percepción, con esta motivación el trabajo se enfoca en los desafíos técnicos de desarrollar un sistema de percepción robótica que permita el reconocimiento y seguimiento de personas, mediante la fusión sensorial de múltiples sensores (cámara y LIDAR), en un entorno universitario. Este sistema propuesto implica tecnología de fusión sensorial y machine learning, para lo cual se utilizaron modelos, conjuntos de datos existentes y un conjunto de datos propio creado a partir de la toma de datos en espacios dentro del campus de la Universidad Autónoma de Occidente. El sistema se implementó en una plataforma móvil y se evaluó mediante pruebas experimentales en tiempo real, para demostrar su desempeño durante el seguimiento de personas. Las pruebas realizadas indican resultados aceptables pese a la aplicación del sistema y al hardware de bajo rendimiento donde se implementó, concluyendo que existe un margen de mejora por parte del algoritmo de seguimientoOn university campuses, guiding people safely and efficiently is a challenge that mobile robots can face with an adequate perception system. With this motivation, the work focuses on the technical challenges of developing a robotic perception system that allows the recognition and tracking of people, through the sensory fusion of multiple sensors (camera and LIDAR) in a university environment. This proposed system involves sensory fusion technology and machine learning, for which models, existing data sets and an own data set created from data collection in spaces within the campus of the Universidad Autonoma de Occidente were used. The system was implemented on a mobile platform and evaluated through real-time experimental tests and a quantitative evaluation was carried out where the selected metrics demonstrate that there is a loss while tracking people. The tests carried out indicate acceptable results despite the application of the system and the low computing hardware where it was implemented, concluding that there is room for improvement on the part of the tracking algorithmProyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2024PregradoIngeniero(a) Mecatrónico(a)80 páginasapplication/pdfspaUniversidad Autónoma de OccidenteIngeniería MecatrónicaFacultad de IngenieríaCaliDerechos reservados - Universidad Autónoma de Occidente, 2024https://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitarioTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttp://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85S. Abdi, I. Kitsara, M. S. Hawley, y L. P. de Witte, “Emerging technologies and their potential for generating new assistive technologies”, Assistive Technology, vol. 33, no. sup1, pp. 17–26, Dec. 2021, doi: 10.1080/10400435.2021.1945704. M. B. Alatise y G. P. Hancke, “A Review on Challenges of Autonomous Mobile Robot and Sensor Fusion Methods”, IEEE Access, vol. 8, pp. 39830–39846, 2020, doi: 10.1109/ACCESS.2020.2975643. H-Y. Lin, C-L. Tsai, y V-L. Tran, “Depth Measurement Based on Stereo Vision with Integrated Camera Rotation”, IEEE Trans Instrum Meas, vol. 70, 2021, doi: 10.1109/TIM.2021.3073687. M. Dirik, A. F. Kocamaz, y O. Castillo, “Global Path Planning and Path-Following for Wheeled Mobile Robot Using a Novel Control Structure Based on a Vision Sensor”, International Journal of Fuzzy Systems, vol. 22, no. 6, pp. 1880–1891, Sep. 2020, doi: 10.1007/S40815-020-00888-9/METRICS. E. Blasch, P. Tien, C-Y. Chong, H. Leung, D. Braines, T. Abdelzaher, y W. Koch, “Machine Learning/Artificial Intelligence for Sensor Data Fusion-Opportunities and Challenges”, IEEE Aerospace and Electronic Systems Magazine, vol. 36, no. 7, pp. 80–93, Jul. 2021, doi: 10.1109/MAES.2020.3049030. D. Nahata, y K. Othman, “Exploring the challenges and opportunities of image processing and sensor fusion in autonomous vehicles: A comprehensive review”, AIMS Electronics and Electrical Engineering 2023 4:271, vol. 7, no. 4, pp. 271–321, 2023, doi: 10.3934/ELECTRENG.2023016. J. G. Guarnizo Marin, D. Bautista Díaz, y J. S. Sierra Torres, “Una revisión sobre la evolución de la robótica móvil”, Una revisión sobre la evolución de la robótica móvil, 2021, doi: 10.15332/DT.INV.2021.02848. OMS, “Sordera y pérdida de la audición”, Centro de prensa. Accedido: Apr. 05, 2024. [en línea]. Disponible en: https://www.who.int/es/news-room/factsheets/ detail/deafness-and-hearing-loss Y-T. Cheng, A. Patel, D. Bullock, y A. Habib, “LiDAR-based lane marking extraction through intensity thresholding and deep learning approaches: a pavement-based assessment”, The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XLIII-B3-2020, no. B3, pp. 507–514, Aug. 2020, doi: 10.5194/ISPRS-ARCHIVES-XLIII-B3-2020-507-2020. Y. Li, G. Chai, Y. Wang, L. Lei, y X. Zhang, “ACE R-CNN: An Attention Complementary and Edge Detection-Based Instance Segmentation Algorithm for Individual Tree Species Identification Using UAV RGB Images and LiDAR Data”, Remote Sensing 2022, Vol. 14, Page 3035, vol. 14, no. 13, p. 3035, Jun. 2022, doi: 10.3390/RS14133035. L. Alcayaga, “Filtering of pulsed lidar data using spatial information and a clustering algorithm”, Atmos Meas Tech, vol. 13, no. 11, pp. 6237–6254, Nov. 2020, doi: 10.5194/AMT-13-6237-2020. Y-C. Lin, y A. Habib, “Boosting LiDAR-based Semantic Labeling by Cross-Modal Training Data Generation”, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), vol. 11134 LNCS, pp. 497–513, Apr. 2018, doi: 10.1007/978-3-030-11024-6_39. M. Cordts, M. Omran, S. Ramos, T. Rehfeld, M. Enzweiler, R. Benenson, U. Franke, S. Roth, y B. Schiele, “The Cityscapes Dataset for Semantic Urban Scene Understanding”, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, vol. 2016-December, pp. 3213–3223, Apr. 2016, doi: 10.1109/CVPR.2016.350. Y. Li, A. Linero, y J. Murray, “Adaptive Conditional Distribution Estimation with Bayesian Decision Tree Ensembles”, J Am Stat Assoc, 2023, doi: 10.1080/01621459.2022.2037431. C. Urrea y R. Agramonte, “Kalman Filter: Historical Overview and Review of Its Use in Robotics 60 Years after Its Creation”, J Sens, vol. 2021, 2021, doi: 10.1155/2021/9674015. MechStuff, “How sensors on a Tesla make Self-driving possible? – MechStuff.” Accedido: Feb. 20, 2024. [en línea]. Disponible en: https://mechstuff.com/howsensors- on-a-tesla-make-self-driving-possible/ Tesla, “Tesla Vision Update: Replacing Ultrasonic Sensors with Tesla Vision | Tesla Support.” Accedido: Feb. 20, 2024. [en línea]. Dispoible en: https://www.tesla.com/support/transitioning-tesla-vision Y. Zhang, A. Carballo, H. Yang, y K. Takeda, “Perception and sensing for autonomous vehicles under adverse weather conditions: A survey”, ISPRS Journal of Photogrammetry and Remote Sensing, vol. 196, pp. 146–177, Feb. 2023, doi: 10.1016/J.ISPRSJPRS.2022.12.021. J. Redmon y A. Farhadi, “YOLOv3: An Incremental Improvement”, arXiv. Accedido: Apr. 05, 2024. [en línea]. Disponible en: https://pjreddie.com/darknet/yolo/ A. I. B. Parico y T. Ahamed, “Real time pear fruit detection and counting using yolov4 models and deep sort”, Sensors, vol. 21, no. 14, Jul. 2021, doi: 10.3390/S21144803. G. A. Kumar, J. H. Lee, J. Hwang, J. Park, S. H. Youn, y S. Kwon, “LiDAR and Camera Fusion Approach for Object Distance Estimation in Self-Driving Vehicles”, Symmetry 2020, Vol. 12, Page 324, vol. 12, no. 2, p. 324, Feb. 2020, doi: 10.3390/SYM12020324. G. Boesch, “The 100 Most Popular Computer Vision Applications in 2024 - viso.ai.”, VisoIA Accedido: Feb. 20, 2024. [en línea]. Disponible en: https://viso.ai/applications/computer-vision-applications/ Automatic Addison, “How to perform Camera Calibration Using OpenCV.” Accedido: Feb. 28, 2024. [en línea]. Disponible en: https://automaticaddison.com/how-toperform- camera-calibration-using-opencv/ L. C. Ngugi, M. Abelwahab, y M. Abo-Zahhad, “Recent advances in image processing techniques for automated leaf pest and disease recognition – A review”, Information Processing in Agriculture, vol. 8, no. 1, pp. 27–51, Mar. 2021, doi: 10.1016/J.INPA.2020.04.004. D. Kőnig. "Grafos y su aplicación a la teoría de determinantes y conjuntos.”, Boletín de Ciencias Matemáticas y Naturales, 1931. [en línea]. Disponible en: https://theses.hal.science/file/index/docid/591307/filename/mizunothesefinale.pdf R. Jonker, y A. Volgenant, "A Shortest Augmenting Path Algorithm for Dense and Sparse Linear Assignment Problems", Computing, 1987. [en línea]. Disponible en: https://gwern.net/doc/statistics/decision/1987-jonker.pdf OpenPCDet Development Team, “OpenPCDet: An Open-source Toolbox for 3D Object Detection from Point Clouds”, Github. Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://github.com/open-mmlab/OpenPCDet/tree/master A. Medewar, “LabelImg: The Ultimate Tool for Efficient Data Annotation | by Abhishri Medewar | Medium”, Medium. Accedido: Apr. 06, 2024. [en línea]. Disponible en: https://abhishri-medewar.medium.com/labelimg-the-ultimate-tool-for-efficient-dataannotation-b2fea57fce83 J. Li, H. Dai, L. Shao, y Y. DIng, “From Voxel to Point: IoU-guided 3D Object Detection for Point Cloud with Voxel-to-Point Decoder”, MM 2021 - Proceedings of the 29th ACM International Conference on Multimedia, pp. 4622–4631, Aug. 2021, doi: 10.1145/3474085.3475314. H. Liu, C. Wu, y H. Wang, “Real time object detection using LiDAR and camera fusion for autonomous driving,” Scientific Reports 2023 13:1, vol. 13, no. 1, pp. 1–12, May 2023, doi: 10.1038/s41598-023-35170-z. S. A. Kashinath, S. Mostafa, A. Mustapha, y H. Mahdin, “Review of data fusion methods for real-time and multi-sensor traffic flow analysis”, IEEE Acceso, vol. 9, pp. 51258–51276, 2021, doi: 10.1109/ACCESS.2021.3069770. A. Geiger, P. Lenz, C. Stiller, y R. Urtasun, “Vision meets robotics: The KITTI dataset”, International Journal of Robotics Research, vol. 32, no. 11, pp. 1231–1237, Sep. 2013, doi: 10.1177/0278364913491297/FORMAT/EPUB. W. Zhou, J. S. Berrio, C. de Alvis, M. Shan, “Developing and Testing Robust Autonomy: The University of Sydney Campus Data Set”, IEEE Intelligent Transportation Systems Magazine, vol. 12, no. 4, pp. 23–40, Dec. 2020, doi: 10.1109/MITS.2020.2990183. Motion, “nuScenes: Dataset.” Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://www.nuscenes.org/ H. Caesar, V. Bankiti, A. H. Lang, S. Vora, V. E. Liong, Q. Xu, A. Krishnan, Y. Pan, G. Baldan, O. Beijbom, “nuScenes: A multimodal dataset for autonomous driving”, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 11618–11628, Mar. 2019, doi: 10.1109/CVPR42600.2020.01164. P. Sun, H. Kretzschmar, X. Dotiwalla, A. Chouard, V. Patnaik, P. Tsui, J. Guo, Y. Zhou, Y. Chai, B. Caine, V. Vasudevan, W. Han, J. Ngiam, H. Zhao, A. Timofeev, S. Ettinger, M. Krivokon, A. Gao, A. Joshi, S. Zhao, S. Cheng, Y. Zhang, J. Shlens, Z. Chen, y D. Anguelov, “Scalability in Perception for Autonomous Driving: Waymo Open Dataset”, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 2443–2451, Dec. 2019, doi: 10.1109/CVPR42600.2020.00252. L. Leal-Taixé, T. Taixé, A. Milan, I. Reid, S. Roth, y K. Schindler, “MOTChallenge 2015: Towards a Benchmark for Multi-Target Tracking”, Apr. 2015, Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://arxiv.org/abs/1504.01942v1 T-Y. Lin, M. Marie, S. Belongie, L. Bourdev, R. Girshick, J. Hays, P. Perona, D. Ramanan, C. L. Zitnick, y P. Dollár, “Microsoft COCO: Common Objects in Context”, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), vol. 8693 LNCS, no. PART 5, pp. 740–755, May 2014, doi: 10.1007/978-3-319-10602-1_48. Coco dataset, “COCO - Common Objects in Context.” Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://cocodataset.org/#home S. Sharma, (2022). “Introduction to Tracker KPI.” Accedido: Mar. 22, 2024. [en línea]. Disponible en: https://medium.com/digital-engineering-centific/introductionto- tracker-kpi-6aed380dd688 A. Milan, L. Leal-Taixé, I.D. Reid, S. Roth, y K. Schindler, “MOT16: A Benchmark for Multi-Object Tracking”, Abril 2016. [en línea]. Disponible en: https://arxiv.org/pdf/1603.00831. VisAI Labs. “Evaluating multiple object tracking accuracy and performance metrics in a real-time setting”. 2021 Accedido: May. 19, 2024. [en línea]. Disponible en: https://visailabs.com/evaluating-multiple-object-tracking-accuracy-andperformance-metrics-in-a-real-time-setting/ M. Gao, J. Jiang, G. Zou, V. John, y Z. Liu, “RGB-D-Based Object Recognition Using Multimodal Convolutional Neural Networks: A Survey”, IEEE Access, vol. 7, pp. 43110–43136, 2019, doi: 10.1109/ACCESS.2019.2907071. N. Wojke, A. Bewley, y D. Paulus, “Simple Online and Realtime Tracking with a Deep Association Metric”, Proceedings - International Conference on Image Processing, ICIP, vol. 2017-September, pp. 3645–3649, Mar. 2017, doi: 10.1109/ICIP.2017.8296962. D. Tan, “Camera-Lidar Projection: Navigating between 2D and 3D | by Daryl Tan | The Startup | Medium,” Medium. Accedido: Apr. 06, 2024. [en línea]. Disponible en: https://medium.com/swlh/camera-lidar-projection-navigating-between-2d-and-3d-911c78167a94 A. Garcia-Garcia, S. Orts-Escolano, S. O. Oprea, V. Villena-Martinez, y J. Garcia-Rodriguez, “A Review on Deep Learning Techniques Applied to Semantic Segmentation”, Apr. 2017, Accedido: Feb. 21, 2024. [en línea]. Disponible en: https://arxiv.org/abs/1704.06857v1 Y. Guohang, L. Zhuochun, W. Chengjie, S. Chunlei, W. Pengjin, C. Xinyu, M. Tao, L. Zhizheng, Z. Zebin, L. Yuqian, Z. Ming, M. Zheng, y L. Yikang, “Automatic Calibration and Refinement based on Line Feature for LiDAR and Camera in Road Scenes”, Mar. 2021, Accedido: Apr. 06, 2024. [en línea]. Disponible en: https://github.com/PJLab-ADG/SensorsCalibration/tree/master/lidar2cameraIngeniería MecatrónicaFusión sensorialDetección 2D y 3DSeguimiento de múltiples objetosRobot móvilSensor fusion2D and 3D detectionMultiple object trackingMobile robotComunidad generalPublicationLICENSElicense.txtlicense.txttext/plain; charset=utf-81672https://red.uao.edu.co/bitstreams/63e343f9-59ce-4c56-9bb6-cc42451cec01/download6987b791264a2b5525252450f99b10d1MD51ORIGINALT11146_Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario.pdfT11146_Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario.pdfArchivo texto completo del trabajo de grado, PDFapplication/pdf1579594https://red.uao.edu.co/bitstreams/bbf0a1df-f520-4fd2-8a46-be3719ef27ed/download22aa33a0a2efbe3361dedaa191141ffdMD52TA11146_Autorización trabajo de grado.pdfTA11146_Autorización trabajo de grado.pdfAutorización para publicación del trabajo de gradoapplication/pdf983991https://red.uao.edu.co/bitstreams/3763e3dd-76d5-44c4-bdfe-e8b89269e4d0/download493fbb1cca2123ff0141217a308e6db7MD53TEXTT11146_Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario.pdf.txtT11146_Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario.pdf.txtExtracted texttext/plain101809https://red.uao.edu.co/bitstreams/c8d3c64f-27b4-461f-bd0a-0dfb642b37f7/download964cb6bcdfb49555f1239ee6d57dc048MD54TA11146_Autorización trabajo de grado.pdf.txtTA11146_Autorización trabajo de grado.pdf.txtExtracted texttext/plain4https://red.uao.edu.co/bitstreams/6e004cc5-4240-47ea-b5e4-5f37572aa2c4/downloadff4c8ff01d544500ea4bfea43e6108c1MD56THUMBNAILT11146_Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario.pdf.jpgT11146_Sistema de una arquitectura software de reconocimiento y seguimiento de personas en un entorno universitario.pdf.jpgGenerated Thumbnailimage/jpeg6957https://red.uao.edu.co/bitstreams/4961831a-aeca-40e5-bc8e-0004d58d91f8/downloadcc4722d0ab0e61eaf65fc29e281bfae1MD55TA11146_Autorización trabajo de grado.pdf.jpgTA11146_Autorización trabajo de grado.pdf.jpgGenerated Thumbnailimage/jpeg14287https://red.uao.edu.co/bitstreams/44670cb6-cec9-448c-8744-625dbe6fb469/download97e33ffee6407337f3137b7a63ccd3afMD5710614/15687oai:red.uao.edu.co:10614/156872024-08-02 03:01:45.48https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos reservados - Universidad Autónoma de Occidente, 2024open.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coPHA+RUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS48L3A+Cg== |