Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial

Esta tesis de pregrado se centra en la reconstrucción de ambientes urbanos de la ciudad de Santiago de Cali haciendo uso de técnicas de mapeo basadas en la fusión sensorial, con el objetivo de generar mapas tridimensionales que sean adecuados para la navegación de vehículos autónomos. A lo largo de...

Full description

Autores:
Castaño López, Jason Alejandro
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2023
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/15016
Acceso en línea:
https://hdl.handle.net/10614/15016
https://red.uao.edu.co/
Palabra clave:
Ingeniería Mecatrónica
Sensores automotrices
Vehículos autónomos
Cartografía digital
Automotive sensors
Autonomous vehicles
Digital mapping
3D reconstruction
Sensor fusion
Autonomous vehicles
Reconstrucción 3D
Fusión sensorial
SLAM
Vehículos autónomos
LiDAR
Rights
openAccess
License
Derechos reservados - Universidad Autónoma de Occidente, 2023
id REPOUAO2_1e618523eed7a10333bf5674acfb7d3d
oai_identifier_str oai:red.uao.edu.co:10614/15016
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial
title Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial
spellingShingle Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial
Ingeniería Mecatrónica
Sensores automotrices
Vehículos autónomos
Cartografía digital
Automotive sensors
Autonomous vehicles
Digital mapping
3D reconstruction
Sensor fusion
Autonomous vehicles
Reconstrucción 3D
Fusión sensorial
SLAM
Vehículos autónomos
LiDAR
title_short Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial
title_full Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial
title_fullStr Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial
title_full_unstemmed Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial
title_sort Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial
dc.creator.fl_str_mv Castaño López, Jason Alejandro
dc.contributor.advisor.none.fl_str_mv Perafán Villota, Juan Carlos
dc.contributor.author.none.fl_str_mv Castaño López, Jason Alejandro
dc.contributor.corporatename.spa.fl_str_mv Universidad Autónoma de Occidente
dc.subject.spa.fl_str_mv Ingeniería Mecatrónica
topic Ingeniería Mecatrónica
Sensores automotrices
Vehículos autónomos
Cartografía digital
Automotive sensors
Autonomous vehicles
Digital mapping
3D reconstruction
Sensor fusion
Autonomous vehicles
Reconstrucción 3D
Fusión sensorial
SLAM
Vehículos autónomos
LiDAR
dc.subject.armarc.spa.fl_str_mv Sensores automotrices
Vehículos autónomos
Cartografía digital
dc.subject.armarc.eng.fl_str_mv Automotive sensors
Autonomous vehicles
Digital mapping
dc.subject.proposal.eng.fl_str_mv 3D reconstruction
Sensor fusion
Autonomous vehicles
dc.subject.proposal.spa.fl_str_mv Reconstrucción 3D
Fusión sensorial
SLAM
Vehículos autónomos
LiDAR
description Esta tesis de pregrado se centra en la reconstrucción de ambientes urbanos de la ciudad de Santiago de Cali haciendo uso de técnicas de mapeo basadas en la fusión sensorial, con el objetivo de generar mapas tridimensionales que sean adecuados para la navegación de vehículos autónomos. A lo largo de este trabajo se presenta el diseño e implementación de una plataforma de sensores de bajo costo que junto al uso de algoritmos estado del arte de SLAM permiten dicha reconstrucción. Nuestros resultados demuestran que es posible, con las características de los sensores utilizados, obtener mapas tridimensionales que conserven de forma acertada la información de los espacios urbanos.
publishDate 2023
dc.date.accessioned.none.fl_str_mv 2023-09-25T15:06:24Z
dc.date.available.none.fl_str_mv 2023-09-25T15:06:24Z
dc.date.issued.none.fl_str_mv 2023-08-11
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_71e4c1898caa6e32
dc.type.coar.eng.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.eng.fl_str_mv Text
dc.type.driver.eng.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.eng.fl_str_mv https://purl.org/redcol/resource_type/TP
format http://purl.org/coar/resource_type/c_7a1f
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/10614/15016
dc.identifier.instname.spa.fl_str_mv Universidad Autónoma de Occidente
dc.identifier.reponame.spa.fl_str_mv Repositorio Educativo Digital UAO
dc.identifier.repourl.spa.fl_str_mv https://red.uao.edu.co/
url https://hdl.handle.net/10614/15016
https://red.uao.edu.co/
identifier_str_mv Universidad Autónoma de Occidente
Repositorio Educativo Digital UAO
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.cites.spa.fl_str_mv Castaño López, J. A. (2023). Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://red.uao.edu.co/handle/10614/15016
dc.relation.references.none.fl_str_mv [1] J. Manyika, M. Chui, J. Bughin, R. Dobbs, P. Bisson, y A. Marrs, “Disruptive technologies: Advances that will transform life, business, and the global economy,” 2013. [Internet]. Disponible en: www.mckinsey.com/~/media/mckinsey/ business%20functions/mckinsey%20digital/our%20insights/disruptive%20technologies/mgi_disruptive_technologies_full_report_may2013.pdf
[2] TWI. What is an autonomous vehicle? [Internet]. Disponible en: www.twi-global. com/technical-knowledge/faqs/what-is-an-autonomous-vehicle
[3] J. Van Brummelen, M. O’Brien, D. Gruyer, y H. Najjaran, “Autonomous vehicle perception: The technology of today and tomorrow,” Transportation Research Part C: Emerging Technologies, vol. 89, pp. 384–406, 2018. [Internet]. Disponible en: https://www.sciencedirect.com/science/article/pii/S0968090X18302134
[4] Z. Wang, X. Zhao, y Z. Xu, “Offline mapping for autonomous vehicles with low-cost sensors,” Computers Electrical Engineering, vol. 82, p. 106552, 2020. [Internet]. Disponible en: https://www.sciencedirect.com/science/article/ pii/S004579061931746X
[5] S. Ulbrich, A. Reschka, J. Rieken, S. Ernst, G. Bagschik, F. Dierkes, M. Nolte, y M. Maurer, “Towards a functional system architecture for automated vehicles,” 2017. [Internet]. Disponible en: https://arxiv.org/abs/1703.08557
[6] E. B. Olson, “Robust and efficient robotic mapping,” Tesis Ph.D., MIT, Massachusetts, Jun. 2008. [Internet]. Disponible en: https://citeseerx.ist.psu.edu/viewdoc/download;jsessionid=C34F81F9FE2DCB59461CBE2982498881? doi=10.1.1.227.1697&rep=rep1&type=pdf
[7] T. Ort, L. Paull, y D. Rus, “Autonomous vehicle navigation in rural environments without detailed prior maps,” IEEE International Conference on Robotics and Automation (ICRA), pp. 2040–2047, 2018. [Internet]. Disponible en: https://doi.org/doi.org/10.1109/ICRA.2018.8460519
[8] WHO, “Global status report on road safety,” 2018. [Internet]. Disponible en: [Internet]. Disponible en: https://red.uao.edu.co/handle/10614/11599
[9] Statista, “Number of traffic-related fatalities in the united states from 2010 to 2020,” 2020. [Internet]. Disponible en: https://www.statista.com/statistics/191521/traffic-related-fatalities-in-the-united-states-since-1975/
[10] B. Saeed Asadi, T. Madjid, A. Mohsen, y O. Tracey, “Autonomous vehicles: challenges, opportunities, and future implications for transportation policies,” Journal of Modern Transportation, vol. 24, pp. 284–303, 2016. [Internet]. Disponible en: https://link.springer.com/article/10.1007/s40534-016-0117-3#citeas
[11] Agencia Nacional de Seguridad Vial, “Fallecidos y lesionados 2021-2022,” 2022. [Internet]. Disponible en: https://ansv.gov.co/es/observatorio/estad%C3%ADsticas/fallecidos-y-lesionados-2021-2022
[12] S. Kato, E. Takeuchi, Y. Ishiguro, Y. Ninomiya, K. Takeda, y T. Hamada, “An open approach to autonomous vehicles,” IEEE Micro, vol. 35, pp. 60–68, 2015. [Internet]. Disponible en: https://doi.org/doi.org/10.1109/MM.2015.133
[13] Publimetro y J. Reyes Fajardo, “Vehículos autónomos, ¿a la vuelta de la esquina?” 2018. [Internet]. Disponible en: https://www.publimetro.co/co/tacometro/2018/01/18/vehiculos-autonomos-la-vuelta-la-esquina.html
[14] J. S. Berrío Pérez, “Mapeo y localización simultánea de un robot móvil en ambientes estructurados basado en integración sensorial,” Universidad del Valle. Cali, Colombia. 2015. [Internet]. Disponible en: https://bibliotecadigital. univalle.edu.co/handle/10893/8843
[15] C. A. Mosquera Victoria y G. A. Dussan Narvaez, “Detección y seguimiento de múltiples objetos en tiempo real para vehículos autónomos,” Universidad Autónoma de Occidente. Cali, Colombia. 2020. [Internet]. Disponible en: https://red.uao.edu.co/handle/10614/12295
[16] M. Díaz Zapata y M. Correa Sandoval, “Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos,” Universidad Autónoma de Occidente. Cali, Colombia. 2019. [Internet]. Disponible en: https://red.uao.edu.co/handle/10614/11599
[17] J. Hincapié Barrera, “Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown,” Universidad Autónoma de Occidente. Cali, Colombia. 2021. [Internet]. Disponible en: https://red.uao.edu.co/handle/10614/13131
[18] L. C. Parrado Cardozo, “Parqueo autónomo de vehículos,” Universidad de los Andes. Bogotá, Colombia. 2021. [Internet]. Disponible en: https: //repositorio.uniandes.edu.co/handle/1992/53885
[19] Ji Zhang and Sanjiv Singh, “Loam: Lidar odometry and mapping in real-time,” Robotics: Science and Systems Conference, 2014. [Internet]. Disponible en: https://doi.org/10.15607/RSS.2014.X.007
[20] T. Shan y B. Englot, “Lego-loam: Lightweight and ground-optimized lidar odometry and mapping on variable terrain,” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 4758–4765, 2018. [Internet]. Disponible en: https://doi.org/10.1109/IROS.2018.8594299
[21] T. Shan, B. Englot, D. Meyers, W. Wang, C. Ratti, y D. Rus, “Lio-sam: Tightly-coupled lidar inertial odometry via smoothing and mapping,” 2020. [Internet]. Disponible en: https://arxiv.org/abs/2007.00258
[22] T. Shan, B. Englot, C. Ratti, y D. Rus, “Lvi-sam: Tightly-coupled lidar-visualinertial odometry via smoothing and mapping,” 2021. [Internet]. Disponible en: https://arxiv.org/abs/2104.10831
[23] T. Qin, P. Li, y S. Shen, “Vins-mono: A robust and versatile monocular visual-inertial state estimator,” IEEE Transactions on Robotics, vol. 34, no. 4, pp. 1004–1020, 2018. [Internet]. Disponible en: https://doi.org/10.1109/TRO. 2018.2853729
[24] W. Xu y F. Zhang, “Fast-lio: A fast, robust lidar-inertial odometry package by tightly-coupled iterated kalman filter,” IEEE Transactions on Robotics, 2021. [Internet]. Disponible en: https://doi.org/10.48550/arXiv.2010.08196
[25] A. Geiger, P. Lenz, C. Stiller, y R. Urtasun, “Vision meets robotics: The KITTI dataset,” The International Journal of Robotics Research, vol. 32, no. 11, pp. 1231–1237, Aug. 2013. [Internet]. Disponible en: https: //doi.org/10.1177%2F0278364913491297
[26] H. Caesar, V. Bankiti, A. H. Lang, S. Vora, V. E. Liong, Q. Xu, A. Krishnan, Y. Pan, G. Baldan, y O. Beijbom, “nuscenes: A multimodal dataset for autonomous driving,” 2020. [Internet]. Disponible en: https: //doi.org/10.48550/arXiv.1903.11027
[27] X. Gao, T. Zhang, Y. Liu, y Q. Yan, 14 Lectures on Visual SLAM: From Theory to Practice. Publishing House of Electronics Industry, 2017.
[28] NASA, “State estimation,” 2008. [Internet]. Disponible en: https://www.nasa. gov/centers/ames/research/technology-onepagers/state-estimation.html
[29] H. R. Künsch, “Particle filters,” Bernoulli, vol. 19, no. 4, pp. 1391 – 1403, 2013. [Internet]. Disponible en: https://doi.org/10.3150/12-BEJSP07
[30] H. Durrant-Whyte y T. Bailey, “Simultaneous localization and mapping: part i,” IEEE Robotics Automation Magazine, vol. 13, no. 2, pp. 99–110, 2006.
[31] K. G. Derpanis, “Overview of the ransac algorithm,” 2005. [Internet]. Disponible en: https://api.semanticscholar.org/CorpusID:2948081
[32] S. Dusmez, M. Heydarzadeh, M. Nourani, y B. Akin, “Remaining useful lifetime estimation for power mosfets under thermal stress with ransac outlier removal,” IEEE Transactions on Industrial Informatics, vol. 13, no. 3, pp. 1271–1279, 2017.
[33] D. Koller y N. Friedman, Probabilistic Graphical Models: Principles and Techniques - Adaptive Computation and Machine Learning. The MIT Press, 2009.
[34] F. Dellaert y M. Kaess, “Factor graphs for robot perception,” Foundations and Trends® in Robotics, vol. 6, no. 1-2, pp. 1–139, 2017. [Internet]. Disponible en: http://dx.doi.org/10.1561/2300000043
[35] P. Newman y K. Ho, “Slam-loop closing with visually salient features,” in Proceedings of the 2005 IEEE International Conference on Robotics and Automation, 2005, pp. 635–642.
[36] ROS, “Ros melodic morenia,” 2018. [Internet]. Disponible en: http://wiki.ros.org/ melodic
[37] ——, “imu_complementary_filter,” 2022. [Internet]. Disponible en: http: //wiki.ros.org/imu_complementary_filter
[38] R. G. Valenti, I. Dryanovski, y J. Xiao, “Keeping a good attitude: A quaternion-based orientation filter for imus and margs,” Sensors, vol. 15, no. 8, pp. 19 302–19 330, 2015. [Internet]. Disponible en: https://www.mdpi. com/1424-8220/15/8/19302
[39] D. Prokhorov, D. Zhukov, O. Barinova, K. Anton, y A. Vorontsova, “Measuring robustness of visual slam,” in 2019 16th International Conference on Machine Vision Applications (MVA), 2019, pp. 1–6.
[40] B. K. P. Horn, “Closed-form solution of absolute orientation using unit quaternions,” J. Opt. Soc. Am. A, vol. 4, no. 4, pp. 629–642, Apr 1987. [Internet]. Disponible en: https://opg.optica.org/josaa/abstract.cfm?URI=josaa-4-4-629
[41] A. Kasar, “Benchmarking and comparing popular visual slam algorithms,” 2018. [Internet]. Disponible en: https://doi.org/10.48550/arXiv.1811.09895
[42] H. A. Ignatious, Hesham-El-Sayed, y M. Khan, “An overview of sensors in autonomous vehicles,” Procedia Computer Science, vol. 198, pp. 736– 741, 2022, 12th International Conference on Emerging Ubiquitous Systems and Pervasive Networks / 11th International Conference on Current and Future Trends of Information and Communication Technologies in Healthcare. [Internet]. Disponible en: https://www.sciencedirect.com/science/ article/pii/S1877050921025540
[43] S. Zheng, J. Wang, C. Rizos, W. Ding, y A. El-Mowafy, “Simultaneous localization and mapping (slam) for autonomous driving: Concept and analysis,” Remote Sensing, vol. 15, no. 4, 2023. [Internet]. Disponible en: https://www.mdpi.com/2072-4292/15/4/1156
[44] TUM School of Computation, Information and Technology, “Absolute trajectory error (ate).” [Internet]. Disponible en: https://cvg.cit.tum.de/data/datasets/ rgbd-dataset/tolos
[45] BLACKFLYS - BFS-U3-04S2, FLIR, 2018. [Internet]. Disponible en: https: //www.apostar.com.tw/data/FLIR/BFS-USB3/BFS-U3-04S2- Datasheet.pdf
[46] Flea2, Point grey Feb. 2009. [Internet]. Disponible en: http://www. surplusgizmos.com/assets/images/flea2-FW-Datasheet.pdf
[47] Chamaleon3, POINT GREY, Jun. 2015, rev. 3.0. [Internet]. Disponible en: https://www.restarcc.com/dcms_media/other/Chameleon3_U3.pdf
[48] MTi 1-series Datasheet, XSENS, Dec. 2019, rev. 2019.A. [Internet]. Disponible en: https://www.xsens.com/hubfs/Downloads/Manuals/MTi-1-series-datasheet. Pdf
[49] UM6 Ultra-Miniature Orientation Sensor Datasheet, CHROBOTICS, Oct. 2013, rev. 2.4. [Internet]. Disponible en: https://www.pololu.com/file/0J442/UM6_ datasheet.pdf
[50] User Manual - RT3000 v3, OXTS, Nov. 2022. [Internet]. Disponible en: https://www.oxts.com/wp-content/uploads/2020/03/rtman-200302.pdf
[51] MPU-9250 - Product Specification, InvenSense, Jun. 2016, rev. 1.1. [Internet]. Disponible en: https://invensense.tdk.com/wp-content/uploads/2015/02/ PS-MPU-9250A-01-v1.1.pdf
dc.rights.spa.fl_str_mv Derechos reservados - Universidad Autónoma de Occidente, 2023
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.eng.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.eng.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.spa.fl_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
rights_invalid_str_mv Derechos reservados - Universidad Autónoma de Occidente, 2023
https://creativecommons.org/licenses/by-nc-nd/4.0/
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.spa.fl_str_mv 69 páginas
dc.format.mimetype.eng.fl_str_mv application/pdf
dc.coverage.spatial.none.fl_str_mv Cll 25 # 115-85 Km 2 Vía Cali - Jamundi
dc.publisher.spa.fl_str_mv Universidad Autónoma de Occidente
dc.publisher.program.spa.fl_str_mv Ingeniería Mecatrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.publisher.place.spa.fl_str_mv Cali
institution Universidad Autónoma de Occidente
bitstream.url.fl_str_mv https://red.uao.edu.co/bitstreams/96af68ca-824b-45aa-9de9-48bca13adec1/download
https://red.uao.edu.co/bitstreams/aa16c441-250b-4ef5-aad4-c7f913a0c81a/download
https://red.uao.edu.co/bitstreams/8565aec2-9e1a-4177-b2b7-33187f2e6936/download
https://red.uao.edu.co/bitstreams/fc304d74-f258-4428-bc62-e532586c871d/download
https://red.uao.edu.co/bitstreams/c147a459-5bc5-4bc5-a6e4-ae424041d51a/download
https://red.uao.edu.co/bitstreams/bfce505a-7b15-45f4-b476-0e4145adc1a9/download
https://red.uao.edu.co/bitstreams/29f1ef80-760a-443b-90cd-8f14668a22e1/download
bitstream.checksum.fl_str_mv e6d915062806cd13dade864f6a0886ed
28abaf8b6804bf4014e4021301443180
20b5ba22b1117f71589c7318baa2c560
17155fa753644c6504cfb9d504b02e29
4a141aec078e3c12ac6fb74d0b85fdee
3b41dc7aca81cfcd0bfe28b797af15c5
29e2f887f353463d99e6f64bfb64943a
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Digital Universidad Autonoma de Occidente
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1814260224511442944
spelling Perafán Villota, Juan Carlosvirtual::4121-1Castaño López, Jason Alejandro4c58c417073644f31faa91d374bdd79eUniversidad Autónoma de OccidenteCll 25 # 115-85 Km 2 Vía Cali - Jamundi2023-09-25T15:06:24Z2023-09-25T15:06:24Z2023-08-11https://hdl.handle.net/10614/15016Universidad Autónoma de OccidenteRepositorio Educativo Digital UAOhttps://red.uao.edu.co/Esta tesis de pregrado se centra en la reconstrucción de ambientes urbanos de la ciudad de Santiago de Cali haciendo uso de técnicas de mapeo basadas en la fusión sensorial, con el objetivo de generar mapas tridimensionales que sean adecuados para la navegación de vehículos autónomos. A lo largo de este trabajo se presenta el diseño e implementación de una plataforma de sensores de bajo costo que junto al uso de algoritmos estado del arte de SLAM permiten dicha reconstrucción. Nuestros resultados demuestran que es posible, con las características de los sensores utilizados, obtener mapas tridimensionales que conserven de forma acertada la información de los espacios urbanos.This thesis focuses on the reconstruction of urban environments of the city of Santiago de Cali using mapping techniques based on sensor fusion, with the aim of generating three-dimensional maps that are appropriate for autonomous vehicle navigation. Along this work, it is presented the design and implementation of a low-cost sensor platform which together with the use of state-of-the-art SLAM algorithms allows such reconstruction. Our results demonstrate that it is possible, with the characteristics of used sensors, to obtain three-dimensional maps that accurately preserve the information of urban spacesProyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2023PregradoIngeniero(a) Mecatrónico(a)69 páginasapplication/pdfspaUniversidad Autónoma de OccidenteIngeniería MecatrónicaFacultad de IngenieríaCaliDerechos reservados - Universidad Autónoma de Occidente, 2023https://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2Ingeniería MecatrónicaSensores automotricesVehículos autónomosCartografía digitalAutomotive sensorsAutonomous vehiclesDigital mapping3D reconstructionSensor fusionAutonomous vehiclesReconstrucción 3DFusión sensorialSLAMVehículos autónomosLiDARConstrucción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorialTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPhttp://purl.org/coar/version/c_71e4c1898caa6e32Castaño López, J. A. (2023). Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://red.uao.edu.co/handle/10614/15016[1] J. Manyika, M. Chui, J. Bughin, R. Dobbs, P. Bisson, y A. Marrs, “Disruptive technologies: Advances that will transform life, business, and the global economy,” 2013. [Internet]. Disponible en: www.mckinsey.com/~/media/mckinsey/ business%20functions/mckinsey%20digital/our%20insights/disruptive%20technologies/mgi_disruptive_technologies_full_report_may2013.pdf[2] TWI. What is an autonomous vehicle? [Internet]. Disponible en: www.twi-global. com/technical-knowledge/faqs/what-is-an-autonomous-vehicle[3] J. Van Brummelen, M. O’Brien, D. Gruyer, y H. Najjaran, “Autonomous vehicle perception: The technology of today and tomorrow,” Transportation Research Part C: Emerging Technologies, vol. 89, pp. 384–406, 2018. [Internet]. Disponible en: https://www.sciencedirect.com/science/article/pii/S0968090X18302134[4] Z. Wang, X. Zhao, y Z. Xu, “Offline mapping for autonomous vehicles with low-cost sensors,” Computers Electrical Engineering, vol. 82, p. 106552, 2020. [Internet]. Disponible en: https://www.sciencedirect.com/science/article/ pii/S004579061931746X[5] S. Ulbrich, A. Reschka, J. Rieken, S. Ernst, G. Bagschik, F. Dierkes, M. Nolte, y M. Maurer, “Towards a functional system architecture for automated vehicles,” 2017. [Internet]. Disponible en: https://arxiv.org/abs/1703.08557[6] E. B. Olson, “Robust and efficient robotic mapping,” Tesis Ph.D., MIT, Massachusetts, Jun. 2008. [Internet]. Disponible en: https://citeseerx.ist.psu.edu/viewdoc/download;jsessionid=C34F81F9FE2DCB59461CBE2982498881? doi=10.1.1.227.1697&rep=rep1&type=pdf[7] T. Ort, L. Paull, y D. Rus, “Autonomous vehicle navigation in rural environments without detailed prior maps,” IEEE International Conference on Robotics and Automation (ICRA), pp. 2040–2047, 2018. [Internet]. Disponible en: https://doi.org/doi.org/10.1109/ICRA.2018.8460519[8] WHO, “Global status report on road safety,” 2018. [Internet]. Disponible en: [Internet]. Disponible en: https://red.uao.edu.co/handle/10614/11599[9] Statista, “Number of traffic-related fatalities in the united states from 2010 to 2020,” 2020. [Internet]. Disponible en: https://www.statista.com/statistics/191521/traffic-related-fatalities-in-the-united-states-since-1975/[10] B. Saeed Asadi, T. Madjid, A. Mohsen, y O. Tracey, “Autonomous vehicles: challenges, opportunities, and future implications for transportation policies,” Journal of Modern Transportation, vol. 24, pp. 284–303, 2016. [Internet]. Disponible en: https://link.springer.com/article/10.1007/s40534-016-0117-3#citeas[11] Agencia Nacional de Seguridad Vial, “Fallecidos y lesionados 2021-2022,” 2022. [Internet]. Disponible en: https://ansv.gov.co/es/observatorio/estad%C3%ADsticas/fallecidos-y-lesionados-2021-2022[12] S. Kato, E. Takeuchi, Y. Ishiguro, Y. Ninomiya, K. Takeda, y T. Hamada, “An open approach to autonomous vehicles,” IEEE Micro, vol. 35, pp. 60–68, 2015. [Internet]. Disponible en: https://doi.org/doi.org/10.1109/MM.2015.133[13] Publimetro y J. Reyes Fajardo, “Vehículos autónomos, ¿a la vuelta de la esquina?” 2018. [Internet]. Disponible en: https://www.publimetro.co/co/tacometro/2018/01/18/vehiculos-autonomos-la-vuelta-la-esquina.html[14] J. S. Berrío Pérez, “Mapeo y localización simultánea de un robot móvil en ambientes estructurados basado en integración sensorial,” Universidad del Valle. Cali, Colombia. 2015. [Internet]. Disponible en: https://bibliotecadigital. univalle.edu.co/handle/10893/8843[15] C. A. Mosquera Victoria y G. A. Dussan Narvaez, “Detección y seguimiento de múltiples objetos en tiempo real para vehículos autónomos,” Universidad Autónoma de Occidente. Cali, Colombia. 2020. [Internet]. Disponible en: https://red.uao.edu.co/handle/10614/12295[16] M. Díaz Zapata y M. Correa Sandoval, “Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos,” Universidad Autónoma de Occidente. Cali, Colombia. 2019. [Internet]. Disponible en: https://red.uao.edu.co/handle/10614/11599[17] J. Hincapié Barrera, “Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown,” Universidad Autónoma de Occidente. Cali, Colombia. 2021. [Internet]. Disponible en: https://red.uao.edu.co/handle/10614/13131[18] L. C. Parrado Cardozo, “Parqueo autónomo de vehículos,” Universidad de los Andes. Bogotá, Colombia. 2021. [Internet]. Disponible en: https: //repositorio.uniandes.edu.co/handle/1992/53885[19] Ji Zhang and Sanjiv Singh, “Loam: Lidar odometry and mapping in real-time,” Robotics: Science and Systems Conference, 2014. [Internet]. Disponible en: https://doi.org/10.15607/RSS.2014.X.007[20] T. Shan y B. Englot, “Lego-loam: Lightweight and ground-optimized lidar odometry and mapping on variable terrain,” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 4758–4765, 2018. [Internet]. Disponible en: https://doi.org/10.1109/IROS.2018.8594299[21] T. Shan, B. Englot, D. Meyers, W. Wang, C. Ratti, y D. Rus, “Lio-sam: Tightly-coupled lidar inertial odometry via smoothing and mapping,” 2020. [Internet]. Disponible en: https://arxiv.org/abs/2007.00258[22] T. Shan, B. Englot, C. Ratti, y D. Rus, “Lvi-sam: Tightly-coupled lidar-visualinertial odometry via smoothing and mapping,” 2021. [Internet]. Disponible en: https://arxiv.org/abs/2104.10831[23] T. Qin, P. Li, y S. Shen, “Vins-mono: A robust and versatile monocular visual-inertial state estimator,” IEEE Transactions on Robotics, vol. 34, no. 4, pp. 1004–1020, 2018. [Internet]. Disponible en: https://doi.org/10.1109/TRO. 2018.2853729[24] W. Xu y F. Zhang, “Fast-lio: A fast, robust lidar-inertial odometry package by tightly-coupled iterated kalman filter,” IEEE Transactions on Robotics, 2021. [Internet]. Disponible en: https://doi.org/10.48550/arXiv.2010.08196[25] A. Geiger, P. Lenz, C. Stiller, y R. Urtasun, “Vision meets robotics: The KITTI dataset,” The International Journal of Robotics Research, vol. 32, no. 11, pp. 1231–1237, Aug. 2013. [Internet]. Disponible en: https: //doi.org/10.1177%2F0278364913491297[26] H. Caesar, V. Bankiti, A. H. Lang, S. Vora, V. E. Liong, Q. Xu, A. Krishnan, Y. Pan, G. Baldan, y O. Beijbom, “nuscenes: A multimodal dataset for autonomous driving,” 2020. [Internet]. Disponible en: https: //doi.org/10.48550/arXiv.1903.11027[27] X. Gao, T. Zhang, Y. Liu, y Q. Yan, 14 Lectures on Visual SLAM: From Theory to Practice. Publishing House of Electronics Industry, 2017.[28] NASA, “State estimation,” 2008. [Internet]. Disponible en: https://www.nasa. gov/centers/ames/research/technology-onepagers/state-estimation.html[29] H. R. Künsch, “Particle filters,” Bernoulli, vol. 19, no. 4, pp. 1391 – 1403, 2013. [Internet]. Disponible en: https://doi.org/10.3150/12-BEJSP07[30] H. Durrant-Whyte y T. Bailey, “Simultaneous localization and mapping: part i,” IEEE Robotics Automation Magazine, vol. 13, no. 2, pp. 99–110, 2006.[31] K. G. Derpanis, “Overview of the ransac algorithm,” 2005. [Internet]. Disponible en: https://api.semanticscholar.org/CorpusID:2948081[32] S. Dusmez, M. Heydarzadeh, M. Nourani, y B. Akin, “Remaining useful lifetime estimation for power mosfets under thermal stress with ransac outlier removal,” IEEE Transactions on Industrial Informatics, vol. 13, no. 3, pp. 1271–1279, 2017.[33] D. Koller y N. Friedman, Probabilistic Graphical Models: Principles and Techniques - Adaptive Computation and Machine Learning. The MIT Press, 2009.[34] F. Dellaert y M. Kaess, “Factor graphs for robot perception,” Foundations and Trends® in Robotics, vol. 6, no. 1-2, pp. 1–139, 2017. [Internet]. Disponible en: http://dx.doi.org/10.1561/2300000043[35] P. Newman y K. Ho, “Slam-loop closing with visually salient features,” in Proceedings of the 2005 IEEE International Conference on Robotics and Automation, 2005, pp. 635–642.[36] ROS, “Ros melodic morenia,” 2018. [Internet]. Disponible en: http://wiki.ros.org/ melodic[37] ——, “imu_complementary_filter,” 2022. [Internet]. Disponible en: http: //wiki.ros.org/imu_complementary_filter[38] R. G. Valenti, I. Dryanovski, y J. Xiao, “Keeping a good attitude: A quaternion-based orientation filter for imus and margs,” Sensors, vol. 15, no. 8, pp. 19 302–19 330, 2015. [Internet]. Disponible en: https://www.mdpi. com/1424-8220/15/8/19302[39] D. Prokhorov, D. Zhukov, O. Barinova, K. Anton, y A. Vorontsova, “Measuring robustness of visual slam,” in 2019 16th International Conference on Machine Vision Applications (MVA), 2019, pp. 1–6.[40] B. K. P. Horn, “Closed-form solution of absolute orientation using unit quaternions,” J. Opt. Soc. Am. A, vol. 4, no. 4, pp. 629–642, Apr 1987. [Internet]. Disponible en: https://opg.optica.org/josaa/abstract.cfm?URI=josaa-4-4-629[41] A. Kasar, “Benchmarking and comparing popular visual slam algorithms,” 2018. [Internet]. Disponible en: https://doi.org/10.48550/arXiv.1811.09895[42] H. A. Ignatious, Hesham-El-Sayed, y M. Khan, “An overview of sensors in autonomous vehicles,” Procedia Computer Science, vol. 198, pp. 736– 741, 2022, 12th International Conference on Emerging Ubiquitous Systems and Pervasive Networks / 11th International Conference on Current and Future Trends of Information and Communication Technologies in Healthcare. [Internet]. Disponible en: https://www.sciencedirect.com/science/ article/pii/S1877050921025540[43] S. Zheng, J. Wang, C. Rizos, W. Ding, y A. El-Mowafy, “Simultaneous localization and mapping (slam) for autonomous driving: Concept and analysis,” Remote Sensing, vol. 15, no. 4, 2023. [Internet]. Disponible en: https://www.mdpi.com/2072-4292/15/4/1156[44] TUM School of Computation, Information and Technology, “Absolute trajectory error (ate).” [Internet]. Disponible en: https://cvg.cit.tum.de/data/datasets/ rgbd-dataset/tolos[45] BLACKFLYS - BFS-U3-04S2, FLIR, 2018. [Internet]. Disponible en: https: //www.apostar.com.tw/data/FLIR/BFS-USB3/BFS-U3-04S2- Datasheet.pdf[46] Flea2, Point grey Feb. 2009. [Internet]. Disponible en: http://www. surplusgizmos.com/assets/images/flea2-FW-Datasheet.pdf[47] Chamaleon3, POINT GREY, Jun. 2015, rev. 3.0. [Internet]. Disponible en: https://www.restarcc.com/dcms_media/other/Chameleon3_U3.pdf[48] MTi 1-series Datasheet, XSENS, Dec. 2019, rev. 2019.A. [Internet]. Disponible en: https://www.xsens.com/hubfs/Downloads/Manuals/MTi-1-series-datasheet. Pdf[49] UM6 Ultra-Miniature Orientation Sensor Datasheet, CHROBOTICS, Oct. 2013, rev. 2.4. [Internet]. Disponible en: https://www.pololu.com/file/0J442/UM6_ datasheet.pdf[50] User Manual - RT3000 v3, OXTS, Nov. 2022. [Internet]. Disponible en: https://www.oxts.com/wp-content/uploads/2020/03/rtman-200302.pdf[51] MPU-9250 - Product Specification, InvenSense, Jun. 2016, rev. 1.1. [Internet]. Disponible en: https://invensense.tdk.com/wp-content/uploads/2015/02/ PS-MPU-9250A-01-v1.1.pdfComunidad generalPublicationhttps://scholar.google.com/citations?user=MW2zbLAAAAAJ&hl=envirtual::4121-10000-0002-7275-9839virtual::4121-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000637769virtual::4121-1286553f4-3942-4404-9123-b85ee6e69330virtual::4121-1286553f4-3942-4404-9123-b85ee6e69330virtual::4121-1ORIGINALT10777_Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial.pdfT10777_Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial.pdfTexto archivo completo de trabajo de grado.pdfapplication/pdf5901193https://red.uao.edu.co/bitstreams/96af68ca-824b-45aa-9de9-48bca13adec1/downloade6d915062806cd13dade864f6a0886edMD51TA10777_Autorización trabajo de grado.pdfTA10777_Autorización trabajo de grado.pdfAutorización publicación del trabajo de gradoapplication/pdf321622https://red.uao.edu.co/bitstreams/aa16c441-250b-4ef5-aad4-c7f913a0c81a/download28abaf8b6804bf4014e4021301443180MD53LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://red.uao.edu.co/bitstreams/8565aec2-9e1a-4177-b2b7-33187f2e6936/download20b5ba22b1117f71589c7318baa2c560MD52TEXTT10777_Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial.pdf.txtT10777_Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial.pdf.txtExtracted texttext/plain84764https://red.uao.edu.co/bitstreams/fc304d74-f258-4428-bc62-e532586c871d/download17155fa753644c6504cfb9d504b02e29MD54TA10777_Autorización trabajo de grado.pdf.txtTA10777_Autorización trabajo de grado.pdf.txtExtracted texttext/plain4045https://red.uao.edu.co/bitstreams/c147a459-5bc5-4bc5-a6e4-ae424041d51a/download4a141aec078e3c12ac6fb74d0b85fdeeMD56THUMBNAILT10777_Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial.pdf.jpgT10777_Construcción de mapas 3D en ambientes urbanos usando técnicas de fusión sensorial.pdf.jpgGenerated Thumbnailimage/jpeg7282https://red.uao.edu.co/bitstreams/bfce505a-7b15-45f4-b476-0e4145adc1a9/download3b41dc7aca81cfcd0bfe28b797af15c5MD55TA10777_Autorización trabajo de grado.pdf.jpgTA10777_Autorización trabajo de grado.pdf.jpgGenerated Thumbnailimage/jpeg13340https://red.uao.edu.co/bitstreams/29f1ef80-760a-443b-90cd-8f14668a22e1/download29e2f887f353463d99e6f64bfb64943aMD5710614/15016oai:red.uao.edu.co:10614/150162024-03-13 11:44:39.104https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos reservados - Universidad Autónoma de Occidente, 2023open.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K