Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes

En este proyecto se diseñó e implementó un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes, utilizando como plataforma experimental un automóvil instrumentado con diferentes sensores. El sistema se desarrolló de tal manera que puede ser implementado e...

Full description

Autores:
Castañeda Cano, Jhonathan Stiven
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2022
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/14455
Acceso en línea:
https://hdl.handle.net/10614/14455
https://red.uao.edu.co/
Palabra clave:
Ingeniería Mecatrónica
Robótica
Detectores de vehículos
Robotics
Vehicle detectors
Puntos ciegos
Detección
Monitoreo
Camión
Rights
openAccess
License
Derechos reservados - Universidad Autónoma de Occidente, 2022
id REPOUAO2_be9528378d9a199265ec40af340d4b97
oai_identifier_str oai:red.uao.edu.co:10614/14455
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes
title Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes
spellingShingle Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes
Ingeniería Mecatrónica
Robótica
Detectores de vehículos
Robotics
Vehicle detectors
Puntos ciegos
Detección
Monitoreo
Camión
title_short Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes
title_full Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes
title_fullStr Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes
title_full_unstemmed Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes
title_sort Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes
dc.creator.fl_str_mv Castañeda Cano, Jhonathan Stiven
dc.contributor.advisor.none.fl_str_mv Romero Cano, Victor
dc.contributor.author.none.fl_str_mv Castañeda Cano, Jhonathan Stiven
dc.subject.spa.fl_str_mv Ingeniería Mecatrónica
topic Ingeniería Mecatrónica
Robótica
Detectores de vehículos
Robotics
Vehicle detectors
Puntos ciegos
Detección
Monitoreo
Camión
dc.subject.armarc.spa.fl_str_mv Robótica
Detectores de vehículos
dc.subject.armarc.eng.fl_str_mv Robotics
Vehicle detectors
dc.subject.proposal.spa.fl_str_mv Puntos ciegos
Detección
Monitoreo
Camión
description En este proyecto se diseñó e implementó un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes, utilizando como plataforma experimental un automóvil instrumentado con diferentes sensores. El sistema se desarrolló de tal manera que puede ser implementado en un camión de una manera intuitiva por un conductor y cuenta con módulos de apoyo para la calibración de los sensores utilizados. Se implementaron módulos de visión computacional y detección de objetos usando redes neuronales artificiales, además, se implementó un sistema de detección redundante con el apoyo de sensores LiDAR; Con estos se genera una serie de alertas para el conductor que le permiten conocer cuando existen determinados objetos en los puntos ciegos del vehículo y cuándo alguno de estos se encuentra demasiado cerca del vehículo. Para la visualización de las alertas generadas por el sistema y para darle al conductor una herramienta de retroalimentación visual integra se implementó una interfaz de usuario que despliega una imagen virtual de vista de pájaro generada con los fotogramas de múltiples cámaras instaladas en el vehículo instrumentado, en la que además es posible visualizar la posición estimada de los objetos detectados alrededor del vehículo con respecto a su marco de referencia local.
publishDate 2022
dc.date.accessioned.none.fl_str_mv 2022-12-01T18:04:33Z
dc.date.available.none.fl_str_mv 2022-12-01T18:04:33Z
dc.date.issued.none.fl_str_mv 2022-11-23
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_71e4c1898caa6e32
dc.type.coar.eng.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.eng.fl_str_mv Text
dc.type.driver.eng.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.eng.fl_str_mv https://purl.org/redcol/resource_type/TP
format http://purl.org/coar/resource_type/c_7a1f
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/10614/14455
dc.identifier.instname.spa.fl_str_mv Universidad Autónoma de Occidente
dc.identifier.reponame.spa.fl_str_mv Repositorio Educativo Digital
dc.identifier.repourl.spa.fl_str_mv https://red.uao.edu.co/
url https://hdl.handle.net/10614/14455
https://red.uao.edu.co/
identifier_str_mv Universidad Autónoma de Occidente
Repositorio Educativo Digital
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.cites.spa.fl_str_mv Castañeda Cano, J. S. (2022). Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://red.uao.edu.co/handle/10614/14455
dc.relation.references.none.fl_str_mv [1] K. Van Beeck y T. Goedemé, “Fast and accurate pedestrian detection in a truck’s blind spot camera,” Pattern Recognition Applications and Methods, pp 179–195, 2014, DOI: https://doi.org/10.1007/978-3-319-25530-9_12.
[2] “Transporte en cifras estadísticas 2018,” Ministerio de transporte de Colombia, anuario estadístico [En línea]. Disponible en: https://mintransporte.gov.co/documentos/15/estadisticas/.
[3] “Caracterización del transporte terrestre automotor de carga en Colombia 2010- 2012,” Ministerio de transporte de Colombia, reporte estadístico [En línea]. Disponible en: https://www.mintransporte.gov.co/descargar.php?idFile=11450.
[4] N. M. Torregroza, J. P. Bocarejo y J. P. Ramos, “Fatigue and crashes: The case of freight transport in Colombia,” Accident Analysis and Prevention, vol. 72, pp. 440- 448, noviembre de 2014, DOI: https://doi.org/10.1016/j.aap.2014.08.002.
[5] Tesla Motors, (2022). “Future of Driving”. [En línea]. Disponible en: https://www.tesla.com/autopilot
[6] A. Geiger, P. Lenz y R. Urtasun, "Are we ready for autonomous driving? The KITTI vision benchmark suite," IEEE Conference on Computer Vision and Pattern Recognition, pp. 3354-3361, 2012, DOI: 10.1109/CVPR.2012.6248074.
[7] A. Crissey, (2019, noviembre 1). “Volvo active driver assist 2.0”. [En línea]. Disponible: https://www.fleetequipmentmag.com/volvo-active-driver-assist-faq/.
[8] Purdue University, (2020). “Purdue Innovating Solutions to Boost Fuel Efficiency, Safety for Heavy-Duty Trucks”. [En línea]. Disponible en: https://engineering.purdue.edu/Engr/Research/GilbrethFellowships/ResearchPropo sals/2019-20/truck-platooning-in-a-connected-and-autonomous-vehicleenvironment-
[9] G. Liu, M. Zhou, L, Wang, H. Wang and X, Guo, “A blind spot detection and warning system based on millimeter wave radar for driver assistance,” Optik, vol. 135, pp. 353-365, 2017, DOI: https://doi.org/10.1016/j.ijleo.2017.01.058.
[10] K, Choi y H. G. Jung, “Cut-in vehicle warning system exploiting multiple rotational images of SVM cameras,” Expert Systems With Applications, vol. 125, pp. 81-99, 2019, DOI: https://doi.org/10.1016/j.eswa.2019.01.081.
[11] Z. Yang, Y. Zhao, X. Hu, Y. Yin, L. Zhou and D. Tao, “A flexible vehicle surround view camera system by central-around coordinate mapping model,” Multimedia Tools and Applications, vol. 79, pp. 11983-12006, 2019, DOI: https://doi.org/10.1007/s11042-018-6744-4.
[12] T. Sato, A. Moro, A. Sugahara, T. Tasaki, A. Yamashita, and H. Asama, “SpatioTemporal Bird’s-eye View Images Using Multiple Fish-eye Cameras,” Proceedings of the IEEE/SICE International Symposium on System Integration, pp. 753-758, 2013, DOI: 10.1109/SII.2013.6776674.
[13] B. Zhang, V. Appia, I. Pekkucuksen, A. U. Batur, P. Shastry, S. Liu, S. Sivasankaran, and K. Chitnis, “A surround view camera solution for embedded systems,” IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp. 676-681, 2014, DOI: 10.1109/CVPRW.2014.103.
[14] R, Siegwart, e I. R, Nourbakhsh. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p23.
[15] A. M. Pinto Vargas y M. A. Saavedra Ruiz, “Desarrollo de un sistema de aterrizaje autónomo para un vehículo aéreo no tripulado sobre un vehículo terrestre,” Universidad Autónoma de Occidente, 2019. [En línea]. Disponible en: https://red.uao.edu.co/bitstream/handle/10614/10754/T08388.pdf;jsessionid=F55E7AC1FFF3356BB35AD24B260EEEA2?sequence=5
[16] R, Siegwart, e I. R, Nourbakhsh. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p37
[17] A. F. Moggio Bessolo, “Diseño de un Sistema de dirección de un vehículo de fórmula SAE,” Universidad de los Andes, 2016. [En línea]. Disponible en: https://repositorio.uniandes.edu.co/bitstream/handle/1992/17987/u729085.pdf?seq uenc
[18] R, Siegwart, e I. R, Nourbakhsh, Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p68
[19] R. Siegwart, y I. R, Nourbakhsh, Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p49
[20] V. A Romero Cano,. Mathematical tools and reference frame transformations [diapositivas]. Universidad Autónoma de Occidente. 2020.
[21] Karlsruhe Institute of Technology, (2022). “The KITTI Vision Benchmark Suite”. [En línea]. Disponible en: https://www.cvlibs.net/datasets/kitti/setup.php.
[22] Velodyne Lidar, (2022). “What is lidar?”. [En línea]. Disponible en: https://velodynelidar.com/what-is-lidar/.
[23] R. SZELISKI. Computer Vision algorithms and applications. 1 ed. London: Springer, 2011, p65
[24] M. Gardill, (2020). “Automotive RADAR: a Signal Processing Perspective on Current Technology and Future Systems”. [En línea]. Disponible en: https://cloud.gardill.net/s/tjoSLSB7fXWTEBb#pdfviewer.
[25] SAE International, (2019), “Levels of driving automation”. [En línea]. Disponible en: https://www.sae.org/news/2019/01/sae-updates-j3016-automated-drivinggraphic
[26] M. S, Nixon. y A. S, Aguado. Feature Extraction and Image Processing for Computer Vision. 3 ed. London: Elsevier, 2012, p491
[27] P. CORKE,. Robotics, Vision and Control: Fundamental algorithms in Matlab. 2 ed. Springer, 2017, p324
[28] “Basic concepts of the homography explained with code”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d9/dab/tutorial_homography.html.
[29] P. CORKE,. Robotics, Vision and Control: Fundamental algorithms in Matlab. 2 ed. Springer, 2017, p364
[30] M. Condon.. “The importance of ISO standards in photography”. 2022 . [En línea]. Disponible en: https://shotkit.com/iso-standards/
[31] “Linux Media Infrastructure userspace API”. [En línea]. Disponible en: https://www.kernel.org/doc/html/v4.17/media/media_uapi.html.
[32] A. Rosebrock, (2021). “OpenCV Histogram Equalization and Adaptive Histogram Equalization (CLAHE)”. [En línea]. Disponible en: https://pyimagesearch.com/2021/02/01/opencv-histogram-equalization-andadaptive-histogram-equalization-clahe/
[33] “Histogram Equalization”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d5/daf/tutorial_py_histogram_equalization.html.
[34] “How to process and show a lidar point-cloud, alongside with rectangular boxes on the detected objects?”. [En línea]. Disponible en: https://forums.developer.nvidia.com/t/how-to-process-and-show-a-lidar-point-cloudalongside-with-rectangular-boxes-on-the-detected-objects/192021
[35] “Point Cloud Library”. [En línea]. Disponible en: https://pointclouds.org/
[36] “K-means”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/clustering.html#k-means
[37] “Gaussian Mixture”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/mixture.html#gmm
[38] “DBSCAN”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/clustering.html#dbscan
[39] S. Saha, (2018). “A Comprehensive Guide to Convolutional Neural Networks — the ELI5 way”. [En línea]. Disponible en: https://towardsdatascience.com/acomprehensive-guide-to-convolutional-neural-networks-the-eli5-way3bd2b1164a53
[40] OpenCV, (2022). “OpenCV modules”. [En línea]. Disponible en: https://docs.opencv.org/4.6.0/
[41] OpenCV, (2022). “Deep Neural Networks (dnn module)”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d2/d58/tutorial_table_of_content_dnn.html
[42] “Training y Serving ML models with tf. keras”. [En línea]. Disponible en: https://blog.tensorflow.org/2018/08/training-and-serving-ml-models-with-tfkeras.html
[43] “Open Neural Network Exchange: The open standard for machine learning interoperability”. [En línea]. Disponible en: https://onnx.ai/index.html
[44] “NVIDIA TensorRT”. [En línea]. Disponible en: https://developer.nvidia.com/tensorrt
[45] M. Harris, (2016). “Mixed-Precision Programming with CUDA 8”. [En línea]. Disponible en: https://developer.nvidia.com/blog/mixed-precision-programmingcuda-8/
[46] “ROS - Robotic Operating system”. [En línea]. Disponible en: https://www.ros.org/
[47] N. Paul y C. Chung, “Application of HDR algorithms to solve direct sunlight problems when autonomous vehicles using machine vision systems are driving into sun,” Computers in Industry, vol. 98, pp. 192-196, 2018, DOI: https://doi.org/10.1016/j.compind.2018.03.011
[48] M. Hanmandlu, O. M. Verma, N. K. Kumar and M. Kulkarni, “A Novel Optimal Fuzzy System for Color Image Enhancement Using Bacterial Foraging”, IEEE Transactions on Instrumentation and Measurement, vol. 58. pp. 2867-2879, 2009, DOI: 10.1109/TIM.2009.2016371
[49] “Dacia Sandero Stepway”. [En línea]. Disponible en: https://www.theblueprints.com/vectordrawings/show/2419/dacia_sandero_stepway/
[50] A. Bochkovskiy, C. Wang and H. M. Liao, “YOLOv4: Optimal Speed and Accuracy of Object Detection”, arXiv.org, 2020. [En línea]. Disponible en: https://arxiv.org/abs/2004.10934
[51] A. Bochkovskiy, “Yolo v4, v3 and v2 for Windows and Linux”. 2020. [En línea]. Disponible en: https://github.com/kiyoshiiriemon/yolov4_dark
[52] N. Wojke, A. Bewley and D. Paulus, "Simple online and realtime tracking with a deep association metric," 2017 IEEE International Conference on Image Processing (ICIP), 2017, pp. 3645-3649, DOI: 10.1109/ICIP.2017.8296962.
[53] “RPLIDAR ROS package”. [En línea]. Disponible en: https://github.com/Slamtec/rplidar_ros
[54] “Construction Equipment Visibility: NIOSH Manual Method”. [En línea]. Disponible en: https://www.cdc.gov/niosh/topics/highwayworkzones/BAD/manualmethod.html
[55] S. J. Ray y J. Teizer, “Computing 3D blind spots of construction equipment: Implementation and evaluation of an automated measurement and visualization method utilizing range point cloud data,” Automation in Construction, vol. 36, pp. 95- 107, 2013, DOI: https://doi.org/10.1016/j.autcon.2013.08.007
[56] S. Summerskill, R. Marshall, S. Cook, J. Lenard and J. Richardson, “The use of volumetric projections in Digital Human Modelling software for the identification of Large Goods Vehicle blind spots,” Applied Ergonomics, vol. 53, pp. 267-280, 2016, DOI: https://doi.org/10.1016/j.apergo.2015.10.013
dc.rights.spa.fl_str_mv Derechos reservados - Universidad Autónoma de Occidente, 2022
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.eng.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.eng.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.spa.fl_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
rights_invalid_str_mv Derechos reservados - Universidad Autónoma de Occidente, 2022
https://creativecommons.org/licenses/by-nc-nd/4.0/
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.spa.fl_str_mv 110 páginas
dc.format.mimetype.eng.fl_str_mv application/pdf
dc.coverage.spatial.none.fl_str_mv Universidad Autónoma de Occidente, Cll 25 # 115-85 Km 2 Vía Cali - Jamundi
dc.publisher.spa.fl_str_mv Universidad Autónoma de Occidente
dc.publisher.program.spa.fl_str_mv Ingeniería Mecatrónica
dc.publisher.department.spa.fl_str_mv Departamento de Automática y Electrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.publisher.place.spa.fl_str_mv Cali
institution Universidad Autónoma de Occidente
bitstream.url.fl_str_mv https://dspace7-uao.metacatalogo.com/bitstreams/b8b22712-aebd-4c65-82c8-a33abe23316e/download
https://dspace7-uao.metacatalogo.com/bitstreams/271a83aa-ef89-4acc-9879-a24692c4a6c8/download
https://dspace7-uao.metacatalogo.com/bitstreams/3d162d04-e5fe-4685-9faa-fe07b4d2e86b/download
https://dspace7-uao.metacatalogo.com/bitstreams/0f319064-10dc-4b07-b506-234d64527f8a/download
https://dspace7-uao.metacatalogo.com/bitstreams/e619d46a-9263-4987-834c-d34918b86de4/download
https://dspace7-uao.metacatalogo.com/bitstreams/3e83a6a3-b0f6-4857-ad3b-1292a02c2352/download
https://dspace7-uao.metacatalogo.com/bitstreams/bb3a5500-2fe4-465f-bcbb-9ec4e55e1fd7/download
bitstream.checksum.fl_str_mv ae7f77d030c8867139a7874eaf0e6f74
abac6025bae38378b09f3f783c0637d5
20b5ba22b1117f71589c7318baa2c560
d3c05b2a3cbf7a7376a0e05a93754d1a
9ad8d03f8925343a98a2dcce52c0e9e0
18534124f2cf60884e0760d963f07c2b
6b9e56a50e64b5a0264552e732810aa1
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio UAO
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1814260049811341312
spelling Romero Cano, Victor03522958c937aa89475211eb4f1a4dc8Castañeda Cano, Jhonathan Stivendf4ad43bdb09c93dbe7c69854cfbcdd1Universidad Autónoma de Occidente, Cll 25 # 115-85 Km 2 Vía Cali - Jamundi2022-12-01T18:04:33Z2022-12-01T18:04:33Z2022-11-23https://hdl.handle.net/10614/14455Universidad Autónoma de OccidenteRepositorio Educativo Digitalhttps://red.uao.edu.co/En este proyecto se diseñó e implementó un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes, utilizando como plataforma experimental un automóvil instrumentado con diferentes sensores. El sistema se desarrolló de tal manera que puede ser implementado en un camión de una manera intuitiva por un conductor y cuenta con módulos de apoyo para la calibración de los sensores utilizados. Se implementaron módulos de visión computacional y detección de objetos usando redes neuronales artificiales, además, se implementó un sistema de detección redundante con el apoyo de sensores LiDAR; Con estos se genera una serie de alertas para el conductor que le permiten conocer cuando existen determinados objetos en los puntos ciegos del vehículo y cuándo alguno de estos se encuentra demasiado cerca del vehículo. Para la visualización de las alertas generadas por el sistema y para darle al conductor una herramienta de retroalimentación visual integra se implementó una interfaz de usuario que despliega una imagen virtual de vista de pájaro generada con los fotogramas de múltiples cámaras instaladas en el vehículo instrumentado, en la que además es posible visualizar la posición estimada de los objetos detectados alrededor del vehículo con respecto a su marco de referencia local.Proyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2022PregradoIngeniero(a) Mecatrónico(a)110 páginasapplication/pdfspaUniversidad Autónoma de OccidenteIngeniería MecatrónicaDepartamento de Automática y ElectrónicaFacultad de IngenieríaCaliDerechos reservados - Universidad Autónoma de Occidente, 2022https://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2Ingeniería MecatrónicaRobóticaDetectores de vehículosRoboticsVehicle detectorsPuntos ciegosDetecciónMonitoreoCamiónDesarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejesTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPhttp://purl.org/coar/version/c_71e4c1898caa6e32Castañeda Cano, J. S. (2022). Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://red.uao.edu.co/handle/10614/14455[1] K. Van Beeck y T. Goedemé, “Fast and accurate pedestrian detection in a truck’s blind spot camera,” Pattern Recognition Applications and Methods, pp 179–195, 2014, DOI: https://doi.org/10.1007/978-3-319-25530-9_12.[2] “Transporte en cifras estadísticas 2018,” Ministerio de transporte de Colombia, anuario estadístico [En línea]. Disponible en: https://mintransporte.gov.co/documentos/15/estadisticas/.[3] “Caracterización del transporte terrestre automotor de carga en Colombia 2010- 2012,” Ministerio de transporte de Colombia, reporte estadístico [En línea]. Disponible en: https://www.mintransporte.gov.co/descargar.php?idFile=11450.[4] N. M. Torregroza, J. P. Bocarejo y J. P. Ramos, “Fatigue and crashes: The case of freight transport in Colombia,” Accident Analysis and Prevention, vol. 72, pp. 440- 448, noviembre de 2014, DOI: https://doi.org/10.1016/j.aap.2014.08.002.[5] Tesla Motors, (2022). “Future of Driving”. [En línea]. Disponible en: https://www.tesla.com/autopilot[6] A. Geiger, P. Lenz y R. Urtasun, "Are we ready for autonomous driving? The KITTI vision benchmark suite," IEEE Conference on Computer Vision and Pattern Recognition, pp. 3354-3361, 2012, DOI: 10.1109/CVPR.2012.6248074.[7] A. Crissey, (2019, noviembre 1). “Volvo active driver assist 2.0”. [En línea]. Disponible: https://www.fleetequipmentmag.com/volvo-active-driver-assist-faq/.[8] Purdue University, (2020). “Purdue Innovating Solutions to Boost Fuel Efficiency, Safety for Heavy-Duty Trucks”. [En línea]. Disponible en: https://engineering.purdue.edu/Engr/Research/GilbrethFellowships/ResearchPropo sals/2019-20/truck-platooning-in-a-connected-and-autonomous-vehicleenvironment-[9] G. Liu, M. Zhou, L, Wang, H. Wang and X, Guo, “A blind spot detection and warning system based on millimeter wave radar for driver assistance,” Optik, vol. 135, pp. 353-365, 2017, DOI: https://doi.org/10.1016/j.ijleo.2017.01.058.[10] K, Choi y H. G. Jung, “Cut-in vehicle warning system exploiting multiple rotational images of SVM cameras,” Expert Systems With Applications, vol. 125, pp. 81-99, 2019, DOI: https://doi.org/10.1016/j.eswa.2019.01.081.[11] Z. Yang, Y. Zhao, X. Hu, Y. Yin, L. Zhou and D. Tao, “A flexible vehicle surround view camera system by central-around coordinate mapping model,” Multimedia Tools and Applications, vol. 79, pp. 11983-12006, 2019, DOI: https://doi.org/10.1007/s11042-018-6744-4.[12] T. Sato, A. Moro, A. Sugahara, T. Tasaki, A. Yamashita, and H. Asama, “SpatioTemporal Bird’s-eye View Images Using Multiple Fish-eye Cameras,” Proceedings of the IEEE/SICE International Symposium on System Integration, pp. 753-758, 2013, DOI: 10.1109/SII.2013.6776674.[13] B. Zhang, V. Appia, I. Pekkucuksen, A. U. Batur, P. Shastry, S. Liu, S. Sivasankaran, and K. Chitnis, “A surround view camera solution for embedded systems,” IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp. 676-681, 2014, DOI: 10.1109/CVPRW.2014.103.[14] R, Siegwart, e I. R, Nourbakhsh. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p23.[15] A. M. Pinto Vargas y M. A. Saavedra Ruiz, “Desarrollo de un sistema de aterrizaje autónomo para un vehículo aéreo no tripulado sobre un vehículo terrestre,” Universidad Autónoma de Occidente, 2019. [En línea]. Disponible en: https://red.uao.edu.co/bitstream/handle/10614/10754/T08388.pdf;jsessionid=F55E7AC1FFF3356BB35AD24B260EEEA2?sequence=5[16] R, Siegwart, e I. R, Nourbakhsh. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p37[17] A. F. Moggio Bessolo, “Diseño de un Sistema de dirección de un vehículo de fórmula SAE,” Universidad de los Andes, 2016. [En línea]. Disponible en: https://repositorio.uniandes.edu.co/bitstream/handle/1992/17987/u729085.pdf?seq uenc[18] R, Siegwart, e I. R, Nourbakhsh, Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p68[19] R. Siegwart, y I. R, Nourbakhsh, Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p49[20] V. A Romero Cano,. Mathematical tools and reference frame transformations [diapositivas]. Universidad Autónoma de Occidente. 2020.[21] Karlsruhe Institute of Technology, (2022). “The KITTI Vision Benchmark Suite”. [En línea]. Disponible en: https://www.cvlibs.net/datasets/kitti/setup.php.[22] Velodyne Lidar, (2022). “What is lidar?”. [En línea]. Disponible en: https://velodynelidar.com/what-is-lidar/.[23] R. SZELISKI. Computer Vision algorithms and applications. 1 ed. London: Springer, 2011, p65[24] M. Gardill, (2020). “Automotive RADAR: a Signal Processing Perspective on Current Technology and Future Systems”. [En línea]. Disponible en: https://cloud.gardill.net/s/tjoSLSB7fXWTEBb#pdfviewer.[25] SAE International, (2019), “Levels of driving automation”. [En línea]. Disponible en: https://www.sae.org/news/2019/01/sae-updates-j3016-automated-drivinggraphic[26] M. S, Nixon. y A. S, Aguado. Feature Extraction and Image Processing for Computer Vision. 3 ed. London: Elsevier, 2012, p491[27] P. CORKE,. Robotics, Vision and Control: Fundamental algorithms in Matlab. 2 ed. Springer, 2017, p324[28] “Basic concepts of the homography explained with code”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d9/dab/tutorial_homography.html.[29] P. CORKE,. Robotics, Vision and Control: Fundamental algorithms in Matlab. 2 ed. Springer, 2017, p364[30] M. Condon.. “The importance of ISO standards in photography”. 2022 . [En línea]. Disponible en: https://shotkit.com/iso-standards/[31] “Linux Media Infrastructure userspace API”. [En línea]. Disponible en: https://www.kernel.org/doc/html/v4.17/media/media_uapi.html.[32] A. Rosebrock, (2021). “OpenCV Histogram Equalization and Adaptive Histogram Equalization (CLAHE)”. [En línea]. Disponible en: https://pyimagesearch.com/2021/02/01/opencv-histogram-equalization-andadaptive-histogram-equalization-clahe/[33] “Histogram Equalization”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d5/daf/tutorial_py_histogram_equalization.html.[34] “How to process and show a lidar point-cloud, alongside with rectangular boxes on the detected objects?”. [En línea]. Disponible en: https://forums.developer.nvidia.com/t/how-to-process-and-show-a-lidar-point-cloudalongside-with-rectangular-boxes-on-the-detected-objects/192021[35] “Point Cloud Library”. [En línea]. Disponible en: https://pointclouds.org/[36] “K-means”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/clustering.html#k-means[37] “Gaussian Mixture”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/mixture.html#gmm[38] “DBSCAN”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/clustering.html#dbscan[39] S. Saha, (2018). “A Comprehensive Guide to Convolutional Neural Networks — the ELI5 way”. [En línea]. Disponible en: https://towardsdatascience.com/acomprehensive-guide-to-convolutional-neural-networks-the-eli5-way3bd2b1164a53[40] OpenCV, (2022). “OpenCV modules”. [En línea]. Disponible en: https://docs.opencv.org/4.6.0/[41] OpenCV, (2022). “Deep Neural Networks (dnn module)”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d2/d58/tutorial_table_of_content_dnn.html[42] “Training y Serving ML models with tf. keras”. [En línea]. Disponible en: https://blog.tensorflow.org/2018/08/training-and-serving-ml-models-with-tfkeras.html[43] “Open Neural Network Exchange: The open standard for machine learning interoperability”. [En línea]. Disponible en: https://onnx.ai/index.html[44] “NVIDIA TensorRT”. [En línea]. Disponible en: https://developer.nvidia.com/tensorrt[45] M. Harris, (2016). “Mixed-Precision Programming with CUDA 8”. [En línea]. Disponible en: https://developer.nvidia.com/blog/mixed-precision-programmingcuda-8/[46] “ROS - Robotic Operating system”. [En línea]. Disponible en: https://www.ros.org/[47] N. Paul y C. Chung, “Application of HDR algorithms to solve direct sunlight problems when autonomous vehicles using machine vision systems are driving into sun,” Computers in Industry, vol. 98, pp. 192-196, 2018, DOI: https://doi.org/10.1016/j.compind.2018.03.011[48] M. Hanmandlu, O. M. Verma, N. K. Kumar and M. Kulkarni, “A Novel Optimal Fuzzy System for Color Image Enhancement Using Bacterial Foraging”, IEEE Transactions on Instrumentation and Measurement, vol. 58. pp. 2867-2879, 2009, DOI: 10.1109/TIM.2009.2016371[49] “Dacia Sandero Stepway”. [En línea]. Disponible en: https://www.theblueprints.com/vectordrawings/show/2419/dacia_sandero_stepway/[50] A. Bochkovskiy, C. Wang and H. M. Liao, “YOLOv4: Optimal Speed and Accuracy of Object Detection”, arXiv.org, 2020. [En línea]. Disponible en: https://arxiv.org/abs/2004.10934[51] A. Bochkovskiy, “Yolo v4, v3 and v2 for Windows and Linux”. 2020. [En línea]. Disponible en: https://github.com/kiyoshiiriemon/yolov4_dark[52] N. Wojke, A. Bewley and D. Paulus, "Simple online and realtime tracking with a deep association metric," 2017 IEEE International Conference on Image Processing (ICIP), 2017, pp. 3645-3649, DOI: 10.1109/ICIP.2017.8296962.[53] “RPLIDAR ROS package”. [En línea]. Disponible en: https://github.com/Slamtec/rplidar_ros[54] “Construction Equipment Visibility: NIOSH Manual Method”. [En línea]. Disponible en: https://www.cdc.gov/niosh/topics/highwayworkzones/BAD/manualmethod.html[55] S. J. Ray y J. Teizer, “Computing 3D blind spots of construction equipment: Implementation and evaluation of an automated measurement and visualization method utilizing range point cloud data,” Automation in Construction, vol. 36, pp. 95- 107, 2013, DOI: https://doi.org/10.1016/j.autcon.2013.08.007[56] S. Summerskill, R. Marshall, S. Cook, J. Lenard and J. Richardson, “The use of volumetric projections in Digital Human Modelling software for the identification of Large Goods Vehicle blind spots,” Applied Ergonomics, vol. 53, pp. 267-280, 2016, DOI: https://doi.org/10.1016/j.apergo.2015.10.013Comunidad generalPublicationORIGINALT10470_Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes.pdfT10470_Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes.pdfTexto archivo completo del trabajo de grado, PDFapplication/pdf2505857https://dspace7-uao.metacatalogo.com/bitstreams/b8b22712-aebd-4c65-82c8-a33abe23316e/downloadae7f77d030c8867139a7874eaf0e6f74MD51TA10470_Autorización trabajo de grado.pdfTA10470_Autorización trabajo de grado.pdfAutorización publicación del trabajo de gradoapplication/pdf149588https://dspace7-uao.metacatalogo.com/bitstreams/271a83aa-ef89-4acc-9879-a24692c4a6c8/downloadabac6025bae38378b09f3f783c0637d5MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://dspace7-uao.metacatalogo.com/bitstreams/3d162d04-e5fe-4685-9faa-fe07b4d2e86b/download20b5ba22b1117f71589c7318baa2c560MD53TEXTT10470_Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes.pdf.txtT10470_Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes.pdf.txtExtracted texttext/plain145281https://dspace7-uao.metacatalogo.com/bitstreams/0f319064-10dc-4b07-b506-234d64527f8a/downloadd3c05b2a3cbf7a7376a0e05a93754d1aMD54TA10470_Autorización trabajo de grado.pdf.txtTA10470_Autorización trabajo de grado.pdf.txtExtracted texttext/plain4073https://dspace7-uao.metacatalogo.com/bitstreams/e619d46a-9263-4987-834c-d34918b86de4/download9ad8d03f8925343a98a2dcce52c0e9e0MD56THUMBNAILT10470_Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes.pdf.jpgT10470_Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes.pdf.jpgGenerated Thumbnailimage/jpeg7328https://dspace7-uao.metacatalogo.com/bitstreams/3e83a6a3-b0f6-4857-ad3b-1292a02c2352/download18534124f2cf60884e0760d963f07c2bMD55TA10470_Autorización trabajo de grado.pdf.jpgTA10470_Autorización trabajo de grado.pdf.jpgGenerated Thumbnailimage/jpeg11790https://dspace7-uao.metacatalogo.com/bitstreams/bb3a5500-2fe4-465f-bcbb-9ec4e55e1fd7/download6b9e56a50e64b5a0264552e732810aa1MD5710614/14455oai:dspace7-uao.metacatalogo.com:10614/144552024-01-19 16:48:09.634https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos reservados - Universidad Autónoma de Occidente, 2022open.accesshttps://dspace7-uao.metacatalogo.comRepositorio UAOrepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K