Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes
En este proyecto se diseñó e implementó un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes, utilizando como plataforma experimental un automóvil instrumentado con diferentes sensores. El sistema se desarrolló de tal manera que puede ser implementado e...
- Autores:
-
Castañeda Cano, Jhonathan Stiven
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2022
- Institución:
- Universidad Autónoma de Occidente
- Repositorio:
- RED: Repositorio Educativo Digital UAO
- Idioma:
- spa
- OAI Identifier:
- oai:red.uao.edu.co:10614/14455
- Acceso en línea:
- https://hdl.handle.net/10614/14455
https://red.uao.edu.co/
- Palabra clave:
- Ingeniería Mecatrónica
Robótica
Detectores de vehículos
Robotics
Vehicle detectors
Puntos ciegos
Detección
Monitoreo
Camión
- Rights
- openAccess
- License
- Derechos reservados - Universidad Autónoma de Occidente, 2022
id |
REPOUAO2_be9528378d9a199265ec40af340d4b97 |
---|---|
oai_identifier_str |
oai:red.uao.edu.co:10614/14455 |
network_acronym_str |
REPOUAO2 |
network_name_str |
RED: Repositorio Educativo Digital UAO |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes |
title |
Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes |
spellingShingle |
Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes Ingeniería Mecatrónica Robótica Detectores de vehículos Robotics Vehicle detectors Puntos ciegos Detección Monitoreo Camión |
title_short |
Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes |
title_full |
Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes |
title_fullStr |
Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes |
title_full_unstemmed |
Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes |
title_sort |
Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes |
dc.creator.fl_str_mv |
Castañeda Cano, Jhonathan Stiven |
dc.contributor.advisor.none.fl_str_mv |
Romero Cano, Victor |
dc.contributor.author.none.fl_str_mv |
Castañeda Cano, Jhonathan Stiven |
dc.subject.spa.fl_str_mv |
Ingeniería Mecatrónica |
topic |
Ingeniería Mecatrónica Robótica Detectores de vehículos Robotics Vehicle detectors Puntos ciegos Detección Monitoreo Camión |
dc.subject.armarc.spa.fl_str_mv |
Robótica Detectores de vehículos |
dc.subject.armarc.eng.fl_str_mv |
Robotics Vehicle detectors |
dc.subject.proposal.spa.fl_str_mv |
Puntos ciegos Detección Monitoreo Camión |
description |
En este proyecto se diseñó e implementó un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes, utilizando como plataforma experimental un automóvil instrumentado con diferentes sensores. El sistema se desarrolló de tal manera que puede ser implementado en un camión de una manera intuitiva por un conductor y cuenta con módulos de apoyo para la calibración de los sensores utilizados. Se implementaron módulos de visión computacional y detección de objetos usando redes neuronales artificiales, además, se implementó un sistema de detección redundante con el apoyo de sensores LiDAR; Con estos se genera una serie de alertas para el conductor que le permiten conocer cuando existen determinados objetos en los puntos ciegos del vehículo y cuándo alguno de estos se encuentra demasiado cerca del vehículo. Para la visualización de las alertas generadas por el sistema y para darle al conductor una herramienta de retroalimentación visual integra se implementó una interfaz de usuario que despliega una imagen virtual de vista de pájaro generada con los fotogramas de múltiples cámaras instaladas en el vehículo instrumentado, en la que además es posible visualizar la posición estimada de los objetos detectados alrededor del vehículo con respecto a su marco de referencia local. |
publishDate |
2022 |
dc.date.accessioned.none.fl_str_mv |
2022-12-01T18:04:33Z |
dc.date.available.none.fl_str_mv |
2022-12-01T18:04:33Z |
dc.date.issued.none.fl_str_mv |
2022-11-23 |
dc.type.spa.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.coarversion.fl_str_mv |
http://purl.org/coar/version/c_71e4c1898caa6e32 |
dc.type.coar.eng.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.eng.fl_str_mv |
Text |
dc.type.driver.eng.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.redcol.eng.fl_str_mv |
https://purl.org/redcol/resource_type/TP |
format |
http://purl.org/coar/resource_type/c_7a1f |
dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/10614/14455 |
dc.identifier.instname.spa.fl_str_mv |
Universidad Autónoma de Occidente |
dc.identifier.reponame.spa.fl_str_mv |
Repositorio Educativo Digital |
dc.identifier.repourl.spa.fl_str_mv |
https://red.uao.edu.co/ |
url |
https://hdl.handle.net/10614/14455 https://red.uao.edu.co/ |
identifier_str_mv |
Universidad Autónoma de Occidente Repositorio Educativo Digital |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.cites.spa.fl_str_mv |
Castañeda Cano, J. S. (2022). Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://red.uao.edu.co/handle/10614/14455 |
dc.relation.references.none.fl_str_mv |
[1] K. Van Beeck y T. Goedemé, “Fast and accurate pedestrian detection in a truck’s blind spot camera,” Pattern Recognition Applications and Methods, pp 179–195, 2014, DOI: https://doi.org/10.1007/978-3-319-25530-9_12. [2] “Transporte en cifras estadísticas 2018,” Ministerio de transporte de Colombia, anuario estadístico [En línea]. Disponible en: https://mintransporte.gov.co/documentos/15/estadisticas/. [3] “Caracterización del transporte terrestre automotor de carga en Colombia 2010- 2012,” Ministerio de transporte de Colombia, reporte estadístico [En línea]. Disponible en: https://www.mintransporte.gov.co/descargar.php?idFile=11450. [4] N. M. Torregroza, J. P. Bocarejo y J. P. Ramos, “Fatigue and crashes: The case of freight transport in Colombia,” Accident Analysis and Prevention, vol. 72, pp. 440- 448, noviembre de 2014, DOI: https://doi.org/10.1016/j.aap.2014.08.002. [5] Tesla Motors, (2022). “Future of Driving”. [En línea]. Disponible en: https://www.tesla.com/autopilot [6] A. Geiger, P. Lenz y R. Urtasun, "Are we ready for autonomous driving? The KITTI vision benchmark suite," IEEE Conference on Computer Vision and Pattern Recognition, pp. 3354-3361, 2012, DOI: 10.1109/CVPR.2012.6248074. [7] A. Crissey, (2019, noviembre 1). “Volvo active driver assist 2.0”. [En línea]. Disponible: https://www.fleetequipmentmag.com/volvo-active-driver-assist-faq/. [8] Purdue University, (2020). “Purdue Innovating Solutions to Boost Fuel Efficiency, Safety for Heavy-Duty Trucks”. [En línea]. Disponible en: https://engineering.purdue.edu/Engr/Research/GilbrethFellowships/ResearchPropo sals/2019-20/truck-platooning-in-a-connected-and-autonomous-vehicleenvironment- [9] G. Liu, M. Zhou, L, Wang, H. Wang and X, Guo, “A blind spot detection and warning system based on millimeter wave radar for driver assistance,” Optik, vol. 135, pp. 353-365, 2017, DOI: https://doi.org/10.1016/j.ijleo.2017.01.058. [10] K, Choi y H. G. Jung, “Cut-in vehicle warning system exploiting multiple rotational images of SVM cameras,” Expert Systems With Applications, vol. 125, pp. 81-99, 2019, DOI: https://doi.org/10.1016/j.eswa.2019.01.081. [11] Z. Yang, Y. Zhao, X. Hu, Y. Yin, L. Zhou and D. Tao, “A flexible vehicle surround view camera system by central-around coordinate mapping model,” Multimedia Tools and Applications, vol. 79, pp. 11983-12006, 2019, DOI: https://doi.org/10.1007/s11042-018-6744-4. [12] T. Sato, A. Moro, A. Sugahara, T. Tasaki, A. Yamashita, and H. Asama, “SpatioTemporal Bird’s-eye View Images Using Multiple Fish-eye Cameras,” Proceedings of the IEEE/SICE International Symposium on System Integration, pp. 753-758, 2013, DOI: 10.1109/SII.2013.6776674. [13] B. Zhang, V. Appia, I. Pekkucuksen, A. U. Batur, P. Shastry, S. Liu, S. Sivasankaran, and K. Chitnis, “A surround view camera solution for embedded systems,” IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp. 676-681, 2014, DOI: 10.1109/CVPRW.2014.103. [14] R, Siegwart, e I. R, Nourbakhsh. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p23. [15] A. M. Pinto Vargas y M. A. Saavedra Ruiz, “Desarrollo de un sistema de aterrizaje autónomo para un vehículo aéreo no tripulado sobre un vehículo terrestre,” Universidad Autónoma de Occidente, 2019. [En línea]. Disponible en: https://red.uao.edu.co/bitstream/handle/10614/10754/T08388.pdf;jsessionid=F55E7AC1FFF3356BB35AD24B260EEEA2?sequence=5 [16] R, Siegwart, e I. R, Nourbakhsh. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p37 [17] A. F. Moggio Bessolo, “Diseño de un Sistema de dirección de un vehículo de fórmula SAE,” Universidad de los Andes, 2016. [En línea]. Disponible en: https://repositorio.uniandes.edu.co/bitstream/handle/1992/17987/u729085.pdf?seq uenc [18] R, Siegwart, e I. R, Nourbakhsh, Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p68 [19] R. Siegwart, y I. R, Nourbakhsh, Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p49 [20] V. A Romero Cano,. Mathematical tools and reference frame transformations [diapositivas]. Universidad Autónoma de Occidente. 2020. [21] Karlsruhe Institute of Technology, (2022). “The KITTI Vision Benchmark Suite”. [En línea]. Disponible en: https://www.cvlibs.net/datasets/kitti/setup.php. [22] Velodyne Lidar, (2022). “What is lidar?”. [En línea]. Disponible en: https://velodynelidar.com/what-is-lidar/. [23] R. SZELISKI. Computer Vision algorithms and applications. 1 ed. London: Springer, 2011, p65 [24] M. Gardill, (2020). “Automotive RADAR: a Signal Processing Perspective on Current Technology and Future Systems”. [En línea]. Disponible en: https://cloud.gardill.net/s/tjoSLSB7fXWTEBb#pdfviewer. [25] SAE International, (2019), “Levels of driving automation”. [En línea]. Disponible en: https://www.sae.org/news/2019/01/sae-updates-j3016-automated-drivinggraphic [26] M. S, Nixon. y A. S, Aguado. Feature Extraction and Image Processing for Computer Vision. 3 ed. London: Elsevier, 2012, p491 [27] P. CORKE,. Robotics, Vision and Control: Fundamental algorithms in Matlab. 2 ed. Springer, 2017, p324 [28] “Basic concepts of the homography explained with code”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d9/dab/tutorial_homography.html. [29] P. CORKE,. Robotics, Vision and Control: Fundamental algorithms in Matlab. 2 ed. Springer, 2017, p364 [30] M. Condon.. “The importance of ISO standards in photography”. 2022 . [En línea]. Disponible en: https://shotkit.com/iso-standards/ [31] “Linux Media Infrastructure userspace API”. [En línea]. Disponible en: https://www.kernel.org/doc/html/v4.17/media/media_uapi.html. [32] A. Rosebrock, (2021). “OpenCV Histogram Equalization and Adaptive Histogram Equalization (CLAHE)”. [En línea]. Disponible en: https://pyimagesearch.com/2021/02/01/opencv-histogram-equalization-andadaptive-histogram-equalization-clahe/ [33] “Histogram Equalization”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d5/daf/tutorial_py_histogram_equalization.html. [34] “How to process and show a lidar point-cloud, alongside with rectangular boxes on the detected objects?”. [En línea]. Disponible en: https://forums.developer.nvidia.com/t/how-to-process-and-show-a-lidar-point-cloudalongside-with-rectangular-boxes-on-the-detected-objects/192021 [35] “Point Cloud Library”. [En línea]. Disponible en: https://pointclouds.org/ [36] “K-means”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/clustering.html#k-means [37] “Gaussian Mixture”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/mixture.html#gmm [38] “DBSCAN”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/clustering.html#dbscan [39] S. Saha, (2018). “A Comprehensive Guide to Convolutional Neural Networks — the ELI5 way”. [En línea]. Disponible en: https://towardsdatascience.com/acomprehensive-guide-to-convolutional-neural-networks-the-eli5-way3bd2b1164a53 [40] OpenCV, (2022). “OpenCV modules”. [En línea]. Disponible en: https://docs.opencv.org/4.6.0/ [41] OpenCV, (2022). “Deep Neural Networks (dnn module)”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d2/d58/tutorial_table_of_content_dnn.html [42] “Training y Serving ML models with tf. keras”. [En línea]. Disponible en: https://blog.tensorflow.org/2018/08/training-and-serving-ml-models-with-tfkeras.html [43] “Open Neural Network Exchange: The open standard for machine learning interoperability”. [En línea]. Disponible en: https://onnx.ai/index.html [44] “NVIDIA TensorRT”. [En línea]. Disponible en: https://developer.nvidia.com/tensorrt [45] M. Harris, (2016). “Mixed-Precision Programming with CUDA 8”. [En línea]. Disponible en: https://developer.nvidia.com/blog/mixed-precision-programmingcuda-8/ [46] “ROS - Robotic Operating system”. [En línea]. Disponible en: https://www.ros.org/ [47] N. Paul y C. Chung, “Application of HDR algorithms to solve direct sunlight problems when autonomous vehicles using machine vision systems are driving into sun,” Computers in Industry, vol. 98, pp. 192-196, 2018, DOI: https://doi.org/10.1016/j.compind.2018.03.011 [48] M. Hanmandlu, O. M. Verma, N. K. Kumar and M. Kulkarni, “A Novel Optimal Fuzzy System for Color Image Enhancement Using Bacterial Foraging”, IEEE Transactions on Instrumentation and Measurement, vol. 58. pp. 2867-2879, 2009, DOI: 10.1109/TIM.2009.2016371 [49] “Dacia Sandero Stepway”. [En línea]. Disponible en: https://www.theblueprints.com/vectordrawings/show/2419/dacia_sandero_stepway/ [50] A. Bochkovskiy, C. Wang and H. M. Liao, “YOLOv4: Optimal Speed and Accuracy of Object Detection”, arXiv.org, 2020. [En línea]. Disponible en: https://arxiv.org/abs/2004.10934 [51] A. Bochkovskiy, “Yolo v4, v3 and v2 for Windows and Linux”. 2020. [En línea]. Disponible en: https://github.com/kiyoshiiriemon/yolov4_dark [52] N. Wojke, A. Bewley and D. Paulus, "Simple online and realtime tracking with a deep association metric," 2017 IEEE International Conference on Image Processing (ICIP), 2017, pp. 3645-3649, DOI: 10.1109/ICIP.2017.8296962. [53] “RPLIDAR ROS package”. [En línea]. Disponible en: https://github.com/Slamtec/rplidar_ros [54] “Construction Equipment Visibility: NIOSH Manual Method”. [En línea]. Disponible en: https://www.cdc.gov/niosh/topics/highwayworkzones/BAD/manualmethod.html [55] S. J. Ray y J. Teizer, “Computing 3D blind spots of construction equipment: Implementation and evaluation of an automated measurement and visualization method utilizing range point cloud data,” Automation in Construction, vol. 36, pp. 95- 107, 2013, DOI: https://doi.org/10.1016/j.autcon.2013.08.007 [56] S. Summerskill, R. Marshall, S. Cook, J. Lenard and J. Richardson, “The use of volumetric projections in Digital Human Modelling software for the identification of Large Goods Vehicle blind spots,” Applied Ergonomics, vol. 53, pp. 267-280, 2016, DOI: https://doi.org/10.1016/j.apergo.2015.10.013 |
dc.rights.spa.fl_str_mv |
Derechos reservados - Universidad Autónoma de Occidente, 2022 |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.uri.eng.fl_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0/ |
dc.rights.accessrights.eng.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.creativecommons.spa.fl_str_mv |
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) |
rights_invalid_str_mv |
Derechos reservados - Universidad Autónoma de Occidente, 2022 https://creativecommons.org/licenses/by-nc-nd/4.0/ Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.extent.spa.fl_str_mv |
110 páginas |
dc.format.mimetype.eng.fl_str_mv |
application/pdf |
dc.coverage.spatial.none.fl_str_mv |
Universidad Autónoma de Occidente, Cll 25 # 115-85 Km 2 Vía Cali - Jamundi |
dc.publisher.spa.fl_str_mv |
Universidad Autónoma de Occidente |
dc.publisher.program.spa.fl_str_mv |
Ingeniería Mecatrónica |
dc.publisher.department.spa.fl_str_mv |
Departamento de Automática y Electrónica |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ingeniería |
dc.publisher.place.spa.fl_str_mv |
Cali |
institution |
Universidad Autónoma de Occidente |
bitstream.url.fl_str_mv |
https://dspace7-uao.metacatalogo.com/bitstreams/b8b22712-aebd-4c65-82c8-a33abe23316e/download https://dspace7-uao.metacatalogo.com/bitstreams/271a83aa-ef89-4acc-9879-a24692c4a6c8/download https://dspace7-uao.metacatalogo.com/bitstreams/3d162d04-e5fe-4685-9faa-fe07b4d2e86b/download https://dspace7-uao.metacatalogo.com/bitstreams/0f319064-10dc-4b07-b506-234d64527f8a/download https://dspace7-uao.metacatalogo.com/bitstreams/e619d46a-9263-4987-834c-d34918b86de4/download https://dspace7-uao.metacatalogo.com/bitstreams/3e83a6a3-b0f6-4857-ad3b-1292a02c2352/download https://dspace7-uao.metacatalogo.com/bitstreams/bb3a5500-2fe4-465f-bcbb-9ec4e55e1fd7/download |
bitstream.checksum.fl_str_mv |
ae7f77d030c8867139a7874eaf0e6f74 abac6025bae38378b09f3f783c0637d5 20b5ba22b1117f71589c7318baa2c560 d3c05b2a3cbf7a7376a0e05a93754d1a 9ad8d03f8925343a98a2dcce52c0e9e0 18534124f2cf60884e0760d963f07c2b 6b9e56a50e64b5a0264552e732810aa1 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio UAO |
repository.mail.fl_str_mv |
repositorio@uao.edu.co |
_version_ |
1814260049811341312 |
spelling |
Romero Cano, Victor03522958c937aa89475211eb4f1a4dc8Castañeda Cano, Jhonathan Stivendf4ad43bdb09c93dbe7c69854cfbcdd1Universidad Autónoma de Occidente, Cll 25 # 115-85 Km 2 Vía Cali - Jamundi2022-12-01T18:04:33Z2022-12-01T18:04:33Z2022-11-23https://hdl.handle.net/10614/14455Universidad Autónoma de OccidenteRepositorio Educativo Digitalhttps://red.uao.edu.co/En este proyecto se diseñó e implementó un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes, utilizando como plataforma experimental un automóvil instrumentado con diferentes sensores. El sistema se desarrolló de tal manera que puede ser implementado en un camión de una manera intuitiva por un conductor y cuenta con módulos de apoyo para la calibración de los sensores utilizados. Se implementaron módulos de visión computacional y detección de objetos usando redes neuronales artificiales, además, se implementó un sistema de detección redundante con el apoyo de sensores LiDAR; Con estos se genera una serie de alertas para el conductor que le permiten conocer cuando existen determinados objetos en los puntos ciegos del vehículo y cuándo alguno de estos se encuentra demasiado cerca del vehículo. Para la visualización de las alertas generadas por el sistema y para darle al conductor una herramienta de retroalimentación visual integra se implementó una interfaz de usuario que despliega una imagen virtual de vista de pájaro generada con los fotogramas de múltiples cámaras instaladas en el vehículo instrumentado, en la que además es posible visualizar la posición estimada de los objetos detectados alrededor del vehículo con respecto a su marco de referencia local.Proyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2022PregradoIngeniero(a) Mecatrónico(a)110 páginasapplication/pdfspaUniversidad Autónoma de OccidenteIngeniería MecatrónicaDepartamento de Automática y ElectrónicaFacultad de IngenieríaCaliDerechos reservados - Universidad Autónoma de Occidente, 2022https://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2Ingeniería MecatrónicaRobóticaDetectores de vehículosRoboticsVehicle detectorsPuntos ciegosDetecciónMonitoreoCamiónDesarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejesTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPhttp://purl.org/coar/version/c_71e4c1898caa6e32Castañeda Cano, J. S. (2022). Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://red.uao.edu.co/handle/10614/14455[1] K. Van Beeck y T. Goedemé, “Fast and accurate pedestrian detection in a truck’s blind spot camera,” Pattern Recognition Applications and Methods, pp 179–195, 2014, DOI: https://doi.org/10.1007/978-3-319-25530-9_12.[2] “Transporte en cifras estadísticas 2018,” Ministerio de transporte de Colombia, anuario estadístico [En línea]. Disponible en: https://mintransporte.gov.co/documentos/15/estadisticas/.[3] “Caracterización del transporte terrestre automotor de carga en Colombia 2010- 2012,” Ministerio de transporte de Colombia, reporte estadístico [En línea]. Disponible en: https://www.mintransporte.gov.co/descargar.php?idFile=11450.[4] N. M. Torregroza, J. P. Bocarejo y J. P. Ramos, “Fatigue and crashes: The case of freight transport in Colombia,” Accident Analysis and Prevention, vol. 72, pp. 440- 448, noviembre de 2014, DOI: https://doi.org/10.1016/j.aap.2014.08.002.[5] Tesla Motors, (2022). “Future of Driving”. [En línea]. Disponible en: https://www.tesla.com/autopilot[6] A. Geiger, P. Lenz y R. Urtasun, "Are we ready for autonomous driving? The KITTI vision benchmark suite," IEEE Conference on Computer Vision and Pattern Recognition, pp. 3354-3361, 2012, DOI: 10.1109/CVPR.2012.6248074.[7] A. Crissey, (2019, noviembre 1). “Volvo active driver assist 2.0”. [En línea]. Disponible: https://www.fleetequipmentmag.com/volvo-active-driver-assist-faq/.[8] Purdue University, (2020). “Purdue Innovating Solutions to Boost Fuel Efficiency, Safety for Heavy-Duty Trucks”. [En línea]. Disponible en: https://engineering.purdue.edu/Engr/Research/GilbrethFellowships/ResearchPropo sals/2019-20/truck-platooning-in-a-connected-and-autonomous-vehicleenvironment-[9] G. Liu, M. Zhou, L, Wang, H. Wang and X, Guo, “A blind spot detection and warning system based on millimeter wave radar for driver assistance,” Optik, vol. 135, pp. 353-365, 2017, DOI: https://doi.org/10.1016/j.ijleo.2017.01.058.[10] K, Choi y H. G. Jung, “Cut-in vehicle warning system exploiting multiple rotational images of SVM cameras,” Expert Systems With Applications, vol. 125, pp. 81-99, 2019, DOI: https://doi.org/10.1016/j.eswa.2019.01.081.[11] Z. Yang, Y. Zhao, X. Hu, Y. Yin, L. Zhou and D. Tao, “A flexible vehicle surround view camera system by central-around coordinate mapping model,” Multimedia Tools and Applications, vol. 79, pp. 11983-12006, 2019, DOI: https://doi.org/10.1007/s11042-018-6744-4.[12] T. Sato, A. Moro, A. Sugahara, T. Tasaki, A. Yamashita, and H. Asama, “SpatioTemporal Bird’s-eye View Images Using Multiple Fish-eye Cameras,” Proceedings of the IEEE/SICE International Symposium on System Integration, pp. 753-758, 2013, DOI: 10.1109/SII.2013.6776674.[13] B. Zhang, V. Appia, I. Pekkucuksen, A. U. Batur, P. Shastry, S. Liu, S. Sivasankaran, and K. Chitnis, “A surround view camera solution for embedded systems,” IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp. 676-681, 2014, DOI: 10.1109/CVPRW.2014.103.[14] R, Siegwart, e I. R, Nourbakhsh. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p23.[15] A. M. Pinto Vargas y M. A. Saavedra Ruiz, “Desarrollo de un sistema de aterrizaje autónomo para un vehículo aéreo no tripulado sobre un vehículo terrestre,” Universidad Autónoma de Occidente, 2019. [En línea]. Disponible en: https://red.uao.edu.co/bitstream/handle/10614/10754/T08388.pdf;jsessionid=F55E7AC1FFF3356BB35AD24B260EEEA2?sequence=5[16] R, Siegwart, e I. R, Nourbakhsh. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p37[17] A. F. Moggio Bessolo, “Diseño de un Sistema de dirección de un vehículo de fórmula SAE,” Universidad de los Andes, 2016. [En línea]. Disponible en: https://repositorio.uniandes.edu.co/bitstream/handle/1992/17987/u729085.pdf?seq uenc[18] R, Siegwart, e I. R, Nourbakhsh, Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p68[19] R. Siegwart, y I. R, Nourbakhsh, Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004, p49[20] V. A Romero Cano,. Mathematical tools and reference frame transformations [diapositivas]. Universidad Autónoma de Occidente. 2020.[21] Karlsruhe Institute of Technology, (2022). “The KITTI Vision Benchmark Suite”. [En línea]. Disponible en: https://www.cvlibs.net/datasets/kitti/setup.php.[22] Velodyne Lidar, (2022). “What is lidar?”. [En línea]. Disponible en: https://velodynelidar.com/what-is-lidar/.[23] R. SZELISKI. Computer Vision algorithms and applications. 1 ed. London: Springer, 2011, p65[24] M. Gardill, (2020). “Automotive RADAR: a Signal Processing Perspective on Current Technology and Future Systems”. [En línea]. Disponible en: https://cloud.gardill.net/s/tjoSLSB7fXWTEBb#pdfviewer.[25] SAE International, (2019), “Levels of driving automation”. [En línea]. Disponible en: https://www.sae.org/news/2019/01/sae-updates-j3016-automated-drivinggraphic[26] M. S, Nixon. y A. S, Aguado. Feature Extraction and Image Processing for Computer Vision. 3 ed. London: Elsevier, 2012, p491[27] P. CORKE,. Robotics, Vision and Control: Fundamental algorithms in Matlab. 2 ed. Springer, 2017, p324[28] “Basic concepts of the homography explained with code”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d9/dab/tutorial_homography.html.[29] P. CORKE,. Robotics, Vision and Control: Fundamental algorithms in Matlab. 2 ed. Springer, 2017, p364[30] M. Condon.. “The importance of ISO standards in photography”. 2022 . [En línea]. Disponible en: https://shotkit.com/iso-standards/[31] “Linux Media Infrastructure userspace API”. [En línea]. Disponible en: https://www.kernel.org/doc/html/v4.17/media/media_uapi.html.[32] A. Rosebrock, (2021). “OpenCV Histogram Equalization and Adaptive Histogram Equalization (CLAHE)”. [En línea]. Disponible en: https://pyimagesearch.com/2021/02/01/opencv-histogram-equalization-andadaptive-histogram-equalization-clahe/[33] “Histogram Equalization”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d5/daf/tutorial_py_histogram_equalization.html.[34] “How to process and show a lidar point-cloud, alongside with rectangular boxes on the detected objects?”. [En línea]. Disponible en: https://forums.developer.nvidia.com/t/how-to-process-and-show-a-lidar-point-cloudalongside-with-rectangular-boxes-on-the-detected-objects/192021[35] “Point Cloud Library”. [En línea]. Disponible en: https://pointclouds.org/[36] “K-means”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/clustering.html#k-means[37] “Gaussian Mixture”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/mixture.html#gmm[38] “DBSCAN”. [En línea]. Disponible en: https://scikitlearn.org/stable/modules/clustering.html#dbscan[39] S. Saha, (2018). “A Comprehensive Guide to Convolutional Neural Networks — the ELI5 way”. [En línea]. Disponible en: https://towardsdatascience.com/acomprehensive-guide-to-convolutional-neural-networks-the-eli5-way3bd2b1164a53[40] OpenCV, (2022). “OpenCV modules”. [En línea]. Disponible en: https://docs.opencv.org/4.6.0/[41] OpenCV, (2022). “Deep Neural Networks (dnn module)”. [En línea]. Disponible en: https://docs.opencv.org/4.x/d2/d58/tutorial_table_of_content_dnn.html[42] “Training y Serving ML models with tf. keras”. [En línea]. Disponible en: https://blog.tensorflow.org/2018/08/training-and-serving-ml-models-with-tfkeras.html[43] “Open Neural Network Exchange: The open standard for machine learning interoperability”. [En línea]. Disponible en: https://onnx.ai/index.html[44] “NVIDIA TensorRT”. [En línea]. Disponible en: https://developer.nvidia.com/tensorrt[45] M. Harris, (2016). “Mixed-Precision Programming with CUDA 8”. [En línea]. Disponible en: https://developer.nvidia.com/blog/mixed-precision-programmingcuda-8/[46] “ROS - Robotic Operating system”. [En línea]. Disponible en: https://www.ros.org/[47] N. Paul y C. Chung, “Application of HDR algorithms to solve direct sunlight problems when autonomous vehicles using machine vision systems are driving into sun,” Computers in Industry, vol. 98, pp. 192-196, 2018, DOI: https://doi.org/10.1016/j.compind.2018.03.011[48] M. Hanmandlu, O. M. Verma, N. K. Kumar and M. Kulkarni, “A Novel Optimal Fuzzy System for Color Image Enhancement Using Bacterial Foraging”, IEEE Transactions on Instrumentation and Measurement, vol. 58. pp. 2867-2879, 2009, DOI: 10.1109/TIM.2009.2016371[49] “Dacia Sandero Stepway”. [En línea]. Disponible en: https://www.theblueprints.com/vectordrawings/show/2419/dacia_sandero_stepway/[50] A. Bochkovskiy, C. Wang and H. M. Liao, “YOLOv4: Optimal Speed and Accuracy of Object Detection”, arXiv.org, 2020. [En línea]. Disponible en: https://arxiv.org/abs/2004.10934[51] A. Bochkovskiy, “Yolo v4, v3 and v2 for Windows and Linux”. 2020. [En línea]. Disponible en: https://github.com/kiyoshiiriemon/yolov4_dark[52] N. Wojke, A. Bewley and D. Paulus, "Simple online and realtime tracking with a deep association metric," 2017 IEEE International Conference on Image Processing (ICIP), 2017, pp. 3645-3649, DOI: 10.1109/ICIP.2017.8296962.[53] “RPLIDAR ROS package”. [En línea]. Disponible en: https://github.com/Slamtec/rplidar_ros[54] “Construction Equipment Visibility: NIOSH Manual Method”. [En línea]. Disponible en: https://www.cdc.gov/niosh/topics/highwayworkzones/BAD/manualmethod.html[55] S. J. Ray y J. Teizer, “Computing 3D blind spots of construction equipment: Implementation and evaluation of an automated measurement and visualization method utilizing range point cloud data,” Automation in Construction, vol. 36, pp. 95- 107, 2013, DOI: https://doi.org/10.1016/j.autcon.2013.08.007[56] S. Summerskill, R. Marshall, S. Cook, J. Lenard and J. Richardson, “The use of volumetric projections in Digital Human Modelling software for the identification of Large Goods Vehicle blind spots,” Applied Ergonomics, vol. 53, pp. 267-280, 2016, DOI: https://doi.org/10.1016/j.apergo.2015.10.013Comunidad generalPublicationORIGINALT10470_Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes.pdfT10470_Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes.pdfTexto archivo completo del trabajo de grado, PDFapplication/pdf2505857https://dspace7-uao.metacatalogo.com/bitstreams/b8b22712-aebd-4c65-82c8-a33abe23316e/downloadae7f77d030c8867139a7874eaf0e6f74MD51TA10470_Autorización trabajo de grado.pdfTA10470_Autorización trabajo de grado.pdfAutorización publicación del trabajo de gradoapplication/pdf149588https://dspace7-uao.metacatalogo.com/bitstreams/271a83aa-ef89-4acc-9879-a24692c4a6c8/downloadabac6025bae38378b09f3f783c0637d5MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://dspace7-uao.metacatalogo.com/bitstreams/3d162d04-e5fe-4685-9faa-fe07b4d2e86b/download20b5ba22b1117f71589c7318baa2c560MD53TEXTT10470_Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes.pdf.txtT10470_Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes.pdf.txtExtracted texttext/plain145281https://dspace7-uao.metacatalogo.com/bitstreams/0f319064-10dc-4b07-b506-234d64527f8a/downloadd3c05b2a3cbf7a7376a0e05a93754d1aMD54TA10470_Autorización trabajo de grado.pdf.txtTA10470_Autorización trabajo de grado.pdf.txtExtracted texttext/plain4073https://dspace7-uao.metacatalogo.com/bitstreams/e619d46a-9263-4987-834c-d34918b86de4/download9ad8d03f8925343a98a2dcce52c0e9e0MD56THUMBNAILT10470_Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes.pdf.jpgT10470_Desarrollo de un sistema de percepción robótica para monitorear los puntos ciegos de camiones rígidos de dos ejes.pdf.jpgGenerated Thumbnailimage/jpeg7328https://dspace7-uao.metacatalogo.com/bitstreams/3e83a6a3-b0f6-4857-ad3b-1292a02c2352/download18534124f2cf60884e0760d963f07c2bMD55TA10470_Autorización trabajo de grado.pdf.jpgTA10470_Autorización trabajo de grado.pdf.jpgGenerated Thumbnailimage/jpeg11790https://dspace7-uao.metacatalogo.com/bitstreams/bb3a5500-2fe4-465f-bcbb-9ec4e55e1fd7/download6b9e56a50e64b5a0264552e732810aa1MD5710614/14455oai:dspace7-uao.metacatalogo.com:10614/144552024-01-19 16:48:09.634https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos reservados - Universidad Autónoma de Occidente, 2022open.accesshttps://dspace7-uao.metacatalogo.comRepositorio UAOrepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K |