Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown

Este proyecto para optar al título de ingeniero mecatrónico presenta un Sistema de Navegación Autónoma (ADS) basado en la plataforma Duckietown. El sistema le permite a un robot diferencial, el cual tiene una cámara monocular instalada, identificar objetos de interés en un ambiente urbano como lo so...

Full description

Autores:
Hincapié Barrera, Jeick
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2021
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/13131
Acceso en línea:
https://hdl.handle.net/10614/13131
https://red.uao.edu.co/
Palabra clave:
Ingeniería Mecatrónica
Sistema de navegación autónoma
OEDR
Aprendizaje de Máquina
NHTSA
Dominio de diseño de operación
ROS
Inteligencia artificial
Robots móviles
Artificial intelligence
Mobile robots
Rights
openAccess
License
Derechos Reservados - Universidad Autónoma de Occidente, 2021
id REPOUAO2_d218ac9295bf5987f5fe71e72b859caf
oai_identifier_str oai:red.uao.edu.co:10614/13131
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown
title Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown
spellingShingle Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown
Ingeniería Mecatrónica
Sistema de navegación autónoma
OEDR
Aprendizaje de Máquina
NHTSA
Dominio de diseño de operación
ROS
Inteligencia artificial
Robots móviles
Artificial intelligence
Mobile robots
title_short Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown
title_full Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown
title_fullStr Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown
title_full_unstemmed Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown
title_sort Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown
dc.creator.fl_str_mv Hincapié Barrera, Jeick
dc.contributor.advisor.none.fl_str_mv Romero Cano, Víctor
dc.contributor.author.none.fl_str_mv Hincapié Barrera, Jeick
dc.contributor.corporatename.spa.fl_str_mv Universidad Autónoma de Occidente
dc.subject.spa.fl_str_mv Ingeniería Mecatrónica
Sistema de navegación autónoma
OEDR
Aprendizaje de Máquina
NHTSA
Dominio de diseño de operación
ROS
topic Ingeniería Mecatrónica
Sistema de navegación autónoma
OEDR
Aprendizaje de Máquina
NHTSA
Dominio de diseño de operación
ROS
Inteligencia artificial
Robots móviles
Artificial intelligence
Mobile robots
dc.subject.armarc.spa.fl_str_mv Inteligencia artificial
Robots móviles
dc.subject.armarc.eng.fl_str_mv Artificial intelligence
Mobile robots
description Este proyecto para optar al título de ingeniero mecatrónico presenta un Sistema de Navegación Autónoma (ADS) basado en la plataforma Duckietown. El sistema le permite a un robot diferencial, el cual tiene una cámara monocular instalada, identificar objetos de interés en un ambiente urbano como lo son semáforos, peatones, señales de tránsito, vehículos y señalizaciones en la vía y tomar decisiones respecto a cómo navegar en una intersección tipo T y en una intersección controlada por semaforización. La principal característica de este sistema es que integra algoritmos de inteligencia artificial y aprendizaje de máquina junto con algoritmos de planeación clásica como Rapid-exploring random tree. Este sistema se basa en la guía NHTSA para la construcción de sus elementos fundamentales, la detección de objetos (OEDR) y el control del vehículo. El detector de objetos se obtuvo por un proceso de entrenamiento, en el cual se le deben proporcionar muestras de las imágenes y de los objetos a detectar a un modelo de red neuronal de la librería Tensorflow. Estas imágenes se consiguieron a partir de una grabación de la vista del robot diferencial en la plataforma de ambiente urbano mientras era controlado remotamente y fue programado en su totalidad en Python. Para el control del vehículo se diseñó un algoritmo que recibe los datos proporcionados por el detector de objetos y por otros subsistemas del vehículo y basados en las reglas de tráfico del dominio del diseño de operación, toma decisiones sobre cómo navegar la intersección. Para la construcción de este algoritmo se utilizaron las librerías de Duckietown las cuales permiten hacer un diseño modular y totalmente compatible con la plataforma. Una vez diseñado el sistema, se utilizó el software Docker para compilar el ADS en el robot diferencial y realizar pruebas de funcionamiento en el robot, con lo cual se obtuvo un tiempo de detección de objetos de menos de 1 segundo y un desempeño destacado en la ejecución de las intersecciones, logrando así un sistema automatizado de navegación autónoma a escala en el software ROS, el cual es usado en robótica a nivel mundial.
publishDate 2021
dc.date.accessioned.none.fl_str_mv 2021-08-04T16:12:27Z
dc.date.available.none.fl_str_mv 2021-08-04T16:12:27Z
dc.date.issued.none.fl_str_mv 2021-07-16
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_71e4c1898caa6e32
dc.type.coar.eng.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.eng.fl_str_mv Text
dc.type.driver.eng.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.eng.fl_str_mv https://purl.org/redcol/resource_type/TP
format http://purl.org/coar/resource_type/c_7a1f
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/10614/13131
dc.identifier.instname.spa.fl_str_mv Universidad Autónoma de Occidente
dc.identifier.reponame.spa.fl_str_mv Repositorio Educativo Digital
dc.identifier.repourl.spa.fl_str_mv https://red.uao.edu.co/
url https://hdl.handle.net/10614/13131
https://red.uao.edu.co/
identifier_str_mv Universidad Autónoma de Occidente
Repositorio Educativo Digital
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.none.fl_str_mv ABADI, Martín. Et. al. TensorFlow: Large-scale machine learning on heterogeneous systems. [En línea] 2015. [Consultado en abril de 2020] Software Disponible en: tensorflow.org.
AGENCIA NACIONAL DE SEGURIDAD VIAL. Observatorio general de seguridad vial. [En línea] Colombia. 2018. [Consultado el 20 de octubre de 2020]. Disponible en: https://ansv.gov.co/es/observatorio
AI REDACTOR. Ejemplos de Machine Learning - usos y aplicaciones [En línea]. VEX SOLUCIONES. (28 de noviembre de 2018). [Consultado el 1 de octubre de 2019]. Disponible en internet: https://www.vexsoluciones.com/inteligenciaartificial/ ejemplos-del-machine-learning-usos-y-aplicaciones/
AYACHI, R. et al. Traffic Signs Detection for Real-World Application of an Advanced Driving Assisting System Using Deep Learning. [En línea] 2020. Neural Process Lett 51, 837–851. [Consultado en noviembre de 2020] Disponible en: https://doi.org/10.1007/s11063-019-10115-8
BABER, Jhonatan. Et.al. Cooperative autonomous driving: intelligent vehicles sharing city roads. [En línea]. 2005. IEEE Robotics and Automation Magazine, vol.12, no.1, pp. 44-49, 2005. (Pubitemid 40583691). [Consultado en abril del 2020] Disponible en: https://ieeexplore.ieee.org/document/1411418
BHARADHWAJ, Homanga A Data-Efficient Framework for Training and Sim-to-Real Transfer of Navigation Policies.[En línea] 2019 International Conference on Robotics and Automation (ICRA), 782-788.[Consultado en octubre de 2020] Disponible en: https://arxiv.org/abs/1810.04871 BMW.
Overview of the main driver assistance systems. [En línea] 2020 [consultado el día 15 de noviembre de 2020] Disponible en: https://www.bmw.com/en/innovation/the-main-driver-assistance-systems.html
BORA, Dibya. GUPTA, Anil y KHAN, Fayaz. Comparing the Performance of L*A*B* and HSV Color Spaces with Respect to Color Image Segmentation. [En línea] 2015. ArXiv, abs/1506.01472. [Consultado en agosto de 2020] Disponible en: https://arxiv.org/abs/1506.01472
BOUTON, Maxime; COSGUN, Akansel y KOCHENDERFER, Mykel J. Belief State Planning for Autonomously Navigation Urban Intersections. [En linea] IEEE Intelligent Vehicles Symposium (IV). Redondo Beach, CA, USA. 2017. [consultado en Junio 11 2019] Disponible en: https://arxiv.org/pdf/1704.04322.pdf
BROWNLEE, Jason. Supervised and Unsupervised Machine Learning Algorithms. [blog]. Machine Learning Mastery. Vermont Victoria, Australia. Agosto 12 de 2019. Párr 4. [Consultado el 23 de agosto de 2020] Disponible en: https://machinelearningmastery.com/supervised-and-unsupervised-machinelearning- algorithms/
CITO, Jürgen. FERME, Vincenzo. GALL, Harald. Using Docker Containers to Improve Reproducibility in Software and Web Engineering Research. [En línea]. IEEE/ACM 38th International Conference on Software Engineering Companion (ICSE-C), Austin, TX, USA, 2016, pp. 906-907. [Consultado en abril de 2020] Disponible en: https://ieeexplore.ieee.org/document/7883438
COCO CONSORTIUM. COCO. Common objects in context. [en linea]. USA. 2015. [Consultado el 23 de abril de 2020]. Disponible en: https://cocodataset.org/#home
DAI, Jifeng. Et. al. R-FCN: object detection via region-based fully convolutional networks. [En línea] 2016. In: Advances in neural information processing systems 29: annual conference on neural information processing systems 2016, 5–10 Dec 2016, Barcelona, Spain, pp 379–387 [Consultado en abril de 2020] Disponible en: https://arxiv.org/abs/1605.06409
DEPARTAMENTO DE SEGURIDAD VIAL, Señales Horizontales - Instructivo de aplicación, [en línea]. [Consultado el 26 de septiembre de 2019]. Disponible en Internet: http://www.vialidad.cl/areasdevialidad/seguridadvial/Documents/lineas_trans_DEM ARCACIONES_5.pdf
DIAZ-CABRERA, Moises. CERRI, Pietro. MEDICI, Paolo. Robust real-time traffic light detection and distance estimation using a single camera. [En línea] 2015. Expert Syst Appl 42(8):3911–3923. [Consultado en agosto de 2020] Disponible en: https://www.sciencedirect.com/science/article/abs/pii/S0957417414008161
DUAN, Kaiwen et al. CenterNet: Keypoint Triplets for Object Detection. [En línea]. 2019. IEEE/CVF International Conference on Computer Vision (ICCV) (2019): 6568- 6577. [Consultado el día 21 de junio de 2021] disponible en: https://arxiv.org/abs/1904.08189
DUCKIETOWN. duckietown-intnav: Intersection Navigation for Duckietown. [en lìnea]. GitHub.- duckietown/duckietown-intnav. 2019. [consultado el 24 de septiembre de 2019]. Disponible en: https://github.com/duckietown/duckietownintnav/commits/master
EXPERT SYSTEM S.P.A. What is Machine Learning? A definition [en línea]. 2019. Machine Learning. Rockville, Maryland, E.E.U.U. 7 de marzo de 2017. [Consultado el 24 de septiembre de 2019]. Disponible en: https://www.expertsystem.com/machine-learning-definition/.
FERGUSON, Dave. HOWARD, Thomas y LIKHACHEV, Maxim. Motion planning in urban environments: Part I. [En línea] 2008. IEEE/RSJ International Conference on Intelligent Robots and Systems, Nice, France, pp. 1063-1069doi: 10.1109/IROS.2008.4651120. [Consultado en agosto de 2020] Disponible en: https://ieeexplore.ieee.org/document/4651120
FERGUSON, Dave. HOWARD, Thomas y LIKHACHEV, Maxim. Motion planning in urban environments: Part II. [En línea] 2008. IEEE/RSJ International Conference on Intelligent Robots and Systems, Nice, France, 2008, pp. 1070-1076, doi: 10.1109/IROS.2008.4651124. [Consultado en agosto de 2020] Disponible en: https://ieeexplore.ieee.org/document/4651124
FORD GLOBAL TECNOLOGIES, LCC. Autonomous Driving at Intersections Based on Perception Data. Inventor: A. ELIZABETH MICKS, H. BANVAIT, J. JAIN, B. REIFF. US 9.983.591 B2 . United States Patent. Mayo 29 de 2018.
G. VAN ROSSUM, Python tutorial, Technical Report CS-R9526, Centrum voor Wiskunde en Informatica (CWI), [En línea] Amsterdam, 1995. [Consultado en abril de 2020] Disponible en: http://lib.21h.io/library/G7B3RFY7/download/GBMFTU3C/Python_3.8.3_Docs_.pdf
HAN, Cen., GAO, Guangyu. y ZHANG, Yu. Real-time small traffic sign detection with revised faster-RCNN. [En línea]. 2019. Multimed Tools Appl 78, 13263–13278 [Consultado en abril de 2019]. Disponible en: https://doi.org/10.1007/s11042-018- 6428-0
HOWARD, Andrew, et al. MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications [en línea].Google Inc. 2017. p. 1-9. arXiv:1704.04861 [Consultado el 20 de Octubre de 2019]. Disponible en: https://arxiv.org/abs/1704.04861v1.
HU, Yeping, ZHAN W. y TOMIZUKA M. Probabilistic Prediction of Vehicle Semantic Intention and Motion. [en línea] En: 2018 IEEE Intelligent Vehicles Symposium (IV), 307-313.[consultado el 22 de junio de 2021] disponible en: https://arxiv.org/abs/1804.03629
HUANG, Gao. Et. al. Densely connected convolutional networks. [En línea] 2017 In: 2017 IEEE conference on computer vision and pattern recognition, CVPR 2017, Honolulu, HI, USA, 21–26 July 2017, pp 2261–2269 [Consultado en abril de 2020] Disponible en: https://arxiv.org/abs/1608.06993
HUANG, J. Tensorflow/Models. [En línea] GitHub. 2020 [Consultado el 18 2020]. Disponible en: https://github.com/tensorflow/models/tree/master/research/object_detection
J. Holzinger, P. Tkachenko, G. Obereigner and L. d. Re, "Context Aware Control of ADAS," 2020 American Control Conference (ACC), Denver, CO, USA, 2020, pp. 2288-2293, doi: 10.23919/ACC45564.2020.9147710
KAI, Arras. Introduction to Mobile Robotics [Diapositivas]. UNI FREIBURG, Alemania, 2011. [Consultado el día 28 de octubre de 2019] disponible en: https://www.yumpu.com/en/document/view/31487650/welcome-introduction-tomobile- robotics
KHOURY, John. Et al. A practical decentralized access protocol for autonomous vehicles at isolated under-saturated intersections [En línea].2019. Journal of Intelligent Transportation Systems, 23:5, 427-440, DOI:10.1080/15472450.2018.1536859 [Consultado en agosto de 2020] Disponible en:https://www.tandfonline.com/doi/abs/10.1080/15472450.2018.1536859?journal Code=gits20
LIAM, Paull et al., "Duckietown: An open, inexpensive and flexible platform for autonomy education and research," 2017 IEEE International Conference on Robotics and Automation (ICRA), Singapur, 2017, pp. 1497-1504, doi: 10.1109/ICRA.2017.7989179. Disponible en: http://michalcap.net/wpcontent/ papercite-data/pdf/paull_2017.pdf
LIANG, Z. et al. Traffic sign detection and recognition based on pyramidal convolutional networks. [En línea] 2020. Neural Comput & Applic 32, 6533–6543. [Consultado en octubre de 2020] Disponible en: https://doi.org/10.1007/s00521-019- 04086-z
LIKHACHEV, Maxim, FERGUSON, Dave. Planning Long Dynamically Feasible Maneuvers for Autonomous Vehicles. [En línea] The International Journal of Robotics Research. 2009;28(8):933-945. doi:10.1177/0278364909340445. [Consultado en octubre de 2020] Disponible en: https://doi.org/10.1177/0278364909340445
LONG, Jonathan, SHELHAMER, Evan. DARRELL, Trevor. Fully convolutional networks for semantic segmentation. [En línea] 2015. In: IEEE conference on computer vision and pattern recognition, CVPR 2015, Boston, MA, USA, 7–12 June 2015, pp 3431–3440 [Consultado en abril de 2020] Disponible en: https://arxiv.org/abs/1411.4038
LUNDH, Fredrick. CLARK, Alex. Pillow. [en linea] USA. 2019. [Consultado el 25 de octubre de 2020]. Disponible en: https://pillow.readthedocs.io/en/stable/
MENDIETA, Victor Alonso. Detección y reconocimiento de semáforos por visión artificial [en línea]. Proyecto de fin de carrera de Ingeniería Industrial Especialidad en Automática y Electrónica Industrial. Universidad Carlos III de Madrid. Escuela Politécnica Superior. Departamento de Ingeniería de Sistemas y Automática. 2013. [Consultado el 1 de octubre de 2019]. Disponible en internet: https://core.ac.uk/download/pdf/29405005.pdf.
MINTRANSPORTE, et. al. Plan nacional de seguridad vial Colombia 2011-2021. [En linea] Colombia, 2011. [Consultado el 27 de Octubre de 2020] Disponible en: https://ansv.gov.co/sites/default/files/Documentos/Agencia/mipg/1-5-5-docs-einformes/ 1%20-%205%20- %205%20%2029%20Plan%20Nacional%20de%20Seguridad% 20Vial/Plan%20Nacional%20de%20Seguridad%20Vial.pdf
MUSA, Angky. ADIWIJAYA, Kang y UTAMA, Dody. Segmentation Image Recoloring Based On K-means Clustering Algorithm As A Tool for Partial Color-Blind People. [En línea] 2019. Phys.: Conf. Ser. 1192 012012. [Consultado en agosto de 2020] Disponible en: https://iopscience.iop.org/article/10.1088/1742-6596/1192/1/012012
NATIONAL TRANSPORTATIONS SAFETY BOARD. Preliminary report Highway hwy18mh010. [En línea] USA. 2018. [Consultado el 16 de noviembre de 2020] Disponible en: https://www.technischweekblad.nl/files/46e4a0ca1a0bf2cb04f4751d0af26913.pdf
NHTSA. AUTOMATED DRIVING SYSTEMS, A Vision for Safety [Diapositivas]. USA, 2017. [Consultado el día 2 de octubre de 2019] disponible en: https://www.nhtsa.gov/sites/nhtsa.dot.gov/files/documents/13069aads2.0_090617_v9a_tag.pdf
NHTSA. Automated Vehicles for Safety. [en línea] 2020 [consultado el día 15 de noviembre de 2020] Disponible en: https://www.nhtsa.gov/technologyinnovation/ automated-vehicles-safety
NHTSA. TRAFFIC SAFETY FACTS. Crash Stats. Critical Reasons for Crashes Investigated in the National Motor Vehicle Crash Causation Survey. [En línea] USA. 2015.[Consultado el 20 de noviembre de 2020] Disponible en: https://crashstats.nhtsa.dot.gov/Api/Public/ViewPublication/812115
OLLERO, Anibal. Control de robot móviles. [libro] Robótica. manipuladores y robots móviles. Ed. 1. Barcelona (España). Marcombo , S.A. 2001.
PASCAL VOC (PASCAL Visual Object Classes Challenge). [en linea]. USA. 2007. [Consultado el 21 de junio de 2020]. Disponible en: https://paperswithcode.com/dataset/pascal-voc QUIGLEY, Morgan. Et al. ROS: an open-source Robot Operating System. [En línea] 2009. ICRA Workshop on Open Source Software. 3. [Consultado en abril de 2020] Disponible en: https://www.ros.org
REDMON, Joseph et al. “You Only Look Once: Unified, Real-Time Object Detection.” [En línea]. 2016. IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (2016): 779-788.[Consultado el día 21 de Junio de 2021] Disponible en: https://arxiv.org/abs/1506.02640
ROS.ORG. Rosbag package summary. [en linea] USA. 2019. [Consultado el 21 de octubre de 2020]. Disponible en: http://wiki.ros.org/rosbag
SIMONYAN, Karen, ZISSERMAN, Andrew. Very Deep Convolutional Networks for Large-Scale Image Recognition. [En línea]. 2015 Visual Geometry Group, Department of Engineering Science, University of Oxford. CoRR. [Consultado el 20 de enero de 2021]. Disponible en: https://arxiv.org/pdf/1409.1556.pdf
SOKÈMI RENÉ, Emmanuel Datondji. Et al. A Survey of Vision-Based Traffic Monitoring of Road Intersections. [En linea]. vol. 17, no. 10, pp. 2681-2698, Oct. 2016, doi: 10.1109/TITS.2016.2530146.[Consultado en octubre de 2020] Disponible en: https://ieeexplore.ieee.org/document/7458203
TAN, Mingxing. QUOC V. Le. “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks.” [En línea] 2020. [Consultado el 20 de enero de 2021]. Disponible en: https://arxiv.org/pdf/1905.11946.pdf
TETTAMANTI, Tamás; VARGA, István y SZALAY, Zsolt. Impacts of Autonomous Cars from a Traffic Engineering Perspective. [en línea] En: Periodica Polytechnica Transportation Engineering. 2016. vol. 44, no. 4, pp. 244-250 [consultado: 23 de septiembre de 2019] disponible en internet: https://pp.bme.hu/tr/article/view/9464/7146
UÇAR, Ayşegül y DEMIR, Yakup y GÜZELIŞ, Cüneyt. Object recognition and detection with deep learning for autonomous driving applications. [En línea] 2017. SIMULATION. 93. 003754971770993. 10.1177/0037549717709932. [Consultado en agosto de 2020] Disponible en: https://journals.sagepub.com/doi/10.1177/0037549717709932
VOLVO. Funciones de vehículo. [en linea] 2020 [consultado el día 15 de noviembre de 2020] Disponible en: https://www.volvocars.com/pe/support/article/4c4380adf3f56bc8c0a801510c91778c
WAYMO. Waymo’s Safety Methodologies and Safety Readiness Determinations. [En linea]. USA. 2020 P. 22-24. [Consultado el 10 de noviembre de 2020] Disponible en: https://storage.googleapis.com/sdc-prod/v1/safety-report/Waymo-Safety- Methodologies-and-Readiness-Determinations.pdf
XIAO, Yao. Vehicle Detection in Deep Learning [En línea]. 2019. ArXiv, abs/1905.13390. [Consultado en octubre de 2020]. Disponible en: https://arxiv.org/ftp/arxiv/papers/1905/1905.13390.pdf
XU, Hao., SRIVASTAVA, Gautam. Automatic recognition algorithm of traffic signs based on convolution neural network. [En línea] 2020. Multimed Tools Appl 79, 11551–11565. [Consultado en Diciembre de 2020] Disponible en: https://doi.org/10.1007/s11042-019-08239-z
YI. Xiao, CODEVILLA, Felipe, GURRAM, Akhil, Et. al, "Multimodal End-to-End Autonomous Driving," in IEEE Transactions on Intelligent Transportation Systems, doi: 10.1109/TITS.2020.3013234.
YILMAZ, Asim. A Vehicle Detection Approach using Deep Learning Methodologies. [En línea] 2018. ArXiv, abs/1804.00429. [Consultado en agosto de 2020] Disponible en: https://arxiv.org/abs/1804.00429
ZHENNING, Li, Et al. Temporal-spatial dimension extension-based intersection control formulation for connected and autonomous vehicle systems.[En línea] Transportation Research Part C: Emerging Technologies, Volume 104, 2019, Pg 234-248, ISSN 0968-090X, [Consultado en septiembre de 2020] https://doi.org/10.1016/j.trc.2019.05.003.
dc.rights.spa.fl_str_mv Derechos Reservados - Universidad Autónoma de Occidente, 2021
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.eng.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.eng.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.spa.fl_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
rights_invalid_str_mv Derechos Reservados - Universidad Autónoma de Occidente, 2021
https://creativecommons.org/licenses/by-nc-nd/4.0/
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.spa.fl_str_mv 100 páginas
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.spa.fl_str_mv Universidad Autónoma de Occidente
dc.publisher.program.spa.fl_str_mv Ingeniería Mecatrónica
dc.publisher.department.spa.fl_str_mv Departamento de Automática y Electrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.publisher.place.spa.fl_str_mv Cali
institution Universidad Autónoma de Occidente
bitstream.url.fl_str_mv https://red.uao.edu.co/bitstreams/cc579409-f6a4-4f18-981c-4a120e66e667/download
https://red.uao.edu.co/bitstreams/4bc44f79-3672-4a0c-8c43-0ad9bf410700/download
https://red.uao.edu.co/bitstreams/7acad9ce-32f4-47d5-bfed-41a6cf6076ed/download
https://red.uao.edu.co/bitstreams/82f59f7b-850c-4628-a399-a2535f0ff89b/download
https://red.uao.edu.co/bitstreams/6f3c80e9-ba24-44fb-948a-b58b040a5544/download
https://red.uao.edu.co/bitstreams/fdc8ffc4-bfcd-437e-8649-84f0256defe7/download
https://red.uao.edu.co/bitstreams/3daad04e-efc3-4046-9cdc-eb8da9d8488b/download
bitstream.checksum.fl_str_mv 20b5ba22b1117f71589c7318baa2c560
8795505c4818526a42601a98c21d76af
335e34709965c7e96c8ea1edbc81e635
a3a70cb83f05d863c3b3d6516ea2096a
55c7f632528328801392f2ed91ed337b
f9ded1494ba2c589a2fcd5b841e5997e
47dc4c30d06422b64a8bdc3ff7b2a7d6
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Digital Universidad Autonoma de Occidente
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1808478969800949760
spelling Romero Cano, VíctorHincapié Barrera, Jeick0107b383ac7a283f1073e081d25eb357Universidad Autónoma de Occidente2021-08-04T16:12:27Z2021-08-04T16:12:27Z2021-07-16https://hdl.handle.net/10614/13131Universidad Autónoma de OccidenteRepositorio Educativo Digitalhttps://red.uao.edu.co/Este proyecto para optar al título de ingeniero mecatrónico presenta un Sistema de Navegación Autónoma (ADS) basado en la plataforma Duckietown. El sistema le permite a un robot diferencial, el cual tiene una cámara monocular instalada, identificar objetos de interés en un ambiente urbano como lo son semáforos, peatones, señales de tránsito, vehículos y señalizaciones en la vía y tomar decisiones respecto a cómo navegar en una intersección tipo T y en una intersección controlada por semaforización. La principal característica de este sistema es que integra algoritmos de inteligencia artificial y aprendizaje de máquina junto con algoritmos de planeación clásica como Rapid-exploring random tree. Este sistema se basa en la guía NHTSA para la construcción de sus elementos fundamentales, la detección de objetos (OEDR) y el control del vehículo. El detector de objetos se obtuvo por un proceso de entrenamiento, en el cual se le deben proporcionar muestras de las imágenes y de los objetos a detectar a un modelo de red neuronal de la librería Tensorflow. Estas imágenes se consiguieron a partir de una grabación de la vista del robot diferencial en la plataforma de ambiente urbano mientras era controlado remotamente y fue programado en su totalidad en Python. Para el control del vehículo se diseñó un algoritmo que recibe los datos proporcionados por el detector de objetos y por otros subsistemas del vehículo y basados en las reglas de tráfico del dominio del diseño de operación, toma decisiones sobre cómo navegar la intersección. Para la construcción de este algoritmo se utilizaron las librerías de Duckietown las cuales permiten hacer un diseño modular y totalmente compatible con la plataforma. Una vez diseñado el sistema, se utilizó el software Docker para compilar el ADS en el robot diferencial y realizar pruebas de funcionamiento en el robot, con lo cual se obtuvo un tiempo de detección de objetos de menos de 1 segundo y un desempeño destacado en la ejecución de las intersecciones, logrando así un sistema automatizado de navegación autónoma a escala en el software ROS, el cual es usado en robótica a nivel mundial.This project to qualify for the title of mechatronic engineer presents an Autonomous Driving System (ADS) that consists of a software application based on the Duckietown platform, designed to identify objects of interest in an urban environment such as traffic lights, pedestrians, traffic signals, vehicles and signalling on the road and making decisions related to how to navigate a T-type intersection and an intersection controlled by traffic lights, by means of a differential robot, which has a monocular camera installed. The main feature of this system is that it integrates artificial intelligence and machine learning algorithms together with classical robotics algorithms such as Rapid-explore random tree. This system is based on the NHTSA guide for building its fundamental elements, Object Detection (OEDR) and Vehicle Control. The object detector was obtained by a training process, in which samples of the images and objects to be detected must be provided to a neural network model from the Tensorflow library. These images were obtained from a recording of the view of the differential robot on the urban environment platform while it was controlled remotely and was programmed entirely in Python. For the control of the vehicle, an algorithm was designed that receives the data provided by the object detector and by other vehicle subsystems and based on the traffic rules of the operation design domain, makes decisions about how to navigate the intersection. For the design of this algorithm, the Duckietown libraries were used, which allow a modular design that is fully compatible with the platform. Once the system was designed, the Docker software was used to compile the ADS in the differential robot and perform functional tests on the robot, with which an object detection time of xxx was obtained and an outstanding performance in the execution of the intersections, thus achieving an automated autonomous navigation system at scale in the ROS software, which is used in robotics worldwideProyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2021PregradoIngeniero(a) Mecatrónico(a)100 páginasapplication/pdfspaUniversidad Autónoma de OccidenteIngeniería MecatrónicaDepartamento de Automática y ElectrónicaFacultad de IngenieríaCaliDerechos Reservados - Universidad Autónoma de Occidente, 2021https://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2Ingeniería MecatrónicaSistema de navegación autónomaOEDRAprendizaje de MáquinaNHTSADominio de diseño de operaciónROSInteligencia artificialRobots móvilesArtificial intelligenceMobile robotsDesarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietownTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPhttp://purl.org/coar/version/c_71e4c1898caa6e32ABADI, Martín. Et. al. TensorFlow: Large-scale machine learning on heterogeneous systems. [En línea] 2015. [Consultado en abril de 2020] Software Disponible en: tensorflow.org.AGENCIA NACIONAL DE SEGURIDAD VIAL. Observatorio general de seguridad vial. [En línea] Colombia. 2018. [Consultado el 20 de octubre de 2020]. Disponible en: https://ansv.gov.co/es/observatorioAI REDACTOR. Ejemplos de Machine Learning - usos y aplicaciones [En línea]. VEX SOLUCIONES. (28 de noviembre de 2018). [Consultado el 1 de octubre de 2019]. Disponible en internet: https://www.vexsoluciones.com/inteligenciaartificial/ ejemplos-del-machine-learning-usos-y-aplicaciones/AYACHI, R. et al. Traffic Signs Detection for Real-World Application of an Advanced Driving Assisting System Using Deep Learning. [En línea] 2020. Neural Process Lett 51, 837–851. [Consultado en noviembre de 2020] Disponible en: https://doi.org/10.1007/s11063-019-10115-8BABER, Jhonatan. Et.al. Cooperative autonomous driving: intelligent vehicles sharing city roads. [En línea]. 2005. IEEE Robotics and Automation Magazine, vol.12, no.1, pp. 44-49, 2005. (Pubitemid 40583691). [Consultado en abril del 2020] Disponible en: https://ieeexplore.ieee.org/document/1411418BHARADHWAJ, Homanga A Data-Efficient Framework for Training and Sim-to-Real Transfer of Navigation Policies.[En línea] 2019 International Conference on Robotics and Automation (ICRA), 782-788.[Consultado en octubre de 2020] Disponible en: https://arxiv.org/abs/1810.04871 BMW.Overview of the main driver assistance systems. [En línea] 2020 [consultado el día 15 de noviembre de 2020] Disponible en: https://www.bmw.com/en/innovation/the-main-driver-assistance-systems.htmlBORA, Dibya. GUPTA, Anil y KHAN, Fayaz. Comparing the Performance of L*A*B* and HSV Color Spaces with Respect to Color Image Segmentation. [En línea] 2015. ArXiv, abs/1506.01472. [Consultado en agosto de 2020] Disponible en: https://arxiv.org/abs/1506.01472BOUTON, Maxime; COSGUN, Akansel y KOCHENDERFER, Mykel J. Belief State Planning for Autonomously Navigation Urban Intersections. [En linea] IEEE Intelligent Vehicles Symposium (IV). Redondo Beach, CA, USA. 2017. [consultado en Junio 11 2019] Disponible en: https://arxiv.org/pdf/1704.04322.pdfBROWNLEE, Jason. Supervised and Unsupervised Machine Learning Algorithms. [blog]. Machine Learning Mastery. Vermont Victoria, Australia. Agosto 12 de 2019. Párr 4. [Consultado el 23 de agosto de 2020] Disponible en: https://machinelearningmastery.com/supervised-and-unsupervised-machinelearning- algorithms/CITO, Jürgen. FERME, Vincenzo. GALL, Harald. Using Docker Containers to Improve Reproducibility in Software and Web Engineering Research. [En línea]. IEEE/ACM 38th International Conference on Software Engineering Companion (ICSE-C), Austin, TX, USA, 2016, pp. 906-907. [Consultado en abril de 2020] Disponible en: https://ieeexplore.ieee.org/document/7883438COCO CONSORTIUM. COCO. Common objects in context. [en linea]. USA. 2015. [Consultado el 23 de abril de 2020]. Disponible en: https://cocodataset.org/#homeDAI, Jifeng. Et. al. R-FCN: object detection via region-based fully convolutional networks. [En línea] 2016. In: Advances in neural information processing systems 29: annual conference on neural information processing systems 2016, 5–10 Dec 2016, Barcelona, Spain, pp 379–387 [Consultado en abril de 2020] Disponible en: https://arxiv.org/abs/1605.06409DEPARTAMENTO DE SEGURIDAD VIAL, Señales Horizontales - Instructivo de aplicación, [en línea]. [Consultado el 26 de septiembre de 2019]. Disponible en Internet: http://www.vialidad.cl/areasdevialidad/seguridadvial/Documents/lineas_trans_DEM ARCACIONES_5.pdfDIAZ-CABRERA, Moises. CERRI, Pietro. MEDICI, Paolo. Robust real-time traffic light detection and distance estimation using a single camera. [En línea] 2015. Expert Syst Appl 42(8):3911–3923. [Consultado en agosto de 2020] Disponible en: https://www.sciencedirect.com/science/article/abs/pii/S0957417414008161DUAN, Kaiwen et al. CenterNet: Keypoint Triplets for Object Detection. [En línea]. 2019. IEEE/CVF International Conference on Computer Vision (ICCV) (2019): 6568- 6577. [Consultado el día 21 de junio de 2021] disponible en: https://arxiv.org/abs/1904.08189DUCKIETOWN. duckietown-intnav: Intersection Navigation for Duckietown. [en lìnea]. GitHub.- duckietown/duckietown-intnav. 2019. [consultado el 24 de septiembre de 2019]. Disponible en: https://github.com/duckietown/duckietownintnav/commits/masterEXPERT SYSTEM S.P.A. What is Machine Learning? A definition [en línea]. 2019. Machine Learning. Rockville, Maryland, E.E.U.U. 7 de marzo de 2017. [Consultado el 24 de septiembre de 2019]. Disponible en: https://www.expertsystem.com/machine-learning-definition/.FERGUSON, Dave. HOWARD, Thomas y LIKHACHEV, Maxim. Motion planning in urban environments: Part I. [En línea] 2008. IEEE/RSJ International Conference on Intelligent Robots and Systems, Nice, France, pp. 1063-1069doi: 10.1109/IROS.2008.4651120. [Consultado en agosto de 2020] Disponible en: https://ieeexplore.ieee.org/document/4651120FERGUSON, Dave. HOWARD, Thomas y LIKHACHEV, Maxim. Motion planning in urban environments: Part II. [En línea] 2008. IEEE/RSJ International Conference on Intelligent Robots and Systems, Nice, France, 2008, pp. 1070-1076, doi: 10.1109/IROS.2008.4651124. [Consultado en agosto de 2020] Disponible en: https://ieeexplore.ieee.org/document/4651124FORD GLOBAL TECNOLOGIES, LCC. Autonomous Driving at Intersections Based on Perception Data. Inventor: A. ELIZABETH MICKS, H. BANVAIT, J. JAIN, B. REIFF. US 9.983.591 B2 . United States Patent. Mayo 29 de 2018.G. VAN ROSSUM, Python tutorial, Technical Report CS-R9526, Centrum voor Wiskunde en Informatica (CWI), [En línea] Amsterdam, 1995. [Consultado en abril de 2020] Disponible en: http://lib.21h.io/library/G7B3RFY7/download/GBMFTU3C/Python_3.8.3_Docs_.pdfHAN, Cen., GAO, Guangyu. y ZHANG, Yu. Real-time small traffic sign detection with revised faster-RCNN. [En línea]. 2019. Multimed Tools Appl 78, 13263–13278 [Consultado en abril de 2019]. Disponible en: https://doi.org/10.1007/s11042-018- 6428-0HOWARD, Andrew, et al. MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications [en línea].Google Inc. 2017. p. 1-9. arXiv:1704.04861 [Consultado el 20 de Octubre de 2019]. Disponible en: https://arxiv.org/abs/1704.04861v1.HU, Yeping, ZHAN W. y TOMIZUKA M. Probabilistic Prediction of Vehicle Semantic Intention and Motion. [en línea] En: 2018 IEEE Intelligent Vehicles Symposium (IV), 307-313.[consultado el 22 de junio de 2021] disponible en: https://arxiv.org/abs/1804.03629HUANG, Gao. Et. al. Densely connected convolutional networks. [En línea] 2017 In: 2017 IEEE conference on computer vision and pattern recognition, CVPR 2017, Honolulu, HI, USA, 21–26 July 2017, pp 2261–2269 [Consultado en abril de 2020] Disponible en: https://arxiv.org/abs/1608.06993HUANG, J. Tensorflow/Models. [En línea] GitHub. 2020 [Consultado el 18 2020]. Disponible en: https://github.com/tensorflow/models/tree/master/research/object_detectionJ. Holzinger, P. Tkachenko, G. Obereigner and L. d. Re, "Context Aware Control of ADAS," 2020 American Control Conference (ACC), Denver, CO, USA, 2020, pp. 2288-2293, doi: 10.23919/ACC45564.2020.9147710KAI, Arras. Introduction to Mobile Robotics [Diapositivas]. UNI FREIBURG, Alemania, 2011. [Consultado el día 28 de octubre de 2019] disponible en: https://www.yumpu.com/en/document/view/31487650/welcome-introduction-tomobile- roboticsKHOURY, John. Et al. A practical decentralized access protocol for autonomous vehicles at isolated under-saturated intersections [En línea].2019. Journal of Intelligent Transportation Systems, 23:5, 427-440, DOI:10.1080/15472450.2018.1536859 [Consultado en agosto de 2020] Disponible en:https://www.tandfonline.com/doi/abs/10.1080/15472450.2018.1536859?journal Code=gits20LIAM, Paull et al., "Duckietown: An open, inexpensive and flexible platform for autonomy education and research," 2017 IEEE International Conference on Robotics and Automation (ICRA), Singapur, 2017, pp. 1497-1504, doi: 10.1109/ICRA.2017.7989179. Disponible en: http://michalcap.net/wpcontent/ papercite-data/pdf/paull_2017.pdfLIANG, Z. et al. Traffic sign detection and recognition based on pyramidal convolutional networks. [En línea] 2020. Neural Comput & Applic 32, 6533–6543. [Consultado en octubre de 2020] Disponible en: https://doi.org/10.1007/s00521-019- 04086-zLIKHACHEV, Maxim, FERGUSON, Dave. Planning Long Dynamically Feasible Maneuvers for Autonomous Vehicles. [En línea] The International Journal of Robotics Research. 2009;28(8):933-945. doi:10.1177/0278364909340445. [Consultado en octubre de 2020] Disponible en: https://doi.org/10.1177/0278364909340445LONG, Jonathan, SHELHAMER, Evan. DARRELL, Trevor. Fully convolutional networks for semantic segmentation. [En línea] 2015. In: IEEE conference on computer vision and pattern recognition, CVPR 2015, Boston, MA, USA, 7–12 June 2015, pp 3431–3440 [Consultado en abril de 2020] Disponible en: https://arxiv.org/abs/1411.4038LUNDH, Fredrick. CLARK, Alex. Pillow. [en linea] USA. 2019. [Consultado el 25 de octubre de 2020]. Disponible en: https://pillow.readthedocs.io/en/stable/MENDIETA, Victor Alonso. Detección y reconocimiento de semáforos por visión artificial [en línea]. Proyecto de fin de carrera de Ingeniería Industrial Especialidad en Automática y Electrónica Industrial. Universidad Carlos III de Madrid. Escuela Politécnica Superior. Departamento de Ingeniería de Sistemas y Automática. 2013. [Consultado el 1 de octubre de 2019]. Disponible en internet: https://core.ac.uk/download/pdf/29405005.pdf.MINTRANSPORTE, et. al. Plan nacional de seguridad vial Colombia 2011-2021. [En linea] Colombia, 2011. [Consultado el 27 de Octubre de 2020] Disponible en: https://ansv.gov.co/sites/default/files/Documentos/Agencia/mipg/1-5-5-docs-einformes/ 1%20-%205%20- %205%20%2029%20Plan%20Nacional%20de%20Seguridad% 20Vial/Plan%20Nacional%20de%20Seguridad%20Vial.pdfMUSA, Angky. ADIWIJAYA, Kang y UTAMA, Dody. Segmentation Image Recoloring Based On K-means Clustering Algorithm As A Tool for Partial Color-Blind People. [En línea] 2019. Phys.: Conf. Ser. 1192 012012. [Consultado en agosto de 2020] Disponible en: https://iopscience.iop.org/article/10.1088/1742-6596/1192/1/012012NATIONAL TRANSPORTATIONS SAFETY BOARD. Preliminary report Highway hwy18mh010. [En línea] USA. 2018. [Consultado el 16 de noviembre de 2020] Disponible en: https://www.technischweekblad.nl/files/46e4a0ca1a0bf2cb04f4751d0af26913.pdfNHTSA. AUTOMATED DRIVING SYSTEMS, A Vision for Safety [Diapositivas]. USA, 2017. [Consultado el día 2 de octubre de 2019] disponible en: https://www.nhtsa.gov/sites/nhtsa.dot.gov/files/documents/13069aads2.0_090617_v9a_tag.pdfNHTSA. Automated Vehicles for Safety. [en línea] 2020 [consultado el día 15 de noviembre de 2020] Disponible en: https://www.nhtsa.gov/technologyinnovation/ automated-vehicles-safetyNHTSA. TRAFFIC SAFETY FACTS. Crash Stats. Critical Reasons for Crashes Investigated in the National Motor Vehicle Crash Causation Survey. [En línea] USA. 2015.[Consultado el 20 de noviembre de 2020] Disponible en: https://crashstats.nhtsa.dot.gov/Api/Public/ViewPublication/812115OLLERO, Anibal. Control de robot móviles. [libro] Robótica. manipuladores y robots móviles. Ed. 1. Barcelona (España). Marcombo , S.A. 2001.PASCAL VOC (PASCAL Visual Object Classes Challenge). [en linea]. USA. 2007. [Consultado el 21 de junio de 2020]. Disponible en: https://paperswithcode.com/dataset/pascal-voc QUIGLEY, Morgan. Et al. ROS: an open-source Robot Operating System. [En línea] 2009. ICRA Workshop on Open Source Software. 3. [Consultado en abril de 2020] Disponible en: https://www.ros.orgREDMON, Joseph et al. “You Only Look Once: Unified, Real-Time Object Detection.” [En línea]. 2016. IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (2016): 779-788.[Consultado el día 21 de Junio de 2021] Disponible en: https://arxiv.org/abs/1506.02640ROS.ORG. Rosbag package summary. [en linea] USA. 2019. [Consultado el 21 de octubre de 2020]. Disponible en: http://wiki.ros.org/rosbagSIMONYAN, Karen, ZISSERMAN, Andrew. Very Deep Convolutional Networks for Large-Scale Image Recognition. [En línea]. 2015 Visual Geometry Group, Department of Engineering Science, University of Oxford. CoRR. [Consultado el 20 de enero de 2021]. Disponible en: https://arxiv.org/pdf/1409.1556.pdfSOKÈMI RENÉ, Emmanuel Datondji. Et al. A Survey of Vision-Based Traffic Monitoring of Road Intersections. [En linea]. vol. 17, no. 10, pp. 2681-2698, Oct. 2016, doi: 10.1109/TITS.2016.2530146.[Consultado en octubre de 2020] Disponible en: https://ieeexplore.ieee.org/document/7458203TAN, Mingxing. QUOC V. Le. “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks.” [En línea] 2020. [Consultado el 20 de enero de 2021]. Disponible en: https://arxiv.org/pdf/1905.11946.pdfTETTAMANTI, Tamás; VARGA, István y SZALAY, Zsolt. Impacts of Autonomous Cars from a Traffic Engineering Perspective. [en línea] En: Periodica Polytechnica Transportation Engineering. 2016. vol. 44, no. 4, pp. 244-250 [consultado: 23 de septiembre de 2019] disponible en internet: https://pp.bme.hu/tr/article/view/9464/7146UÇAR, Ayşegül y DEMIR, Yakup y GÜZELIŞ, Cüneyt. Object recognition and detection with deep learning for autonomous driving applications. [En línea] 2017. SIMULATION. 93. 003754971770993. 10.1177/0037549717709932. [Consultado en agosto de 2020] Disponible en: https://journals.sagepub.com/doi/10.1177/0037549717709932VOLVO. Funciones de vehículo. [en linea] 2020 [consultado el día 15 de noviembre de 2020] Disponible en: https://www.volvocars.com/pe/support/article/4c4380adf3f56bc8c0a801510c91778cWAYMO. Waymo’s Safety Methodologies and Safety Readiness Determinations. [En linea]. USA. 2020 P. 22-24. [Consultado el 10 de noviembre de 2020] Disponible en: https://storage.googleapis.com/sdc-prod/v1/safety-report/Waymo-Safety- Methodologies-and-Readiness-Determinations.pdfXIAO, Yao. Vehicle Detection in Deep Learning [En línea]. 2019. ArXiv, abs/1905.13390. [Consultado en octubre de 2020]. Disponible en: https://arxiv.org/ftp/arxiv/papers/1905/1905.13390.pdfXU, Hao., SRIVASTAVA, Gautam. Automatic recognition algorithm of traffic signs based on convolution neural network. [En línea] 2020. Multimed Tools Appl 79, 11551–11565. [Consultado en Diciembre de 2020] Disponible en: https://doi.org/10.1007/s11042-019-08239-zYI. Xiao, CODEVILLA, Felipe, GURRAM, Akhil, Et. al, "Multimodal End-to-End Autonomous Driving," in IEEE Transactions on Intelligent Transportation Systems, doi: 10.1109/TITS.2020.3013234.YILMAZ, Asim. A Vehicle Detection Approach using Deep Learning Methodologies. [En línea] 2018. ArXiv, abs/1804.00429. [Consultado en agosto de 2020] Disponible en: https://arxiv.org/abs/1804.00429ZHENNING, Li, Et al. Temporal-spatial dimension extension-based intersection control formulation for connected and autonomous vehicle systems.[En línea] Transportation Research Part C: Emerging Technologies, Volume 104, 2019, Pg 234-248, ISSN 0968-090X, [Consultado en septiembre de 2020] https://doi.org/10.1016/j.trc.2019.05.003.GeneralPublicationLICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://red.uao.edu.co/bitstreams/cc579409-f6a4-4f18-981c-4a120e66e667/download20b5ba22b1117f71589c7318baa2c560MD53ORIGINALT09888_Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown.pdfT09888_Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown.pdfArchivo texto completo del trabajo de grado en pdfapplication/pdf1416500https://red.uao.edu.co/bitstreams/4bc44f79-3672-4a0c-8c43-0ad9bf410700/download8795505c4818526a42601a98c21d76afMD54TA9888_Autorización trabajo de grado.pdfTA9888_Autorización trabajo de grado.pdfAutorización para trabajo de gradoapplication/pdf328418https://red.uao.edu.co/bitstreams/7acad9ce-32f4-47d5-bfed-41a6cf6076ed/download335e34709965c7e96c8ea1edbc81e635MD55TEXTT09888_Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown.pdf.txtT09888_Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown.pdf.txtExtracted texttext/plain161849https://red.uao.edu.co/bitstreams/82f59f7b-850c-4628-a399-a2535f0ff89b/downloada3a70cb83f05d863c3b3d6516ea2096aMD56TA9888_Autorización trabajo de grado.pdf.txtTA9888_Autorización trabajo de grado.pdf.txtExtracted texttext/plain4080https://red.uao.edu.co/bitstreams/6f3c80e9-ba24-44fb-948a-b58b040a5544/download55c7f632528328801392f2ed91ed337bMD58THUMBNAILT09888_Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown.pdf.jpgT09888_Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown.pdf.jpgGenerated Thumbnailimage/jpeg6606https://red.uao.edu.co/bitstreams/fdc8ffc4-bfcd-437e-8649-84f0256defe7/downloadf9ded1494ba2c589a2fcd5b841e5997eMD57TA9888_Autorización trabajo de grado.pdf.jpgTA9888_Autorización trabajo de grado.pdf.jpgGenerated Thumbnailimage/jpeg13362https://red.uao.edu.co/bitstreams/3daad04e-efc3-4046-9cdc-eb8da9d8488b/download47dc4c30d06422b64a8bdc3ff7b2a7d6MD5910614/13131oai:red.uao.edu.co:10614/131312024-03-15 09:20:48.597https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos Reservados - Universidad Autónoma de Occidente, 2021open.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K