Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos

En el documento presentado a continuación, se consigna el desarrollo de un sistema de percepción que permita a un vehículo autónomo terrestre tipo Ackermann desplazarse en ambientes urbanos, mediante consignas de control generadas a partir de una trayectoria a corto plazo. El trabajo se realizó en c...

Full description

Autores:
Correa Sandoval, José Miguel
Díaz Zapata, Manuel Alejandro
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2019
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/11599
Acceso en línea:
http://red.uao.edu.co//handle/10614/11599
Palabra clave:
Ingeniería Mecatrónica
Vehículos autónomos
Visión por computador
Simulación por computadores
Seguimiento de carril
Autonomous vehicles
Computer vision
Computer simulation
Rights
openAccess
License
Derechos Reservados - Universidad Autónoma de Occidente
id REPOUAO2_ca41ba25ee54e2d420c2c04264a6e9d9
oai_identifier_str oai:red.uao.edu.co:10614/11599
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos
title Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos
spellingShingle Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos
Ingeniería Mecatrónica
Vehículos autónomos
Visión por computador
Simulación por computadores
Seguimiento de carril
Autonomous vehicles
Computer vision
Computer simulation
title_short Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos
title_full Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos
title_fullStr Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos
title_full_unstemmed Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos
title_sort Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos
dc.creator.fl_str_mv Correa Sandoval, José Miguel
Díaz Zapata, Manuel Alejandro
dc.contributor.advisor.none.fl_str_mv Perafán Villota, Juan Carlos
dc.contributor.advisor.spa.fl_str_mv Romero Cano, Víctor Adolfo
dc.contributor.author.spa.fl_str_mv Correa Sandoval, José Miguel
Díaz Zapata, Manuel Alejandro
dc.subject.spa.fl_str_mv Ingeniería Mecatrónica
Vehículos autónomos
Visión por computador
Simulación por computadores
Seguimiento de carril
topic Ingeniería Mecatrónica
Vehículos autónomos
Visión por computador
Simulación por computadores
Seguimiento de carril
Autonomous vehicles
Computer vision
Computer simulation
dc.subject.eng.fl_str_mv Autonomous vehicles
Computer vision
Computer simulation
description En el documento presentado a continuación, se consigna el desarrollo de un sistema de percepción que permita a un vehículo autónomo terrestre tipo Ackermann desplazarse en ambientes urbanos, mediante consignas de control generadas a partir de una trayectoria a corto plazo. El trabajo se realizó en cinco etapas: revisión del estado del arte para los sistemas de seguimiento de carril y planeación de trayectorias, selección y comparación de las técnicas existentes, adaptación y evaluación de las técnicas seleccionadas, desarrollo del sistema y, por último, implementación en un entorno simulado y sobre la plataforma física seleccionada el robot Autónomo Uno. El sistema de precepción desarrollado, para la detección y seguimiento de carril fue realizado utilizando técnicas de visión computacional. El sistema utiliza la técnica de características Haar-Like con el fin de filtrar la imagen y realzar características del carril. Adicionalmente, se utiliza un área de interés (ROI) y se genera una vista superior o vista de pájaro (BEV) sobre la cual se hacen las detecciones del carril del vehículo por medio de ventanas deslizantes. Finalmente, utilizando el filtro de Kalman se añade robustez para la estimación del carril frente a obstáculos. En la generación de la trayectoria a corto plazo se hace uso de las estimaciones del modelo carril para generar un vector de dirección que corresponde con centro del carril. La trayectoria y el ángulo de giro que el vehículo debe de describir al desplazarse corresponde a este vector. En cuanto al control de la posición y velocidad del vehículo terrestre, se utiliza la cinemática inversa de un robot móvil tipo Ackermann y el controlador proporcional-integrativo, para la prueba de campo y en un entorno simulado, respectivamente. En los resultados obtenidos durante la prueba de campo se evidenció que el sistema responde acorde a lo esperado la detección y seguimiento del carril bajo diferentes condiciones. Adicionalmente, los sistemas de control de posición y velocidad brindan un resultado aceptable, aunque con presencia de ruido leve en la señal de control. Por otra parte, en la plataforma física se observó un resultado admisible que concluye con un exitoso funcionamiento para el sistema
publishDate 2019
dc.date.accessioned.spa.fl_str_mv 2019-11-28T15:11:52Z
dc.date.available.spa.fl_str_mv 2019-11-28T15:11:52Z
dc.date.issued.spa.fl_str_mv 2019-08-12
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coar.spa.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.spa.fl_str_mv Text
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.spa.fl_str_mv https://purl.org/redcol/resource_type/TP
dc.type.version.spa.fl_str_mv info:eu-repo/semantics/acceptedVersion
format http://purl.org/coar/resource_type/c_7a1f
status_str acceptedVersion
dc.identifier.uri.spa.fl_str_mv http://red.uao.edu.co//handle/10614/11599
url http://red.uao.edu.co//handle/10614/11599
dc.language.iso.spa.fl_str_mv spa
language spa
dc.rights.spa.fl_str_mv Derechos Reservados - Universidad Autónoma de Occidente
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.spa.fl_str_mv https://creativecommons.org/licenses/by-nc-sa/4.0/
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.spa.fl_str_mv Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0)
rights_invalid_str_mv Derechos Reservados - Universidad Autónoma de Occidente
https://creativecommons.org/licenses/by-nc-sa/4.0/
Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.spa.fl_str_mv application/pdf
dc.format.extent.spa.fl_str_mv 101 páginas
dc.coverage.spatial.spa.fl_str_mv Universidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí
dc.publisher.program.spa.fl_str_mv Ingeniería Mecatrónica
dc.publisher.department.spa.fl_str_mv Departamento de Automática y Electrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.source.spa.fl_str_mv instname:Universidad Autónoma de Occidente
reponame:Repositorio Institucional UAO
instname_str Universidad Autónoma de Occidente
institution Universidad Autónoma de Occidente
reponame_str Repositorio Institucional UAO
collection Repositorio Institucional UAO
dc.source.bibliographiccitation.spa.fl_str_mv [1] S. P. Narote, P. N. Bhujbal, A. S. Narote, and D. M. Dhane, “A review of recent advances in lane detection and departure warning system,” Pattern Recognit., vol. 73, pp. 216–234, 2018. [2] El Tiempo, “Producción de petróleo bajó en 2017 en Colombia,” Periodico El Tiempo, [En línea]. Disponible en: https://www.eltiempo.com/economia/sectores/produccion-de-petroleo-bajo- en-2017-en-colombia-171848. [3] P. Tientrakool, Y. C. Ho, and N. F. Maxemchuk, “Highway capacity benefits from using vehicle-to-vehicle communication and sensors for collision avoidance,” IEEE Veh. Technol. Conf., pp. 1–5, 2011. [4] D. Muoio, “19 companies racing to put self-driving cars on the road by 2021,” Business Insider, [En línea]. Disponible en: https://www.businessinsider.com/companies-making-driverless-cars-by- 2020-2016-10/#tesla-is-aiming-to-have-its-driverless-technology-ready-by- 2018-1. [5] E. Ackerman, (2012,Sep. 4) “Study: Intelligent Cars Could Boost Highway Capacity by 273%”. [Internet]. Disponible en: https://spectrum.ieee.org/automaton/robotics/artificial-intelligence/intelligent- cars-could-boost-highway-capacity-by-273. [6] S. Álvarez, (2016, abr. 29) “La máquina que cambió el mundo: la revolución industrial del Ford Model T”. [Internet]. Disponible en: https://www.diariomotor.com/espacio-ford/2016/04/29/ford-model-t- produccion-masa/. [7] The Milwaukee Sentinel, “‘Phantom Auto’ will tour city.,” The Milwaukee Sentinel, Milwaukee, p. 14, 08-Dec-1926. [8] Magazine Pontiac Safari, “Visiting the New York World’s Fair and the General Motors Futurama," Magazine Pontiac Safari, [En línea]. Disponible en: http://www.nywf64.com/gm19.shtml. 91[9] R. Dashner, “General Motors’ ‘FUTURAMA II,’” Ray Dashner Archives. 2007. [aúdio en línea]. Disponible en http://www.nywf64.com/gm21.shtml [10] T. Vanderbilt, “Autonomous Cars Through the Ages,” WIRED, [En línea]. Disponible en: https://www.wired.com/2012/02/autonomous-vehicle-history/ [11] Accenture Insurance, (2017, Ene. 10). “WHERE IN THE WORLD ARE SELF DRIVING CARS ? WORLD ARE,” [Internet]. Disponible en: https://insuranceblog.accenture.com/where-in-the-world-are-self-driving-cars. [12] Dinero, “Colombia aún no está preparada para la conducción autónoma, según Toyota,” Dinero, [En línea]. Disponible en: https://www.dinero.com/empresas/articulo/toyota-celebra-50-anos-en- colombia-habla-sobre-conduccion-autonoma/252858. [13] J. Caparroso, “¿Cuándo llegarán los carros autónomos a Colombia?,” El Tiempo. [En línea]. Disponible en: https://www.eltiempo.com/tecnosfera/novedades-tecnologia/futuro-de-los- carros-autonomos-en-colombia-93398. [14] K. Waddell, “Prepping Self-Driving Cars for the World’s Most Chaotic Cities,” WIRED, [En linea]. Disponible en: https://www.wired.com/story/self-driving- cars-chaotic-cities-traffic/. [15] D. J. Fagnant and K. M. Kockelman, “Preparing a nation for autonomous vehicles,” Transp. Res. Part A J., vol. 77, no. October, pp. 1–32, 2013. [16] G. Reinoso, “Cada día mueren 18 personas en accidentes vehiculares en el país,” El Tiempo. [En línea]. Disponible en: https://www.eltiempo.com/colombia/otras-ciudades/cifras-de-accidentes-de- transito-en-2016-39192. [17] El Tiempo, “Parque automotor de colombia es de 12.5 millones de vehículos,” Revista El Tiempo. [En línea]. Disponible en: http://www.motor.com.co/actualidad/industria/parque-automotor-colombia- 12-millones-vehiculos/27016. [18] McKinsey&Company, “Automotive revolution – perspective towards 2030,” 92Stanford Univ. PEEC Sustain. Transp. Semin., no. January 1st, p. 20, 2016. [19] J. Son, H. Yoo, S. Kim, and K. Sohn, “Real-time illumination invariant lane detection for lane departure warning system,” Expert Syst. Appl., vol. 42, no. 4, pp. 1816–1824, 2015. [20] N. Madrid and P. Hurtik, “Lane departure warning for mobile devices based on a fuzzy representation of images,” Fuzzy Sets Syst., vol. 291, pp. 144–159, 2016. [21] A. Mammeri, A. Boukerche, and Z. Tang, “A real-time lane marking localization, tracking and communication system,” Comput. Commun., vol. 73, pp. 132–143, 2016. [22] H. Zhu, K. V. Yuen, L. Mihaylova, and H. Leung, “Overview of Environment Perception for Intelligent Vehicles,” IEEE Trans. Intell. Transp. Syst., vol. 18, no. 10, pp. 2584–2601, 2017. [23] K. Jihum, L. Minho, "Robust Lane Detection Based On Convolutional Neural Network and Random Sample Consensus", International Conference on Neural Information Processing, Neural Information Processing, vol. 8834, pp. 454-461, 2014. doi: https://doi.org/10.1007/978-3-319-12637-1_57 [24] X. Pan, J. Shi, P. Luo, X. Wang, X. Tang, "Spatial As Deep: Spatial CNN for Traffic Scene Understanding", arXiv e-prints, Dic, 2017. [En línea]. Disponible en https://arxiv.org/abs/1712.06080 [25] F. Visin, K. Kastner, K. Cho, M. Matteucci, A. Courville, Y. Bengio, "ReNet: A Recurrent Neural Network Based Alternative to Convolutional Networks", arXiv e-prints, May, 2015. [En línea]. Disponible en https://arxiv.org/abs/1505.00393 [26] P. Krähenbühl, V. Koltun, " Efficient Inference in Fully Connected CRFs with Gaussian Edge Potentials", arXiv e-prints, Oct, 2012. [En línea]. Disponible en https://arxiv.org/abs/1210.5644 [27] C. Katrakazas, M. Quddus, W. H. Chen, and L. Deka, “Real-time motion planning methods for autonomous on-road driving: State-of-the-art and future 93research directions,” Transp. Res. Part C Emerg. Technol., vol. 60, pp. 416– 442, 2015. [28] P. Varuya, “Smart carts on smart roads: Problems of control,” IEEE Trans. Automat. Contr., vol. 43, no. 2, pp. 195–207, 1998. [29] S. M. LaValle, “Rapidly-Exploring Random Trees: A New Tool for Path Planning,” 1998. Consultado en: 5, 13, 2018. [En línea]. Disponible en: http://msl.cs.illinois.edu/~lavalle/papers/Lav98c.pdf [30] J. Ziegler and C. Stiller, “Spatiotemporal state lattices for fast trajectory planning in dynamic on-road driving scenarios,” 2009 IEEE/RSJ Int. Conf. Intell. Robot. Syst. IROS 2009, pp. 1879–1884, 2009. [31] C. Alia, T. Reine, and C. Ali, “Maneuver Planning for Autonomous Vehicles , with Clothoid Tentacles for Local Trajectory Planning,” IEEE 20th International Conference on Intelligent Transportation Systems (ITSC), pp. 1-6, Mar, 2017. November, 2017. Consultado en: 5, 13, 2018. doi: 10.1109/ITSC.2017.8317856. [32] J. Hardy and M. Campbell, “Contingency planning over probabilistic obstacle predictions for autonomous road vehicles,” IEEE Trans. Robot., vol. 29, no. 4, pp. 913–929, 2013. [33] R. Kala and K. Warwick, “Motion planning of autonomous vehicles in a non- autonomous vehicle environment without speed lanes,” Eng. Appl. Artif. Intell., vol. 26, no. 5–6, pp. 1588–1601, 2013. [34] J. Ziegler et al., “Making bertha drive-an autonomous journey on a historic route,” IEEE Intell. Transp. Syst. Mag., vol. 6, no. 2, pp. 8–20, 2014. [35] S. Brechtel, T. Gindele, and R. Dillmann, “Probabilistic decision-making under uncertainty for autonomous driving using continuous POMDPs,” 2014 17th IEEE Int. Conf. Intell. Transp. Syst. ITSC 2014, pp. 392–399, 2014. [36] V. Delsart, T. Fraichard, and L. Martinez, “Real-time trajectory generation for car-like vehicles navigating dynamic environments,” Proc. - IEEE Int. Conf. Robot. Autom., pp. 3401–3406, 2009. 94[37] Y. Cong, O. Sawodny, H. Chen, J. Zimmermann, and A. Lutz, “Motion planning for an autonomous vehicle driving on motorways by using flatness properties,” Proc. IEEE Int. Conf. Control Appl., pp. 908–913, 2010. [38] R. M. Murray, M. Rathinam and W. Sluis, “Differential Flatness of Mechanical Control Systems : A Catalog of Prototype Systems,” Proceedings of the 1995 ASME International Congress and Exposition, Nov., 1995. Consultado en: 5, 10, 2018. [En línea]. Disponible en: http://www.cds.caltech.edu/~murray/preprints/mrs95-imece.pdf [39] L. Ma, J. Yang, and M. Zhang, “A two-level path planning method for on-road autonomous driving,” Proc. - 2012 Int. Conf. Intell. Syst. Des. Eng. Appl. ISDEA 2012, no. 90920301, pp. 661–664, 2012. [40] I. Bae, J. Moon, H. Park, J. H. Kim, and S. Kim, “Path generation and tracking based on a Bézier curve for a steering rate controller of autonomous vehicles,” IEEE Conf. Intell. Transp. Syst. Proceedings, ITSC, no. Itsc, pp. 436–441, 2013. [41] D. González, J. Pérez, R. Lattarulo, V. Milanés, and F. Nashashibi, “Continuous curvature planning with obstacle avoidance capabilities in urban scenarios,” 2014 17th IEEE Int. Conf. Intell. Transp. Syst. ITSC 2014, pp. 1430–1435, 2014. [42] M. Wang, T. Ganjineh, and R. Rojas, “Action annotated trajectory generation for autonomous maneuvers on structured road networks,” ICARA 2011 - Proc. 5th Int. Conf. Autom. Robot. Appl., pp. 67–72, 2011. [43] T. Gu and J. M. Dolan, “On-road motion planning for autonomous vehicles,” Proc. 5th Int. Conf. Intell. Robot. Appl. (ICIRA 2012), vol. 8103, no. October, 2013. [44] D. Madas et al., “On path planning methods for automotive collision avoidance,” IEEE Intell. Veh. Symp. Proc., no. Iv, pp. 931–937, 2013. [45] M. Issitt, (2018). “Autonomous Car Salem Press Encyclopedia of Science", [Internet]. Disponible en http://ezproxy.uao.edu.co:2048/login?url=http://search.ebscohost.com/login.a spx?direct=true&db=ers&AN=100039110&lang=es&site=eds-live 95[46] J. Dokic, B. Mueller, and G. Meyer, “European Roadmap Smart Systems for Automated Driving,” Eur. Technol. Platf. Smart Syst. Integr., no. April 2015, pp. 1–39, 2015. [47] R. Siegwart y I. Nourbakhsh, Introduction to Autonomous Mobile Robots., vol. 23. Boston: MIT Press, 2004. [48] M. S. Ameigh, (2018). “Radar Salem Press Encyclopedia of Science". [Internet]. Disponible en http://ezproxy.uao.edu.co:2094/eds/detail/detail?vid=5&sid=8fa01bb9-9c3f- 4069-bcdd-fceec20e0659%40pdc-v- sessmgr04&bdata=Jmxhbmc9ZXMmc2l0ZT1lZHMtbGl2ZQ%3d%3d#AN=89 317181&db=ers [49] V. Thomas, (2016). “Lidar (remote sensing technology) Salem Press Encyclopedia". [Internet]. Disponible en http://ezproxy.uao.edu.co:2094/eds/detail/detail?vid=8&sid=8fa01bb9-9c3f- 4069-bcdd-fceec20e0659%40pdc-v- sessmgr04&bdata=Jmxhbmc9ZXMmc2l0ZT1lZHMtbGl2ZQ%3d%3d#AN=87 323881&db=ers [50] U.S. Air Force, (2017, jun. 6). “The Global Positioning System”. [Internet]. Disponible en: https://www.gps.gov/systems/gps/. [51] G. R. Plitnik, (2018). “Accelerometers Salem Press Encyclopedia of Science". [Internet]. Disponible en http://ezproxy.uao.edu.co:2094/eds/detail/detail?vid=10&sid=8fa01bb9-9c3f- 4069-bcdd-fceec20e0659%40pdc-v- sessmgr04&bdata=Jmxhbmc9ZXMmc2l0ZT1lZHMtbGl2ZQ%3d%3d#AN=89 316860&db=ers [52] K. Dawson-Howe, A Practical Introduction to Computer Vision with OpenCV, ed. 1ra, John Wiley & Sons, 2014. [53] J. Canny, “A Computational Approach To Edge Detection,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 8, no. 6, pp. 679–714, 1986. [54] F. Robert, S. Perkins, A. Walker, y E. Wolfart, “Image Transforms - Hough Transform,” The Hypermedia Image Processing Reference, 2003. Consultado 96en: 6, 2, 2018. [En línea]. https://homepages.inf.ed.ac.uk/rbf/HIPR2/hough.htm. Disponible en: [55] P. Viola and M. Jones, “Rapid object detection using a boosted cascade of simple features,” Proc. 2001 IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognition. CVPR 2001, vol. 1, pp. I-511-I–518, 2001. [56] N. Correll, Introduction to Autonomous Robots, ed. 2da, Magellan Scientific, 2014. [En línea] Disponible en: https://github.com/correll/Introduction-to- Autonomous-Robots. [57] Ubuntu, “Licensing.” https://www.ubuntu.com/licensing. [Internet]. Disponible [58] Ubuntu, “Our mission”. [Internet]. https://www.ubuntu.com/community/mission. [59] Ubuntu, “Debian.” [Internet]. https://www.ubuntu.com/community/debian. [60] Ubuntu, “Ubuntu PC operating https://www.ubuntu.com/desktop. system.” Disponible Disponible [Internet]. Disponible en: en: en: en: [61] Ubuntu, “Ubuntu Server - for scale out workloads.” [Internet]. Disponible en: https://www.ubuntu.com/server. [62] Ubuntu, “Ubuntu for the Internet of Things.” [Internet]. Disponible en: https://www.ubuntu.com/internet-of-things. [63] Ubuntu, “Ubuntu release cycle.” [Internet]. https://www.ubuntu.com/about/release-cycle. Disponible en: [64] Robotic Operative System, “About ROS.” [Internet]. Disponible en: http://www.ros.org/about-ros/. [65] Open Source Robotics Foundation, “Nodes - ROS Wiki.” [Internet]. Disponible 97en: https://wiki.ros.org/Nodes. [66] Open Source Robotics Foundation, “Topics - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Topics. [67] Open Source Robotics Foundation, “Services - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Services. [68] Open Source Robotics Foundation, “Messages - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Messages. [69] Open Source Robotics Foundation, “Parameter Server - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Parameter Server. [70] Open Source Robotics Foundation, “Bags - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Bags. [71] Open Source Robotics Foundation, “ROS Kinetic Kame.” [Internet]. Disponible en: https://wiki.ros.org/kinetic. [72] Open Source Robotics Foundation, “XML Robot Description Format (URDF).” [Internet]. Disponible en: http://wiki.ros.org/urdf/XML/model. [73] L. Joseph, “Mastering ROS for Robotics Programming,” in Bangladesh Journal of Plant Taxonomy, vol. 22, no. 2, 2015, pp. 137–141. [74] Open Source Robotics Foundation, “Link element - ROS Wiki.” [Internet]. Disponible en: http://wiki.ros.org/urdf/XML/link. [75] Open Source Robotics Foundation, “Joint element - ROS Wiki.” [Internet]. Disponible en: http://wiki.ros.org/urdf/XML/joint. [76] Open Source Robotics Foundation, “Gazebo.” [Internet]. Disponible en: http://gazebosim.org/. [77] Open Source Robotics Foundation, “SDF Format.” [Internet]. Disponible en: 98http://sdformat.org/. [78] Open Source Robotics Foundation, “Using a URDF in Gazebo.” [Internet]. Disponible en: http://gazebosim.org/tutorials/?tut=ros_urdf. [79] OpenCV Team, “About the OpenCV library.” [Internet]. Disponible en: https://opencv.org/about.html. [80] A. Rincón Núñez, “Descripción de escenas por medio de aprendizaje profundo,” Proyecto de Grado, Dto. Automática y electrónica, Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2018. [81] L. S. Pérez Ochoa y M. F. Eraso Salazar, “Diseño y construcción de un robot terrestre que sirva de plataforma para desarrollo de investigaciones en el área de robótica móvil en ambientes abiertos y cerrados,” Proyecto de Grado, Dto. Automática y electrónica, Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2014. [82] A. M. Pinto Vargas, M. Á. Saavedra Ruiz, “Desarrollo de un sistema de aterrizaje autónomo para un vehículo aéreo no tripulado sobre un vehículo terrestre,” Proyecto de Grado, Dto. Automática y electrónica, Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2019. [83] D. Díaz Tenorio, “Diseño e implementación de un sistema para el mapeo y navegación de un robot móvil,” Proyecto de Grado, Dto. Automática y electrónica, Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2017. [84] M. Horga, (2016, Abr. 30). "Udacity: Lane Finding project for self-driving car nd". [Internet]. Disponible en https://github.com/udacity/CarND-LaneLines-P1. [85] G. Ballew, (2017, Ene., 24). “OpenCV For Lane Detection in Self Driving Cars”. [Internet]. Disponible en: https://medium.com/@galen.ballew/opencv- lanedetection-419361364fc0. [86] Scikit Llearn Developers, (2007). “Choosing the right estimator”. [Internet]. Disponible en: https://scikit-learn.org/stable/tutorial/machine_learning_map/ 99[87] F. Pedregosa et al., “Scikit-learn: Machine Learning in Python,” J. Mach. Learn. Res., vol. 12, pp. 2825–2830, 2011. [88] Scikit-learn developers, (2007). “Radial basis function kernel,” [Internet]. Disponible en: https://scikit- learn.org/stable/modules/generated/sklearn.gaussian_process.kernels.RBF. html. [89] M. Pal, “Multiclass Approaches for Support Vector Machine Based Land Cover Classification,” arXiv e-prints, Feb, 2008. Consultado en: 4, 20, 2018.[En línea]. Disponible en: https://arxiv.org/abs/0802.2411 [90] Scikit-learn developers, (2007). “Neural network models (supervised)”. [Internet]. Disponible en: https://scikit- learn.org/stable/modules/neural_networks_supervised.html [91] F. Chao, X. Jing-bo, and D. Shuai, “Lane Detection Based on Machine Learning Algorithm,” TELKOMNIKA Indones. J. Electr. Eng., vol. 12, no. 2, pp. 1403–1409, 2014. [92] N. Otsu, “A Threshold Selection Method from Gray-Level Histograms,” IEEE Trans. Syst. Man. Cybern., vol. 9, no. 1, pp. 62–66, Jan. 1979. [93] F. Robert, S. Perkins, A. Walker, and E. Wolfart, “Adaptive Thresholding,” The Hypermedia Image Processing Reference, 2003. Consultado en: 6, 2, 2018. [En línea]. Disponible en: https://homepages.inf.ed.ac.uk/rbf/HIPR2/adpthrsh.htm. [94] R. E. Kalman, “A New Approach to Linear Filtering and Prediction Problems,” Trans. ASME--Journal Basic Eng., vol. 82, no. Series D, pp. 35–45, 1960. [95] Open Source Robotics Foundation, “SolidWorkds to URDF Exporter.” [Internet]. Disponible en: http://wiki.ros.org/sw_urdf_exporter. [96] Open Source Robotics Foundation, “Model Editor - Gazebo.” [Internet]. Disponible en: http://gazebosim.org/tutorials?cat=guided_b&tut=guided_b3. 100[97] Open Source Robotics Foundation, “Python SDF to URDF.” [Internet]. Disponible en: http://wiki.ros.org/pysdf. [98] Open Source Robotics Foundation, “ROS Control - Wiki.” [Internet]. Disponible en: http://wiki.ros.org/ros_control. [99] K. Ogata, Modern control engineering, 5th Editio., vol. 17, no. 3. 1972.
bitstream.url.fl_str_mv https://red.uao.edu.co/bitstreams/79a991d0-85af-4c75-8664-68ec2b2ab861/download
https://red.uao.edu.co/bitstreams/e63e0de6-d8a4-4539-8099-0f2563106d4c/download
https://red.uao.edu.co/bitstreams/80bcc2b2-db28-437d-a7c1-8ede0e19f5c1/download
https://red.uao.edu.co/bitstreams/5f15c1ac-d48d-4cb8-8ec7-bcf865dad112/download
https://red.uao.edu.co/bitstreams/f1a1559e-4ffd-4649-bce8-1ffe7daa880f/download
https://red.uao.edu.co/bitstreams/e39e2bfe-0ba0-4c7e-82a4-7fb2d4387a10/download
https://red.uao.edu.co/bitstreams/ae45c204-1c4e-4329-9433-781b08dfecb0/download
https://red.uao.edu.co/bitstreams/90cbc646-ad45-42d9-ae85-b0991fa0e3cd/download
bitstream.checksum.fl_str_mv eb873aa8312751a60c56729892f9dd6a
e1c06d85ae7b8b032bef47e42e4c08f9
67438728d704a143c7a9d8d2a9eb063e
783b9df7ae2d3b196065ccefe401ba4b
934f4ca17e109e0a05eaeaba504d7ce4
20b5ba22b1117f71589c7318baa2c560
ee5ef8e3bc72de952613d768584682a6
0ad5a88f5cc45216505049ae267768d9
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Digital Universidad Autonoma de Occidente
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1814260211823673344
spelling Perafán Villota, Juan Carlosvirtual::4115-1Romero Cano, Víctor Adolfo9954a524fa7777dea88ef2222f28cb52-1Correa Sandoval, José Miguel17d6a6e9360eafb188e6c86aff763ae7-1Díaz Zapata, Manuel Alejandro09fc3455f4d8cf968c6a790c0b551580-1Ingeniero MecatrónicoUniversidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí2019-11-28T15:11:52Z2019-11-28T15:11:52Z2019-08-12http://red.uao.edu.co//handle/10614/11599En el documento presentado a continuación, se consigna el desarrollo de un sistema de percepción que permita a un vehículo autónomo terrestre tipo Ackermann desplazarse en ambientes urbanos, mediante consignas de control generadas a partir de una trayectoria a corto plazo. El trabajo se realizó en cinco etapas: revisión del estado del arte para los sistemas de seguimiento de carril y planeación de trayectorias, selección y comparación de las técnicas existentes, adaptación y evaluación de las técnicas seleccionadas, desarrollo del sistema y, por último, implementación en un entorno simulado y sobre la plataforma física seleccionada el robot Autónomo Uno. El sistema de precepción desarrollado, para la detección y seguimiento de carril fue realizado utilizando técnicas de visión computacional. El sistema utiliza la técnica de características Haar-Like con el fin de filtrar la imagen y realzar características del carril. Adicionalmente, se utiliza un área de interés (ROI) y se genera una vista superior o vista de pájaro (BEV) sobre la cual se hacen las detecciones del carril del vehículo por medio de ventanas deslizantes. Finalmente, utilizando el filtro de Kalman se añade robustez para la estimación del carril frente a obstáculos. En la generación de la trayectoria a corto plazo se hace uso de las estimaciones del modelo carril para generar un vector de dirección que corresponde con centro del carril. La trayectoria y el ángulo de giro que el vehículo debe de describir al desplazarse corresponde a este vector. En cuanto al control de la posición y velocidad del vehículo terrestre, se utiliza la cinemática inversa de un robot móvil tipo Ackermann y el controlador proporcional-integrativo, para la prueba de campo y en un entorno simulado, respectivamente. En los resultados obtenidos durante la prueba de campo se evidenció que el sistema responde acorde a lo esperado la detección y seguimiento del carril bajo diferentes condiciones. Adicionalmente, los sistemas de control de posición y velocidad brindan un resultado aceptable, aunque con presencia de ruido leve en la señal de control. Por otra parte, en la plataforma física se observó un resultado admisible que concluye con un exitoso funcionamiento para el sistemaThis document present, the development of a perception system that enables an Ackermann-type autonomous vehicle move through urban environments using control commands based on short-term trajectory planning. This work was done on five stages: review of the state of the art for lane keeping and trajectory planning systems, selection and comparison of current techniques, adaptation and evaluation of selected techniques, system development and lastly, implementation on a simulated environment and the selected platform used: robot Autónomo Uno. The perception system created for the lane keeping was based on computer vision techniques. This system uses Haar-like features with the purpose of filtering the image and to enhance lane features. Additionally, a region of interest (ROI) is used to generate a bird’s eye view (BEV) of the lane, which is used to do the detection of the markings using sliding windows. Finally, some robustness against shadows is given to the system by using the Kalman Filter. For the short-term trajectory generation, the lane model estimations are used to generate a steering vector that points towards the lane center. The trajectory and steering angle that the vehicle must do is given by steering vector. Regarding the vehicle’s position and speed control, inverse kinematics of an Ackermann-type robot and a proportional-integral controller were used for the robot test and simulated test respectively. The results shown that the lane detection and lane keeping systems work as expected under different circumstances. Additionally, the position and speed control systems executed an acceptable result, although with a slight presence of noise on the control signal. Moreover, on the physical platform, good result was observed; which leads to conclude with a successful functioning systemProyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2019PregradoIngeniero(a) Mecatrónico(a)application/pdf101 páginasspaDerechos Reservados - Universidad Autónoma de Occidentehttps://creativecommons.org/licenses/by-nc-sa/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0)http://purl.org/coar/access_right/c_abf2instname:Universidad Autónoma de Occidentereponame:Repositorio Institucional UAO[1] S. P. Narote, P. N. Bhujbal, A. S. Narote, and D. M. Dhane, “A review of recent advances in lane detection and departure warning system,” Pattern Recognit., vol. 73, pp. 216–234, 2018. [2] El Tiempo, “Producción de petróleo bajó en 2017 en Colombia,” Periodico El Tiempo, [En línea]. Disponible en: https://www.eltiempo.com/economia/sectores/produccion-de-petroleo-bajo- en-2017-en-colombia-171848. [3] P. Tientrakool, Y. C. Ho, and N. F. Maxemchuk, “Highway capacity benefits from using vehicle-to-vehicle communication and sensors for collision avoidance,” IEEE Veh. Technol. Conf., pp. 1–5, 2011. [4] D. Muoio, “19 companies racing to put self-driving cars on the road by 2021,” Business Insider, [En línea]. Disponible en: https://www.businessinsider.com/companies-making-driverless-cars-by- 2020-2016-10/#tesla-is-aiming-to-have-its-driverless-technology-ready-by- 2018-1. [5] E. Ackerman, (2012,Sep. 4) “Study: Intelligent Cars Could Boost Highway Capacity by 273%”. [Internet]. Disponible en: https://spectrum.ieee.org/automaton/robotics/artificial-intelligence/intelligent- cars-could-boost-highway-capacity-by-273. [6] S. Álvarez, (2016, abr. 29) “La máquina que cambió el mundo: la revolución industrial del Ford Model T”. [Internet]. Disponible en: https://www.diariomotor.com/espacio-ford/2016/04/29/ford-model-t- produccion-masa/. [7] The Milwaukee Sentinel, “‘Phantom Auto’ will tour city.,” The Milwaukee Sentinel, Milwaukee, p. 14, 08-Dec-1926. [8] Magazine Pontiac Safari, “Visiting the New York World’s Fair and the General Motors Futurama," Magazine Pontiac Safari, [En línea]. Disponible en: http://www.nywf64.com/gm19.shtml. 91[9] R. Dashner, “General Motors’ ‘FUTURAMA II,’” Ray Dashner Archives. 2007. [aúdio en línea]. Disponible en http://www.nywf64.com/gm21.shtml [10] T. Vanderbilt, “Autonomous Cars Through the Ages,” WIRED, [En línea]. Disponible en: https://www.wired.com/2012/02/autonomous-vehicle-history/ [11] Accenture Insurance, (2017, Ene. 10). “WHERE IN THE WORLD ARE SELF DRIVING CARS ? WORLD ARE,” [Internet]. Disponible en: https://insuranceblog.accenture.com/where-in-the-world-are-self-driving-cars. [12] Dinero, “Colombia aún no está preparada para la conducción autónoma, según Toyota,” Dinero, [En línea]. Disponible en: https://www.dinero.com/empresas/articulo/toyota-celebra-50-anos-en- colombia-habla-sobre-conduccion-autonoma/252858. [13] J. Caparroso, “¿Cuándo llegarán los carros autónomos a Colombia?,” El Tiempo. [En línea]. Disponible en: https://www.eltiempo.com/tecnosfera/novedades-tecnologia/futuro-de-los- carros-autonomos-en-colombia-93398. [14] K. Waddell, “Prepping Self-Driving Cars for the World’s Most Chaotic Cities,” WIRED, [En linea]. Disponible en: https://www.wired.com/story/self-driving- cars-chaotic-cities-traffic/. [15] D. J. Fagnant and K. M. Kockelman, “Preparing a nation for autonomous vehicles,” Transp. Res. Part A J., vol. 77, no. October, pp. 1–32, 2013. [16] G. Reinoso, “Cada día mueren 18 personas en accidentes vehiculares en el país,” El Tiempo. [En línea]. Disponible en: https://www.eltiempo.com/colombia/otras-ciudades/cifras-de-accidentes-de- transito-en-2016-39192. [17] El Tiempo, “Parque automotor de colombia es de 12.5 millones de vehículos,” Revista El Tiempo. [En línea]. Disponible en: http://www.motor.com.co/actualidad/industria/parque-automotor-colombia- 12-millones-vehiculos/27016. [18] McKinsey&Company, “Automotive revolution – perspective towards 2030,” 92Stanford Univ. PEEC Sustain. Transp. Semin., no. January 1st, p. 20, 2016. [19] J. Son, H. Yoo, S. Kim, and K. Sohn, “Real-time illumination invariant lane detection for lane departure warning system,” Expert Syst. Appl., vol. 42, no. 4, pp. 1816–1824, 2015. [20] N. Madrid and P. Hurtik, “Lane departure warning for mobile devices based on a fuzzy representation of images,” Fuzzy Sets Syst., vol. 291, pp. 144–159, 2016. [21] A. Mammeri, A. Boukerche, and Z. Tang, “A real-time lane marking localization, tracking and communication system,” Comput. Commun., vol. 73, pp. 132–143, 2016. [22] H. Zhu, K. V. Yuen, L. Mihaylova, and H. Leung, “Overview of Environment Perception for Intelligent Vehicles,” IEEE Trans. Intell. Transp. Syst., vol. 18, no. 10, pp. 2584–2601, 2017. [23] K. Jihum, L. Minho, "Robust Lane Detection Based On Convolutional Neural Network and Random Sample Consensus", International Conference on Neural Information Processing, Neural Information Processing, vol. 8834, pp. 454-461, 2014. doi: https://doi.org/10.1007/978-3-319-12637-1_57 [24] X. Pan, J. Shi, P. Luo, X. Wang, X. Tang, "Spatial As Deep: Spatial CNN for Traffic Scene Understanding", arXiv e-prints, Dic, 2017. [En línea]. Disponible en https://arxiv.org/abs/1712.06080 [25] F. Visin, K. Kastner, K. Cho, M. Matteucci, A. Courville, Y. Bengio, "ReNet: A Recurrent Neural Network Based Alternative to Convolutional Networks", arXiv e-prints, May, 2015. [En línea]. Disponible en https://arxiv.org/abs/1505.00393 [26] P. Krähenbühl, V. Koltun, " Efficient Inference in Fully Connected CRFs with Gaussian Edge Potentials", arXiv e-prints, Oct, 2012. [En línea]. Disponible en https://arxiv.org/abs/1210.5644 [27] C. Katrakazas, M. Quddus, W. H. Chen, and L. Deka, “Real-time motion planning methods for autonomous on-road driving: State-of-the-art and future 93research directions,” Transp. Res. Part C Emerg. Technol., vol. 60, pp. 416– 442, 2015. [28] P. Varuya, “Smart carts on smart roads: Problems of control,” IEEE Trans. Automat. Contr., vol. 43, no. 2, pp. 195–207, 1998. [29] S. M. LaValle, “Rapidly-Exploring Random Trees: A New Tool for Path Planning,” 1998. Consultado en: 5, 13, 2018. [En línea]. Disponible en: http://msl.cs.illinois.edu/~lavalle/papers/Lav98c.pdf [30] J. Ziegler and C. Stiller, “Spatiotemporal state lattices for fast trajectory planning in dynamic on-road driving scenarios,” 2009 IEEE/RSJ Int. Conf. Intell. Robot. Syst. IROS 2009, pp. 1879–1884, 2009. [31] C. Alia, T. Reine, and C. Ali, “Maneuver Planning for Autonomous Vehicles , with Clothoid Tentacles for Local Trajectory Planning,” IEEE 20th International Conference on Intelligent Transportation Systems (ITSC), pp. 1-6, Mar, 2017. November, 2017. Consultado en: 5, 13, 2018. doi: 10.1109/ITSC.2017.8317856. [32] J. Hardy and M. Campbell, “Contingency planning over probabilistic obstacle predictions for autonomous road vehicles,” IEEE Trans. Robot., vol. 29, no. 4, pp. 913–929, 2013. [33] R. Kala and K. Warwick, “Motion planning of autonomous vehicles in a non- autonomous vehicle environment without speed lanes,” Eng. Appl. Artif. Intell., vol. 26, no. 5–6, pp. 1588–1601, 2013. [34] J. Ziegler et al., “Making bertha drive-an autonomous journey on a historic route,” IEEE Intell. Transp. Syst. Mag., vol. 6, no. 2, pp. 8–20, 2014. [35] S. Brechtel, T. Gindele, and R. Dillmann, “Probabilistic decision-making under uncertainty for autonomous driving using continuous POMDPs,” 2014 17th IEEE Int. Conf. Intell. Transp. Syst. ITSC 2014, pp. 392–399, 2014. [36] V. Delsart, T. Fraichard, and L. Martinez, “Real-time trajectory generation for car-like vehicles navigating dynamic environments,” Proc. - IEEE Int. Conf. Robot. Autom., pp. 3401–3406, 2009. 94[37] Y. Cong, O. Sawodny, H. Chen, J. Zimmermann, and A. Lutz, “Motion planning for an autonomous vehicle driving on motorways by using flatness properties,” Proc. IEEE Int. Conf. Control Appl., pp. 908–913, 2010. [38] R. M. Murray, M. Rathinam and W. Sluis, “Differential Flatness of Mechanical Control Systems : A Catalog of Prototype Systems,” Proceedings of the 1995 ASME International Congress and Exposition, Nov., 1995. Consultado en: 5, 10, 2018. [En línea]. Disponible en: http://www.cds.caltech.edu/~murray/preprints/mrs95-imece.pdf [39] L. Ma, J. Yang, and M. Zhang, “A two-level path planning method for on-road autonomous driving,” Proc. - 2012 Int. Conf. Intell. Syst. Des. Eng. Appl. ISDEA 2012, no. 90920301, pp. 661–664, 2012. [40] I. Bae, J. Moon, H. Park, J. H. Kim, and S. Kim, “Path generation and tracking based on a Bézier curve for a steering rate controller of autonomous vehicles,” IEEE Conf. Intell. Transp. Syst. Proceedings, ITSC, no. Itsc, pp. 436–441, 2013. [41] D. González, J. Pérez, R. Lattarulo, V. Milanés, and F. Nashashibi, “Continuous curvature planning with obstacle avoidance capabilities in urban scenarios,” 2014 17th IEEE Int. Conf. Intell. Transp. Syst. ITSC 2014, pp. 1430–1435, 2014. [42] M. Wang, T. Ganjineh, and R. Rojas, “Action annotated trajectory generation for autonomous maneuvers on structured road networks,” ICARA 2011 - Proc. 5th Int. Conf. Autom. Robot. Appl., pp. 67–72, 2011. [43] T. Gu and J. M. Dolan, “On-road motion planning for autonomous vehicles,” Proc. 5th Int. Conf. Intell. Robot. Appl. (ICIRA 2012), vol. 8103, no. October, 2013. [44] D. Madas et al., “On path planning methods for automotive collision avoidance,” IEEE Intell. Veh. Symp. Proc., no. Iv, pp. 931–937, 2013. [45] M. Issitt, (2018). “Autonomous Car Salem Press Encyclopedia of Science", [Internet]. Disponible en http://ezproxy.uao.edu.co:2048/login?url=http://search.ebscohost.com/login.a spx?direct=true&db=ers&AN=100039110&lang=es&site=eds-live 95[46] J. Dokic, B. Mueller, and G. Meyer, “European Roadmap Smart Systems for Automated Driving,” Eur. Technol. Platf. Smart Syst. Integr., no. April 2015, pp. 1–39, 2015. [47] R. Siegwart y I. Nourbakhsh, Introduction to Autonomous Mobile Robots., vol. 23. Boston: MIT Press, 2004. [48] M. S. Ameigh, (2018). “Radar Salem Press Encyclopedia of Science". [Internet]. Disponible en http://ezproxy.uao.edu.co:2094/eds/detail/detail?vid=5&sid=8fa01bb9-9c3f- 4069-bcdd-fceec20e0659%40pdc-v- sessmgr04&bdata=Jmxhbmc9ZXMmc2l0ZT1lZHMtbGl2ZQ%3d%3d#AN=89 317181&db=ers [49] V. Thomas, (2016). “Lidar (remote sensing technology) Salem Press Encyclopedia". [Internet]. Disponible en http://ezproxy.uao.edu.co:2094/eds/detail/detail?vid=8&sid=8fa01bb9-9c3f- 4069-bcdd-fceec20e0659%40pdc-v- sessmgr04&bdata=Jmxhbmc9ZXMmc2l0ZT1lZHMtbGl2ZQ%3d%3d#AN=87 323881&db=ers [50] U.S. Air Force, (2017, jun. 6). “The Global Positioning System”. [Internet]. Disponible en: https://www.gps.gov/systems/gps/. [51] G. R. Plitnik, (2018). “Accelerometers Salem Press Encyclopedia of Science". [Internet]. Disponible en http://ezproxy.uao.edu.co:2094/eds/detail/detail?vid=10&sid=8fa01bb9-9c3f- 4069-bcdd-fceec20e0659%40pdc-v- sessmgr04&bdata=Jmxhbmc9ZXMmc2l0ZT1lZHMtbGl2ZQ%3d%3d#AN=89 316860&db=ers [52] K. Dawson-Howe, A Practical Introduction to Computer Vision with OpenCV, ed. 1ra, John Wiley & Sons, 2014. [53] J. Canny, “A Computational Approach To Edge Detection,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 8, no. 6, pp. 679–714, 1986. [54] F. Robert, S. Perkins, A. Walker, y E. Wolfart, “Image Transforms - Hough Transform,” The Hypermedia Image Processing Reference, 2003. Consultado 96en: 6, 2, 2018. [En línea]. https://homepages.inf.ed.ac.uk/rbf/HIPR2/hough.htm. Disponible en: [55] P. Viola and M. Jones, “Rapid object detection using a boosted cascade of simple features,” Proc. 2001 IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognition. CVPR 2001, vol. 1, pp. I-511-I–518, 2001. [56] N. Correll, Introduction to Autonomous Robots, ed. 2da, Magellan Scientific, 2014. [En línea] Disponible en: https://github.com/correll/Introduction-to- Autonomous-Robots. [57] Ubuntu, “Licensing.” https://www.ubuntu.com/licensing. [Internet]. Disponible [58] Ubuntu, “Our mission”. [Internet]. https://www.ubuntu.com/community/mission. [59] Ubuntu, “Debian.” [Internet]. https://www.ubuntu.com/community/debian. [60] Ubuntu, “Ubuntu PC operating https://www.ubuntu.com/desktop. system.” Disponible Disponible [Internet]. Disponible en: en: en: en: [61] Ubuntu, “Ubuntu Server - for scale out workloads.” [Internet]. Disponible en: https://www.ubuntu.com/server. [62] Ubuntu, “Ubuntu for the Internet of Things.” [Internet]. Disponible en: https://www.ubuntu.com/internet-of-things. [63] Ubuntu, “Ubuntu release cycle.” [Internet]. https://www.ubuntu.com/about/release-cycle. Disponible en: [64] Robotic Operative System, “About ROS.” [Internet]. Disponible en: http://www.ros.org/about-ros/. [65] Open Source Robotics Foundation, “Nodes - ROS Wiki.” [Internet]. Disponible 97en: https://wiki.ros.org/Nodes. [66] Open Source Robotics Foundation, “Topics - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Topics. [67] Open Source Robotics Foundation, “Services - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Services. [68] Open Source Robotics Foundation, “Messages - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Messages. [69] Open Source Robotics Foundation, “Parameter Server - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Parameter Server. [70] Open Source Robotics Foundation, “Bags - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Bags. [71] Open Source Robotics Foundation, “ROS Kinetic Kame.” [Internet]. Disponible en: https://wiki.ros.org/kinetic. [72] Open Source Robotics Foundation, “XML Robot Description Format (URDF).” [Internet]. Disponible en: http://wiki.ros.org/urdf/XML/model. [73] L. Joseph, “Mastering ROS for Robotics Programming,” in Bangladesh Journal of Plant Taxonomy, vol. 22, no. 2, 2015, pp. 137–141. [74] Open Source Robotics Foundation, “Link element - ROS Wiki.” [Internet]. Disponible en: http://wiki.ros.org/urdf/XML/link. [75] Open Source Robotics Foundation, “Joint element - ROS Wiki.” [Internet]. Disponible en: http://wiki.ros.org/urdf/XML/joint. [76] Open Source Robotics Foundation, “Gazebo.” [Internet]. Disponible en: http://gazebosim.org/. [77] Open Source Robotics Foundation, “SDF Format.” [Internet]. Disponible en: 98http://sdformat.org/. [78] Open Source Robotics Foundation, “Using a URDF in Gazebo.” [Internet]. Disponible en: http://gazebosim.org/tutorials/?tut=ros_urdf. [79] OpenCV Team, “About the OpenCV library.” [Internet]. Disponible en: https://opencv.org/about.html. [80] A. Rincón Núñez, “Descripción de escenas por medio de aprendizaje profundo,” Proyecto de Grado, Dto. Automática y electrónica, Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2018. [81] L. S. Pérez Ochoa y M. F. Eraso Salazar, “Diseño y construcción de un robot terrestre que sirva de plataforma para desarrollo de investigaciones en el área de robótica móvil en ambientes abiertos y cerrados,” Proyecto de Grado, Dto. Automática y electrónica, Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2014. [82] A. M. Pinto Vargas, M. Á. Saavedra Ruiz, “Desarrollo de un sistema de aterrizaje autónomo para un vehículo aéreo no tripulado sobre un vehículo terrestre,” Proyecto de Grado, Dto. Automática y electrónica, Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2019. [83] D. Díaz Tenorio, “Diseño e implementación de un sistema para el mapeo y navegación de un robot móvil,” Proyecto de Grado, Dto. Automática y electrónica, Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2017. [84] M. Horga, (2016, Abr. 30). "Udacity: Lane Finding project for self-driving car nd". [Internet]. Disponible en https://github.com/udacity/CarND-LaneLines-P1. [85] G. Ballew, (2017, Ene., 24). “OpenCV For Lane Detection in Self Driving Cars”. [Internet]. Disponible en: https://medium.com/@galen.ballew/opencv- lanedetection-419361364fc0. [86] Scikit Llearn Developers, (2007). “Choosing the right estimator”. [Internet]. Disponible en: https://scikit-learn.org/stable/tutorial/machine_learning_map/ 99[87] F. Pedregosa et al., “Scikit-learn: Machine Learning in Python,” J. Mach. Learn. Res., vol. 12, pp. 2825–2830, 2011. [88] Scikit-learn developers, (2007). “Radial basis function kernel,” [Internet]. Disponible en: https://scikit- learn.org/stable/modules/generated/sklearn.gaussian_process.kernels.RBF. html. [89] M. Pal, “Multiclass Approaches for Support Vector Machine Based Land Cover Classification,” arXiv e-prints, Feb, 2008. Consultado en: 4, 20, 2018.[En línea]. Disponible en: https://arxiv.org/abs/0802.2411 [90] Scikit-learn developers, (2007). “Neural network models (supervised)”. [Internet]. Disponible en: https://scikit- learn.org/stable/modules/neural_networks_supervised.html [91] F. Chao, X. Jing-bo, and D. Shuai, “Lane Detection Based on Machine Learning Algorithm,” TELKOMNIKA Indones. J. Electr. Eng., vol. 12, no. 2, pp. 1403–1409, 2014. [92] N. Otsu, “A Threshold Selection Method from Gray-Level Histograms,” IEEE Trans. Syst. Man. Cybern., vol. 9, no. 1, pp. 62–66, Jan. 1979. [93] F. Robert, S. Perkins, A. Walker, and E. Wolfart, “Adaptive Thresholding,” The Hypermedia Image Processing Reference, 2003. Consultado en: 6, 2, 2018. [En línea]. Disponible en: https://homepages.inf.ed.ac.uk/rbf/HIPR2/adpthrsh.htm. [94] R. E. Kalman, “A New Approach to Linear Filtering and Prediction Problems,” Trans. ASME--Journal Basic Eng., vol. 82, no. Series D, pp. 35–45, 1960. [95] Open Source Robotics Foundation, “SolidWorkds to URDF Exporter.” [Internet]. Disponible en: http://wiki.ros.org/sw_urdf_exporter. [96] Open Source Robotics Foundation, “Model Editor - Gazebo.” [Internet]. Disponible en: http://gazebosim.org/tutorials?cat=guided_b&tut=guided_b3. 100[97] Open Source Robotics Foundation, “Python SDF to URDF.” [Internet]. Disponible en: http://wiki.ros.org/pysdf. [98] Open Source Robotics Foundation, “ROS Control - Wiki.” [Internet]. Disponible en: http://wiki.ros.org/ros_control. [99] K. Ogata, Modern control engineering, 5th Editio., vol. 17, no. 3. 1972.Ingeniería MecatrónicaVehículos autónomosVisión por computadorSimulación por computadoresSeguimiento de carrilAutonomous vehiclesComputer visionComputer simulationDesarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomosTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/acceptedVersionIngeniería MecatrónicaDepartamento de Automática y ElectrónicaFacultad de IngenieríaPublicationhttps://scholar.google.com/citations?user=MW2zbLAAAAAJ&hl=envirtual::4115-10000-0002-7275-9839virtual::4115-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000637769virtual::4115-1286553f4-3942-4404-9123-b85ee6e69330virtual::4115-1286553f4-3942-4404-9123-b85ee6e69330virtual::4115-1TEXTT08772.pdf.txtT08772.pdf.txtExtracted texttext/plain146892https://red.uao.edu.co/bitstreams/79a991d0-85af-4c75-8664-68ec2b2ab861/downloadeb873aa8312751a60c56729892f9dd6aMD57TA8772.pdf.txtTA8772.pdf.txtExtracted texttext/plain2https://red.uao.edu.co/bitstreams/e63e0de6-d8a4-4539-8099-0f2563106d4c/downloade1c06d85ae7b8b032bef47e42e4c08f9MD59THUMBNAILT08772.pdf.jpgT08772.pdf.jpgGenerated Thumbnailimage/jpeg7932https://red.uao.edu.co/bitstreams/80bcc2b2-db28-437d-a7c1-8ede0e19f5c1/download67438728d704a143c7a9d8d2a9eb063eMD58TA8772.pdf.jpgTA8772.pdf.jpgGenerated Thumbnailimage/jpeg14583https://red.uao.edu.co/bitstreams/5f15c1ac-d48d-4cb8-8ec7-bcf865dad112/download783b9df7ae2d3b196065ccefe401ba4bMD510CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-81031https://red.uao.edu.co/bitstreams/f1a1559e-4ffd-4649-bce8-1ffe7daa880f/download934f4ca17e109e0a05eaeaba504d7ce4MD53LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://red.uao.edu.co/bitstreams/e39e2bfe-0ba0-4c7e-82a4-7fb2d4387a10/download20b5ba22b1117f71589c7318baa2c560MD54ORIGINALT08772.pdfT08772.pdfapplication/pdf2242564https://red.uao.edu.co/bitstreams/ae45c204-1c4e-4329-9433-781b08dfecb0/downloadee5ef8e3bc72de952613d768584682a6MD55TA8772.pdfTA8772.pdfapplication/pdf6020753https://red.uao.edu.co/bitstreams/90cbc646-ad45-42d9-ae85-b0991fa0e3cd/download0ad5a88f5cc45216505049ae267768d9MD5610614/11599oai:red.uao.edu.co:10614/115992024-03-13 11:39:35.792https://creativecommons.org/licenses/by-nc-sa/4.0/Derechos Reservados - Universidad Autónoma de Occidenteopen.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K