Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos
En el documento presentado a continuación, se consigna el desarrollo de un sistema de percepción que permita a un vehículo autónomo terrestre tipo Ackermann desplazarse en ambientes urbanos, mediante consignas de control generadas a partir de una trayectoria a corto plazo. El trabajo se realizó en c...
- Autores:
-
Correa Sandoval, José Miguel
Díaz Zapata, Manuel Alejandro
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2019
- Institución:
- Universidad Autónoma de Occidente
- Repositorio:
- RED: Repositorio Educativo Digital UAO
- Idioma:
- spa
- OAI Identifier:
- oai:red.uao.edu.co:10614/11599
- Acceso en línea:
- http://red.uao.edu.co//handle/10614/11599
- Palabra clave:
- Ingeniería Mecatrónica
Vehículos autónomos
Visión por computador
Simulación por computadores
Seguimiento de carril
Autonomous vehicles
Computer vision
Computer simulation
- Rights
- openAccess
- License
- Derechos Reservados - Universidad Autónoma de Occidente
id |
REPOUAO2_ca41ba25ee54e2d420c2c04264a6e9d9 |
---|---|
oai_identifier_str |
oai:red.uao.edu.co:10614/11599 |
network_acronym_str |
REPOUAO2 |
network_name_str |
RED: Repositorio Educativo Digital UAO |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos |
title |
Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos |
spellingShingle |
Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos Ingeniería Mecatrónica Vehículos autónomos Visión por computador Simulación por computadores Seguimiento de carril Autonomous vehicles Computer vision Computer simulation |
title_short |
Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos |
title_full |
Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos |
title_fullStr |
Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos |
title_full_unstemmed |
Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos |
title_sort |
Desarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomos |
dc.creator.fl_str_mv |
Correa Sandoval, José Miguel Díaz Zapata, Manuel Alejandro |
dc.contributor.advisor.none.fl_str_mv |
Perafán Villota, Juan Carlos |
dc.contributor.advisor.spa.fl_str_mv |
Romero Cano, Víctor Adolfo |
dc.contributor.author.spa.fl_str_mv |
Correa Sandoval, José Miguel Díaz Zapata, Manuel Alejandro |
dc.subject.spa.fl_str_mv |
Ingeniería Mecatrónica Vehículos autónomos Visión por computador Simulación por computadores Seguimiento de carril |
topic |
Ingeniería Mecatrónica Vehículos autónomos Visión por computador Simulación por computadores Seguimiento de carril Autonomous vehicles Computer vision Computer simulation |
dc.subject.eng.fl_str_mv |
Autonomous vehicles Computer vision Computer simulation |
description |
En el documento presentado a continuación, se consigna el desarrollo de un sistema de percepción que permita a un vehículo autónomo terrestre tipo Ackermann desplazarse en ambientes urbanos, mediante consignas de control generadas a partir de una trayectoria a corto plazo. El trabajo se realizó en cinco etapas: revisión del estado del arte para los sistemas de seguimiento de carril y planeación de trayectorias, selección y comparación de las técnicas existentes, adaptación y evaluación de las técnicas seleccionadas, desarrollo del sistema y, por último, implementación en un entorno simulado y sobre la plataforma física seleccionada el robot Autónomo Uno. El sistema de precepción desarrollado, para la detección y seguimiento de carril fue realizado utilizando técnicas de visión computacional. El sistema utiliza la técnica de características Haar-Like con el fin de filtrar la imagen y realzar características del carril. Adicionalmente, se utiliza un área de interés (ROI) y se genera una vista superior o vista de pájaro (BEV) sobre la cual se hacen las detecciones del carril del vehículo por medio de ventanas deslizantes. Finalmente, utilizando el filtro de Kalman se añade robustez para la estimación del carril frente a obstáculos. En la generación de la trayectoria a corto plazo se hace uso de las estimaciones del modelo carril para generar un vector de dirección que corresponde con centro del carril. La trayectoria y el ángulo de giro que el vehículo debe de describir al desplazarse corresponde a este vector. En cuanto al control de la posición y velocidad del vehículo terrestre, se utiliza la cinemática inversa de un robot móvil tipo Ackermann y el controlador proporcional-integrativo, para la prueba de campo y en un entorno simulado, respectivamente. En los resultados obtenidos durante la prueba de campo se evidenció que el sistema responde acorde a lo esperado la detección y seguimiento del carril bajo diferentes condiciones. Adicionalmente, los sistemas de control de posición y velocidad brindan un resultado aceptable, aunque con presencia de ruido leve en la señal de control. Por otra parte, en la plataforma física se observó un resultado admisible que concluye con un exitoso funcionamiento para el sistema |
publishDate |
2019 |
dc.date.accessioned.spa.fl_str_mv |
2019-11-28T15:11:52Z |
dc.date.available.spa.fl_str_mv |
2019-11-28T15:11:52Z |
dc.date.issued.spa.fl_str_mv |
2019-08-12 |
dc.type.spa.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.coar.spa.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.spa.fl_str_mv |
Text |
dc.type.driver.spa.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.redcol.spa.fl_str_mv |
https://purl.org/redcol/resource_type/TP |
dc.type.version.spa.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.uri.spa.fl_str_mv |
http://red.uao.edu.co//handle/10614/11599 |
url |
http://red.uao.edu.co//handle/10614/11599 |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.rights.spa.fl_str_mv |
Derechos Reservados - Universidad Autónoma de Occidente |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.uri.spa.fl_str_mv |
https://creativecommons.org/licenses/by-nc-sa/4.0/ |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.creativecommons.spa.fl_str_mv |
Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0) |
rights_invalid_str_mv |
Derechos Reservados - Universidad Autónoma de Occidente https://creativecommons.org/licenses/by-nc-sa/4.0/ Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0) http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.spa.fl_str_mv |
application/pdf |
dc.format.extent.spa.fl_str_mv |
101 páginas |
dc.coverage.spatial.spa.fl_str_mv |
Universidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí |
dc.publisher.program.spa.fl_str_mv |
Ingeniería Mecatrónica |
dc.publisher.department.spa.fl_str_mv |
Departamento de Automática y Electrónica |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ingeniería |
dc.source.spa.fl_str_mv |
instname:Universidad Autónoma de Occidente reponame:Repositorio Institucional UAO |
instname_str |
Universidad Autónoma de Occidente |
institution |
Universidad Autónoma de Occidente |
reponame_str |
Repositorio Institucional UAO |
collection |
Repositorio Institucional UAO |
dc.source.bibliographiccitation.spa.fl_str_mv |
[1] S. P. Narote, P. N. Bhujbal, A. S. Narote, and D. M. Dhane, “A review of recent advances in lane detection and departure warning system,” Pattern Recognit., vol. 73, pp. 216–234, 2018. [2] El Tiempo, “Producción de petróleo bajó en 2017 en Colombia,” Periodico El Tiempo, [En línea]. Disponible en: https://www.eltiempo.com/economia/sectores/produccion-de-petroleo-bajo- en-2017-en-colombia-171848. [3] P. Tientrakool, Y. C. Ho, and N. F. Maxemchuk, “Highway capacity benefits from using vehicle-to-vehicle communication and sensors for collision avoidance,” IEEE Veh. Technol. Conf., pp. 1–5, 2011. [4] D. Muoio, “19 companies racing to put self-driving cars on the road by 2021,” Business Insider, [En línea]. Disponible en: https://www.businessinsider.com/companies-making-driverless-cars-by- 2020-2016-10/#tesla-is-aiming-to-have-its-driverless-technology-ready-by- 2018-1. [5] E. Ackerman, (2012,Sep. 4) “Study: Intelligent Cars Could Boost Highway Capacity by 273%”. [Internet]. Disponible en: https://spectrum.ieee.org/automaton/robotics/artificial-intelligence/intelligent- cars-could-boost-highway-capacity-by-273. [6] S. Álvarez, (2016, abr. 29) “La máquina que cambió el mundo: la revolución industrial del Ford Model T”. [Internet]. Disponible en: https://www.diariomotor.com/espacio-ford/2016/04/29/ford-model-t- produccion-masa/. [7] The Milwaukee Sentinel, “‘Phantom Auto’ will tour city.,” The Milwaukee Sentinel, Milwaukee, p. 14, 08-Dec-1926. [8] Magazine Pontiac Safari, “Visiting the New York World’s Fair and the General Motors Futurama," Magazine Pontiac Safari, [En línea]. Disponible en: http://www.nywf64.com/gm19.shtml. 91[9] R. Dashner, “General Motors’ ‘FUTURAMA II,’” Ray Dashner Archives. 2007. [aúdio en línea]. Disponible en http://www.nywf64.com/gm21.shtml [10] T. Vanderbilt, “Autonomous Cars Through the Ages,” WIRED, [En línea]. Disponible en: https://www.wired.com/2012/02/autonomous-vehicle-history/ [11] Accenture Insurance, (2017, Ene. 10). “WHERE IN THE WORLD ARE SELF DRIVING CARS ? WORLD ARE,” [Internet]. Disponible en: https://insuranceblog.accenture.com/where-in-the-world-are-self-driving-cars. [12] Dinero, “Colombia aún no está preparada para la conducción autónoma, según Toyota,” Dinero, [En línea]. Disponible en: https://www.dinero.com/empresas/articulo/toyota-celebra-50-anos-en- colombia-habla-sobre-conduccion-autonoma/252858. [13] J. Caparroso, “¿Cuándo llegarán los carros autónomos a Colombia?,” El Tiempo. [En línea]. Disponible en: https://www.eltiempo.com/tecnosfera/novedades-tecnologia/futuro-de-los- carros-autonomos-en-colombia-93398. [14] K. Waddell, “Prepping Self-Driving Cars for the World’s Most Chaotic Cities,” WIRED, [En linea]. Disponible en: https://www.wired.com/story/self-driving- cars-chaotic-cities-traffic/. [15] D. J. Fagnant and K. M. Kockelman, “Preparing a nation for autonomous vehicles,” Transp. Res. Part A J., vol. 77, no. October, pp. 1–32, 2013. [16] G. Reinoso, “Cada día mueren 18 personas en accidentes vehiculares en el país,” El Tiempo. [En línea]. Disponible en: https://www.eltiempo.com/colombia/otras-ciudades/cifras-de-accidentes-de- transito-en-2016-39192. [17] El Tiempo, “Parque automotor de colombia es de 12.5 millones de vehículos,” Revista El Tiempo. [En línea]. Disponible en: http://www.motor.com.co/actualidad/industria/parque-automotor-colombia- 12-millones-vehiculos/27016. [18] McKinsey&Company, “Automotive revolution – perspective towards 2030,” 92Stanford Univ. PEEC Sustain. Transp. Semin., no. January 1st, p. 20, 2016. [19] J. Son, H. Yoo, S. Kim, and K. Sohn, “Real-time illumination invariant lane detection for lane departure warning system,” Expert Syst. Appl., vol. 42, no. 4, pp. 1816–1824, 2015. [20] N. Madrid and P. Hurtik, “Lane departure warning for mobile devices based on a fuzzy representation of images,” Fuzzy Sets Syst., vol. 291, pp. 144–159, 2016. [21] A. Mammeri, A. Boukerche, and Z. Tang, “A real-time lane marking localization, tracking and communication system,” Comput. Commun., vol. 73, pp. 132–143, 2016. [22] H. Zhu, K. V. Yuen, L. Mihaylova, and H. Leung, “Overview of Environment Perception for Intelligent Vehicles,” IEEE Trans. Intell. Transp. Syst., vol. 18, no. 10, pp. 2584–2601, 2017. [23] K. Jihum, L. Minho, "Robust Lane Detection Based On Convolutional Neural Network and Random Sample Consensus", International Conference on Neural Information Processing, Neural Information Processing, vol. 8834, pp. 454-461, 2014. doi: https://doi.org/10.1007/978-3-319-12637-1_57 [24] X. Pan, J. Shi, P. Luo, X. Wang, X. Tang, "Spatial As Deep: Spatial CNN for Traffic Scene Understanding", arXiv e-prints, Dic, 2017. [En línea]. Disponible en https://arxiv.org/abs/1712.06080 [25] F. Visin, K. Kastner, K. Cho, M. Matteucci, A. Courville, Y. Bengio, "ReNet: A Recurrent Neural Network Based Alternative to Convolutional Networks", arXiv e-prints, May, 2015. [En línea]. Disponible en https://arxiv.org/abs/1505.00393 [26] P. Krähenbühl, V. Koltun, " Efficient Inference in Fully Connected CRFs with Gaussian Edge Potentials", arXiv e-prints, Oct, 2012. [En línea]. Disponible en https://arxiv.org/abs/1210.5644 [27] C. Katrakazas, M. Quddus, W. H. Chen, and L. Deka, “Real-time motion planning methods for autonomous on-road driving: State-of-the-art and future 93research directions,” Transp. Res. Part C Emerg. Technol., vol. 60, pp. 416– 442, 2015. [28] P. Varuya, “Smart carts on smart roads: Problems of control,” IEEE Trans. Automat. Contr., vol. 43, no. 2, pp. 195–207, 1998. [29] S. M. LaValle, “Rapidly-Exploring Random Trees: A New Tool for Path Planning,” 1998. Consultado en: 5, 13, 2018. [En línea]. Disponible en: http://msl.cs.illinois.edu/~lavalle/papers/Lav98c.pdf [30] J. Ziegler and C. Stiller, “Spatiotemporal state lattices for fast trajectory planning in dynamic on-road driving scenarios,” 2009 IEEE/RSJ Int. Conf. Intell. Robot. Syst. IROS 2009, pp. 1879–1884, 2009. [31] C. Alia, T. Reine, and C. Ali, “Maneuver Planning for Autonomous Vehicles , with Clothoid Tentacles for Local Trajectory Planning,” IEEE 20th International Conference on Intelligent Transportation Systems (ITSC), pp. 1-6, Mar, 2017. November, 2017. Consultado en: 5, 13, 2018. doi: 10.1109/ITSC.2017.8317856. [32] J. Hardy and M. Campbell, “Contingency planning over probabilistic obstacle predictions for autonomous road vehicles,” IEEE Trans. Robot., vol. 29, no. 4, pp. 913–929, 2013. [33] R. Kala and K. Warwick, “Motion planning of autonomous vehicles in a non- autonomous vehicle environment without speed lanes,” Eng. Appl. Artif. Intell., vol. 26, no. 5–6, pp. 1588–1601, 2013. [34] J. Ziegler et al., “Making bertha drive-an autonomous journey on a historic route,” IEEE Intell. Transp. Syst. Mag., vol. 6, no. 2, pp. 8–20, 2014. [35] S. Brechtel, T. Gindele, and R. Dillmann, “Probabilistic decision-making under uncertainty for autonomous driving using continuous POMDPs,” 2014 17th IEEE Int. Conf. Intell. Transp. Syst. ITSC 2014, pp. 392–399, 2014. [36] V. Delsart, T. Fraichard, and L. Martinez, “Real-time trajectory generation for car-like vehicles navigating dynamic environments,” Proc. - IEEE Int. Conf. Robot. Autom., pp. 3401–3406, 2009. 94[37] Y. Cong, O. Sawodny, H. Chen, J. Zimmermann, and A. Lutz, “Motion planning for an autonomous vehicle driving on motorways by using flatness properties,” Proc. IEEE Int. Conf. Control Appl., pp. 908–913, 2010. [38] R. M. Murray, M. Rathinam and W. Sluis, “Differential Flatness of Mechanical Control Systems : A Catalog of Prototype Systems,” Proceedings of the 1995 ASME International Congress and Exposition, Nov., 1995. Consultado en: 5, 10, 2018. [En línea]. Disponible en: http://www.cds.caltech.edu/~murray/preprints/mrs95-imece.pdf [39] L. Ma, J. Yang, and M. Zhang, “A two-level path planning method for on-road autonomous driving,” Proc. - 2012 Int. Conf. Intell. Syst. Des. Eng. Appl. ISDEA 2012, no. 90920301, pp. 661–664, 2012. [40] I. Bae, J. Moon, H. Park, J. H. Kim, and S. Kim, “Path generation and tracking based on a Bézier curve for a steering rate controller of autonomous vehicles,” IEEE Conf. Intell. Transp. Syst. Proceedings, ITSC, no. Itsc, pp. 436–441, 2013. [41] D. González, J. Pérez, R. Lattarulo, V. Milanés, and F. Nashashibi, “Continuous curvature planning with obstacle avoidance capabilities in urban scenarios,” 2014 17th IEEE Int. Conf. Intell. Transp. Syst. ITSC 2014, pp. 1430–1435, 2014. [42] M. Wang, T. Ganjineh, and R. Rojas, “Action annotated trajectory generation for autonomous maneuvers on structured road networks,” ICARA 2011 - Proc. 5th Int. Conf. Autom. Robot. Appl., pp. 67–72, 2011. [43] T. Gu and J. M. Dolan, “On-road motion planning for autonomous vehicles,” Proc. 5th Int. Conf. Intell. Robot. Appl. (ICIRA 2012), vol. 8103, no. October, 2013. [44] D. Madas et al., “On path planning methods for automotive collision avoidance,” IEEE Intell. Veh. Symp. Proc., no. Iv, pp. 931–937, 2013. [45] M. Issitt, (2018). “Autonomous Car Salem Press Encyclopedia of Science", [Internet]. Disponible en http://ezproxy.uao.edu.co:2048/login?url=http://search.ebscohost.com/login.a spx?direct=true&db=ers&AN=100039110&lang=es&site=eds-live 95[46] J. Dokic, B. Mueller, and G. Meyer, “European Roadmap Smart Systems for Automated Driving,” Eur. Technol. Platf. Smart Syst. Integr., no. April 2015, pp. 1–39, 2015. [47] R. Siegwart y I. Nourbakhsh, Introduction to Autonomous Mobile Robots., vol. 23. Boston: MIT Press, 2004. [48] M. S. Ameigh, (2018). “Radar Salem Press Encyclopedia of Science". [Internet]. Disponible en http://ezproxy.uao.edu.co:2094/eds/detail/detail?vid=5&sid=8fa01bb9-9c3f- 4069-bcdd-fceec20e0659%40pdc-v- sessmgr04&bdata=Jmxhbmc9ZXMmc2l0ZT1lZHMtbGl2ZQ%3d%3d#AN=89 317181&db=ers [49] V. Thomas, (2016). “Lidar (remote sensing technology) Salem Press Encyclopedia". [Internet]. Disponible en http://ezproxy.uao.edu.co:2094/eds/detail/detail?vid=8&sid=8fa01bb9-9c3f- 4069-bcdd-fceec20e0659%40pdc-v- sessmgr04&bdata=Jmxhbmc9ZXMmc2l0ZT1lZHMtbGl2ZQ%3d%3d#AN=87 323881&db=ers [50] U.S. Air Force, (2017, jun. 6). “The Global Positioning System”. [Internet]. Disponible en: https://www.gps.gov/systems/gps/. [51] G. R. Plitnik, (2018). “Accelerometers Salem Press Encyclopedia of Science". [Internet]. Disponible en http://ezproxy.uao.edu.co:2094/eds/detail/detail?vid=10&sid=8fa01bb9-9c3f- 4069-bcdd-fceec20e0659%40pdc-v- sessmgr04&bdata=Jmxhbmc9ZXMmc2l0ZT1lZHMtbGl2ZQ%3d%3d#AN=89 316860&db=ers [52] K. Dawson-Howe, A Practical Introduction to Computer Vision with OpenCV, ed. 1ra, John Wiley & Sons, 2014. [53] J. Canny, “A Computational Approach To Edge Detection,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 8, no. 6, pp. 679–714, 1986. [54] F. Robert, S. Perkins, A. Walker, y E. Wolfart, “Image Transforms - Hough Transform,” The Hypermedia Image Processing Reference, 2003. Consultado 96en: 6, 2, 2018. [En línea]. https://homepages.inf.ed.ac.uk/rbf/HIPR2/hough.htm. Disponible en: [55] P. Viola and M. Jones, “Rapid object detection using a boosted cascade of simple features,” Proc. 2001 IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognition. CVPR 2001, vol. 1, pp. I-511-I–518, 2001. [56] N. Correll, Introduction to Autonomous Robots, ed. 2da, Magellan Scientific, 2014. [En línea] Disponible en: https://github.com/correll/Introduction-to- Autonomous-Robots. [57] Ubuntu, “Licensing.” https://www.ubuntu.com/licensing. [Internet]. Disponible [58] Ubuntu, “Our mission”. [Internet]. https://www.ubuntu.com/community/mission. [59] Ubuntu, “Debian.” [Internet]. https://www.ubuntu.com/community/debian. [60] Ubuntu, “Ubuntu PC operating https://www.ubuntu.com/desktop. system.” Disponible Disponible [Internet]. Disponible en: en: en: en: [61] Ubuntu, “Ubuntu Server - for scale out workloads.” [Internet]. Disponible en: https://www.ubuntu.com/server. [62] Ubuntu, “Ubuntu for the Internet of Things.” [Internet]. Disponible en: https://www.ubuntu.com/internet-of-things. [63] Ubuntu, “Ubuntu release cycle.” [Internet]. https://www.ubuntu.com/about/release-cycle. Disponible en: [64] Robotic Operative System, “About ROS.” [Internet]. Disponible en: http://www.ros.org/about-ros/. [65] Open Source Robotics Foundation, “Nodes - ROS Wiki.” [Internet]. Disponible 97en: https://wiki.ros.org/Nodes. [66] Open Source Robotics Foundation, “Topics - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Topics. [67] Open Source Robotics Foundation, “Services - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Services. [68] Open Source Robotics Foundation, “Messages - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Messages. [69] Open Source Robotics Foundation, “Parameter Server - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Parameter Server. [70] Open Source Robotics Foundation, “Bags - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Bags. [71] Open Source Robotics Foundation, “ROS Kinetic Kame.” [Internet]. Disponible en: https://wiki.ros.org/kinetic. [72] Open Source Robotics Foundation, “XML Robot Description Format (URDF).” [Internet]. Disponible en: http://wiki.ros.org/urdf/XML/model. [73] L. Joseph, “Mastering ROS for Robotics Programming,” in Bangladesh Journal of Plant Taxonomy, vol. 22, no. 2, 2015, pp. 137–141. [74] Open Source Robotics Foundation, “Link element - ROS Wiki.” [Internet]. Disponible en: http://wiki.ros.org/urdf/XML/link. [75] Open Source Robotics Foundation, “Joint element - ROS Wiki.” [Internet]. Disponible en: http://wiki.ros.org/urdf/XML/joint. [76] Open Source Robotics Foundation, “Gazebo.” [Internet]. Disponible en: http://gazebosim.org/. [77] Open Source Robotics Foundation, “SDF Format.” [Internet]. Disponible en: 98http://sdformat.org/. [78] Open Source Robotics Foundation, “Using a URDF in Gazebo.” [Internet]. Disponible en: http://gazebosim.org/tutorials/?tut=ros_urdf. [79] OpenCV Team, “About the OpenCV library.” [Internet]. Disponible en: https://opencv.org/about.html. [80] A. Rincón Núñez, “Descripción de escenas por medio de aprendizaje profundo,” Proyecto de Grado, Dto. Automática y electrónica, Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2018. [81] L. S. Pérez Ochoa y M. F. Eraso Salazar, “Diseño y construcción de un robot terrestre que sirva de plataforma para desarrollo de investigaciones en el área de robótica móvil en ambientes abiertos y cerrados,” Proyecto de Grado, Dto. Automática y electrónica, Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2014. [82] A. M. Pinto Vargas, M. Á. Saavedra Ruiz, “Desarrollo de un sistema de aterrizaje autónomo para un vehículo aéreo no tripulado sobre un vehículo terrestre,” Proyecto de Grado, Dto. Automática y electrónica, Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2019. [83] D. Díaz Tenorio, “Diseño e implementación de un sistema para el mapeo y navegación de un robot móvil,” Proyecto de Grado, Dto. Automática y electrónica, Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2017. [84] M. Horga, (2016, Abr. 30). "Udacity: Lane Finding project for self-driving car nd". [Internet]. Disponible en https://github.com/udacity/CarND-LaneLines-P1. [85] G. Ballew, (2017, Ene., 24). “OpenCV For Lane Detection in Self Driving Cars”. [Internet]. Disponible en: https://medium.com/@galen.ballew/opencv- lanedetection-419361364fc0. [86] Scikit Llearn Developers, (2007). “Choosing the right estimator”. [Internet]. Disponible en: https://scikit-learn.org/stable/tutorial/machine_learning_map/ 99[87] F. Pedregosa et al., “Scikit-learn: Machine Learning in Python,” J. Mach. Learn. Res., vol. 12, pp. 2825–2830, 2011. [88] Scikit-learn developers, (2007). “Radial basis function kernel,” [Internet]. Disponible en: https://scikit- learn.org/stable/modules/generated/sklearn.gaussian_process.kernels.RBF. html. [89] M. Pal, “Multiclass Approaches for Support Vector Machine Based Land Cover Classification,” arXiv e-prints, Feb, 2008. Consultado en: 4, 20, 2018.[En línea]. Disponible en: https://arxiv.org/abs/0802.2411 [90] Scikit-learn developers, (2007). “Neural network models (supervised)”. [Internet]. Disponible en: https://scikit- learn.org/stable/modules/neural_networks_supervised.html [91] F. Chao, X. Jing-bo, and D. Shuai, “Lane Detection Based on Machine Learning Algorithm,” TELKOMNIKA Indones. J. Electr. Eng., vol. 12, no. 2, pp. 1403–1409, 2014. [92] N. Otsu, “A Threshold Selection Method from Gray-Level Histograms,” IEEE Trans. Syst. Man. Cybern., vol. 9, no. 1, pp. 62–66, Jan. 1979. [93] F. Robert, S. Perkins, A. Walker, and E. Wolfart, “Adaptive Thresholding,” The Hypermedia Image Processing Reference, 2003. Consultado en: 6, 2, 2018. [En línea]. Disponible en: https://homepages.inf.ed.ac.uk/rbf/HIPR2/adpthrsh.htm. [94] R. E. Kalman, “A New Approach to Linear Filtering and Prediction Problems,” Trans. ASME--Journal Basic Eng., vol. 82, no. Series D, pp. 35–45, 1960. [95] Open Source Robotics Foundation, “SolidWorkds to URDF Exporter.” [Internet]. Disponible en: http://wiki.ros.org/sw_urdf_exporter. [96] Open Source Robotics Foundation, “Model Editor - Gazebo.” [Internet]. Disponible en: http://gazebosim.org/tutorials?cat=guided_b&tut=guided_b3. 100[97] Open Source Robotics Foundation, “Python SDF to URDF.” [Internet]. Disponible en: http://wiki.ros.org/pysdf. [98] Open Source Robotics Foundation, “ROS Control - Wiki.” [Internet]. Disponible en: http://wiki.ros.org/ros_control. [99] K. Ogata, Modern control engineering, 5th Editio., vol. 17, no. 3. 1972. |
bitstream.url.fl_str_mv |
https://red.uao.edu.co/bitstreams/79a991d0-85af-4c75-8664-68ec2b2ab861/download https://red.uao.edu.co/bitstreams/e63e0de6-d8a4-4539-8099-0f2563106d4c/download https://red.uao.edu.co/bitstreams/80bcc2b2-db28-437d-a7c1-8ede0e19f5c1/download https://red.uao.edu.co/bitstreams/5f15c1ac-d48d-4cb8-8ec7-bcf865dad112/download https://red.uao.edu.co/bitstreams/f1a1559e-4ffd-4649-bce8-1ffe7daa880f/download https://red.uao.edu.co/bitstreams/e39e2bfe-0ba0-4c7e-82a4-7fb2d4387a10/download https://red.uao.edu.co/bitstreams/ae45c204-1c4e-4329-9433-781b08dfecb0/download https://red.uao.edu.co/bitstreams/90cbc646-ad45-42d9-ae85-b0991fa0e3cd/download |
bitstream.checksum.fl_str_mv |
eb873aa8312751a60c56729892f9dd6a e1c06d85ae7b8b032bef47e42e4c08f9 67438728d704a143c7a9d8d2a9eb063e 783b9df7ae2d3b196065ccefe401ba4b 934f4ca17e109e0a05eaeaba504d7ce4 20b5ba22b1117f71589c7318baa2c560 ee5ef8e3bc72de952613d768584682a6 0ad5a88f5cc45216505049ae267768d9 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Digital Universidad Autonoma de Occidente |
repository.mail.fl_str_mv |
repositorio@uao.edu.co |
_version_ |
1814260211823673344 |
spelling |
Perafán Villota, Juan Carlosvirtual::4115-1Romero Cano, Víctor Adolfo9954a524fa7777dea88ef2222f28cb52-1Correa Sandoval, José Miguel17d6a6e9360eafb188e6c86aff763ae7-1Díaz Zapata, Manuel Alejandro09fc3455f4d8cf968c6a790c0b551580-1Ingeniero MecatrónicoUniversidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí2019-11-28T15:11:52Z2019-11-28T15:11:52Z2019-08-12http://red.uao.edu.co//handle/10614/11599En el documento presentado a continuación, se consigna el desarrollo de un sistema de percepción que permita a un vehículo autónomo terrestre tipo Ackermann desplazarse en ambientes urbanos, mediante consignas de control generadas a partir de una trayectoria a corto plazo. El trabajo se realizó en cinco etapas: revisión del estado del arte para los sistemas de seguimiento de carril y planeación de trayectorias, selección y comparación de las técnicas existentes, adaptación y evaluación de las técnicas seleccionadas, desarrollo del sistema y, por último, implementación en un entorno simulado y sobre la plataforma física seleccionada el robot Autónomo Uno. El sistema de precepción desarrollado, para la detección y seguimiento de carril fue realizado utilizando técnicas de visión computacional. El sistema utiliza la técnica de características Haar-Like con el fin de filtrar la imagen y realzar características del carril. Adicionalmente, se utiliza un área de interés (ROI) y se genera una vista superior o vista de pájaro (BEV) sobre la cual se hacen las detecciones del carril del vehículo por medio de ventanas deslizantes. Finalmente, utilizando el filtro de Kalman se añade robustez para la estimación del carril frente a obstáculos. En la generación de la trayectoria a corto plazo se hace uso de las estimaciones del modelo carril para generar un vector de dirección que corresponde con centro del carril. La trayectoria y el ángulo de giro que el vehículo debe de describir al desplazarse corresponde a este vector. En cuanto al control de la posición y velocidad del vehículo terrestre, se utiliza la cinemática inversa de un robot móvil tipo Ackermann y el controlador proporcional-integrativo, para la prueba de campo y en un entorno simulado, respectivamente. En los resultados obtenidos durante la prueba de campo se evidenció que el sistema responde acorde a lo esperado la detección y seguimiento del carril bajo diferentes condiciones. Adicionalmente, los sistemas de control de posición y velocidad brindan un resultado aceptable, aunque con presencia de ruido leve en la señal de control. Por otra parte, en la plataforma física se observó un resultado admisible que concluye con un exitoso funcionamiento para el sistemaThis document present, the development of a perception system that enables an Ackermann-type autonomous vehicle move through urban environments using control commands based on short-term trajectory planning. This work was done on five stages: review of the state of the art for lane keeping and trajectory planning systems, selection and comparison of current techniques, adaptation and evaluation of selected techniques, system development and lastly, implementation on a simulated environment and the selected platform used: robot Autónomo Uno. The perception system created for the lane keeping was based on computer vision techniques. This system uses Haar-like features with the purpose of filtering the image and to enhance lane features. Additionally, a region of interest (ROI) is used to generate a bird’s eye view (BEV) of the lane, which is used to do the detection of the markings using sliding windows. Finally, some robustness against shadows is given to the system by using the Kalman Filter. For the short-term trajectory generation, the lane model estimations are used to generate a steering vector that points towards the lane center. The trajectory and steering angle that the vehicle must do is given by steering vector. Regarding the vehicle’s position and speed control, inverse kinematics of an Ackermann-type robot and a proportional-integral controller were used for the robot test and simulated test respectively. The results shown that the lane detection and lane keeping systems work as expected under different circumstances. Additionally, the position and speed control systems executed an acceptable result, although with a slight presence of noise on the control signal. Moreover, on the physical platform, good result was observed; which leads to conclude with a successful functioning systemProyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2019PregradoIngeniero(a) Mecatrónico(a)application/pdf101 páginasspaDerechos Reservados - Universidad Autónoma de Occidentehttps://creativecommons.org/licenses/by-nc-sa/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0)http://purl.org/coar/access_right/c_abf2instname:Universidad Autónoma de Occidentereponame:Repositorio Institucional UAO[1] S. P. Narote, P. N. Bhujbal, A. S. Narote, and D. M. Dhane, “A review of recent advances in lane detection and departure warning system,” Pattern Recognit., vol. 73, pp. 216–234, 2018. [2] El Tiempo, “Producción de petróleo bajó en 2017 en Colombia,” Periodico El Tiempo, [En línea]. Disponible en: https://www.eltiempo.com/economia/sectores/produccion-de-petroleo-bajo- en-2017-en-colombia-171848. [3] P. Tientrakool, Y. C. Ho, and N. F. Maxemchuk, “Highway capacity benefits from using vehicle-to-vehicle communication and sensors for collision avoidance,” IEEE Veh. Technol. Conf., pp. 1–5, 2011. [4] D. Muoio, “19 companies racing to put self-driving cars on the road by 2021,” Business Insider, [En línea]. Disponible en: https://www.businessinsider.com/companies-making-driverless-cars-by- 2020-2016-10/#tesla-is-aiming-to-have-its-driverless-technology-ready-by- 2018-1. [5] E. Ackerman, (2012,Sep. 4) “Study: Intelligent Cars Could Boost Highway Capacity by 273%”. [Internet]. Disponible en: https://spectrum.ieee.org/automaton/robotics/artificial-intelligence/intelligent- cars-could-boost-highway-capacity-by-273. [6] S. Álvarez, (2016, abr. 29) “La máquina que cambió el mundo: la revolución industrial del Ford Model T”. [Internet]. Disponible en: https://www.diariomotor.com/espacio-ford/2016/04/29/ford-model-t- produccion-masa/. [7] The Milwaukee Sentinel, “‘Phantom Auto’ will tour city.,” The Milwaukee Sentinel, Milwaukee, p. 14, 08-Dec-1926. [8] Magazine Pontiac Safari, “Visiting the New York World’s Fair and the General Motors Futurama," Magazine Pontiac Safari, [En línea]. Disponible en: http://www.nywf64.com/gm19.shtml. 91[9] R. Dashner, “General Motors’ ‘FUTURAMA II,’” Ray Dashner Archives. 2007. [aúdio en línea]. Disponible en http://www.nywf64.com/gm21.shtml [10] T. Vanderbilt, “Autonomous Cars Through the Ages,” WIRED, [En línea]. Disponible en: https://www.wired.com/2012/02/autonomous-vehicle-history/ [11] Accenture Insurance, (2017, Ene. 10). “WHERE IN THE WORLD ARE SELF DRIVING CARS ? WORLD ARE,” [Internet]. Disponible en: https://insuranceblog.accenture.com/where-in-the-world-are-self-driving-cars. [12] Dinero, “Colombia aún no está preparada para la conducción autónoma, según Toyota,” Dinero, [En línea]. Disponible en: https://www.dinero.com/empresas/articulo/toyota-celebra-50-anos-en- colombia-habla-sobre-conduccion-autonoma/252858. [13] J. Caparroso, “¿Cuándo llegarán los carros autónomos a Colombia?,” El Tiempo. [En línea]. Disponible en: https://www.eltiempo.com/tecnosfera/novedades-tecnologia/futuro-de-los- carros-autonomos-en-colombia-93398. [14] K. Waddell, “Prepping Self-Driving Cars for the World’s Most Chaotic Cities,” WIRED, [En linea]. Disponible en: https://www.wired.com/story/self-driving- cars-chaotic-cities-traffic/. [15] D. J. Fagnant and K. M. Kockelman, “Preparing a nation for autonomous vehicles,” Transp. Res. Part A J., vol. 77, no. October, pp. 1–32, 2013. [16] G. Reinoso, “Cada día mueren 18 personas en accidentes vehiculares en el país,” El Tiempo. [En línea]. Disponible en: https://www.eltiempo.com/colombia/otras-ciudades/cifras-de-accidentes-de- transito-en-2016-39192. [17] El Tiempo, “Parque automotor de colombia es de 12.5 millones de vehículos,” Revista El Tiempo. [En línea]. Disponible en: http://www.motor.com.co/actualidad/industria/parque-automotor-colombia- 12-millones-vehiculos/27016. [18] McKinsey&Company, “Automotive revolution – perspective towards 2030,” 92Stanford Univ. PEEC Sustain. Transp. Semin., no. January 1st, p. 20, 2016. [19] J. Son, H. Yoo, S. Kim, and K. Sohn, “Real-time illumination invariant lane detection for lane departure warning system,” Expert Syst. Appl., vol. 42, no. 4, pp. 1816–1824, 2015. [20] N. Madrid and P. Hurtik, “Lane departure warning for mobile devices based on a fuzzy representation of images,” Fuzzy Sets Syst., vol. 291, pp. 144–159, 2016. [21] A. Mammeri, A. Boukerche, and Z. Tang, “A real-time lane marking localization, tracking and communication system,” Comput. Commun., vol. 73, pp. 132–143, 2016. [22] H. Zhu, K. V. Yuen, L. Mihaylova, and H. Leung, “Overview of Environment Perception for Intelligent Vehicles,” IEEE Trans. Intell. Transp. Syst., vol. 18, no. 10, pp. 2584–2601, 2017. [23] K. Jihum, L. Minho, "Robust Lane Detection Based On Convolutional Neural Network and Random Sample Consensus", International Conference on Neural Information Processing, Neural Information Processing, vol. 8834, pp. 454-461, 2014. doi: https://doi.org/10.1007/978-3-319-12637-1_57 [24] X. Pan, J. Shi, P. Luo, X. Wang, X. Tang, "Spatial As Deep: Spatial CNN for Traffic Scene Understanding", arXiv e-prints, Dic, 2017. [En línea]. Disponible en https://arxiv.org/abs/1712.06080 [25] F. Visin, K. Kastner, K. Cho, M. Matteucci, A. Courville, Y. Bengio, "ReNet: A Recurrent Neural Network Based Alternative to Convolutional Networks", arXiv e-prints, May, 2015. [En línea]. Disponible en https://arxiv.org/abs/1505.00393 [26] P. Krähenbühl, V. Koltun, " Efficient Inference in Fully Connected CRFs with Gaussian Edge Potentials", arXiv e-prints, Oct, 2012. [En línea]. Disponible en https://arxiv.org/abs/1210.5644 [27] C. Katrakazas, M. Quddus, W. H. Chen, and L. Deka, “Real-time motion planning methods for autonomous on-road driving: State-of-the-art and future 93research directions,” Transp. Res. Part C Emerg. Technol., vol. 60, pp. 416– 442, 2015. [28] P. Varuya, “Smart carts on smart roads: Problems of control,” IEEE Trans. Automat. Contr., vol. 43, no. 2, pp. 195–207, 1998. [29] S. M. LaValle, “Rapidly-Exploring Random Trees: A New Tool for Path Planning,” 1998. Consultado en: 5, 13, 2018. [En línea]. Disponible en: http://msl.cs.illinois.edu/~lavalle/papers/Lav98c.pdf [30] J. Ziegler and C. Stiller, “Spatiotemporal state lattices for fast trajectory planning in dynamic on-road driving scenarios,” 2009 IEEE/RSJ Int. Conf. Intell. Robot. Syst. IROS 2009, pp. 1879–1884, 2009. [31] C. Alia, T. Reine, and C. Ali, “Maneuver Planning for Autonomous Vehicles , with Clothoid Tentacles for Local Trajectory Planning,” IEEE 20th International Conference on Intelligent Transportation Systems (ITSC), pp. 1-6, Mar, 2017. November, 2017. Consultado en: 5, 13, 2018. doi: 10.1109/ITSC.2017.8317856. [32] J. Hardy and M. Campbell, “Contingency planning over probabilistic obstacle predictions for autonomous road vehicles,” IEEE Trans. Robot., vol. 29, no. 4, pp. 913–929, 2013. [33] R. Kala and K. Warwick, “Motion planning of autonomous vehicles in a non- autonomous vehicle environment without speed lanes,” Eng. Appl. Artif. Intell., vol. 26, no. 5–6, pp. 1588–1601, 2013. [34] J. Ziegler et al., “Making bertha drive-an autonomous journey on a historic route,” IEEE Intell. Transp. Syst. Mag., vol. 6, no. 2, pp. 8–20, 2014. [35] S. Brechtel, T. Gindele, and R. Dillmann, “Probabilistic decision-making under uncertainty for autonomous driving using continuous POMDPs,” 2014 17th IEEE Int. Conf. Intell. Transp. Syst. ITSC 2014, pp. 392–399, 2014. [36] V. Delsart, T. Fraichard, and L. Martinez, “Real-time trajectory generation for car-like vehicles navigating dynamic environments,” Proc. - IEEE Int. Conf. Robot. Autom., pp. 3401–3406, 2009. 94[37] Y. Cong, O. Sawodny, H. Chen, J. Zimmermann, and A. Lutz, “Motion planning for an autonomous vehicle driving on motorways by using flatness properties,” Proc. IEEE Int. Conf. Control Appl., pp. 908–913, 2010. [38] R. M. Murray, M. Rathinam and W. Sluis, “Differential Flatness of Mechanical Control Systems : A Catalog of Prototype Systems,” Proceedings of the 1995 ASME International Congress and Exposition, Nov., 1995. Consultado en: 5, 10, 2018. [En línea]. Disponible en: http://www.cds.caltech.edu/~murray/preprints/mrs95-imece.pdf [39] L. Ma, J. Yang, and M. Zhang, “A two-level path planning method for on-road autonomous driving,” Proc. - 2012 Int. Conf. Intell. Syst. Des. Eng. Appl. ISDEA 2012, no. 90920301, pp. 661–664, 2012. [40] I. Bae, J. Moon, H. Park, J. H. Kim, and S. Kim, “Path generation and tracking based on a Bézier curve for a steering rate controller of autonomous vehicles,” IEEE Conf. Intell. Transp. Syst. Proceedings, ITSC, no. Itsc, pp. 436–441, 2013. [41] D. González, J. Pérez, R. Lattarulo, V. Milanés, and F. Nashashibi, “Continuous curvature planning with obstacle avoidance capabilities in urban scenarios,” 2014 17th IEEE Int. Conf. Intell. Transp. Syst. ITSC 2014, pp. 1430–1435, 2014. [42] M. Wang, T. Ganjineh, and R. Rojas, “Action annotated trajectory generation for autonomous maneuvers on structured road networks,” ICARA 2011 - Proc. 5th Int. Conf. Autom. Robot. Appl., pp. 67–72, 2011. [43] T. Gu and J. M. Dolan, “On-road motion planning for autonomous vehicles,” Proc. 5th Int. Conf. Intell. Robot. Appl. (ICIRA 2012), vol. 8103, no. October, 2013. [44] D. Madas et al., “On path planning methods for automotive collision avoidance,” IEEE Intell. Veh. Symp. Proc., no. Iv, pp. 931–937, 2013. [45] M. Issitt, (2018). “Autonomous Car Salem Press Encyclopedia of Science", [Internet]. Disponible en http://ezproxy.uao.edu.co:2048/login?url=http://search.ebscohost.com/login.a spx?direct=true&db=ers&AN=100039110&lang=es&site=eds-live 95[46] J. Dokic, B. Mueller, and G. Meyer, “European Roadmap Smart Systems for Automated Driving,” Eur. Technol. Platf. Smart Syst. Integr., no. April 2015, pp. 1–39, 2015. [47] R. Siegwart y I. Nourbakhsh, Introduction to Autonomous Mobile Robots., vol. 23. Boston: MIT Press, 2004. [48] M. S. Ameigh, (2018). “Radar Salem Press Encyclopedia of Science". [Internet]. Disponible en http://ezproxy.uao.edu.co:2094/eds/detail/detail?vid=5&sid=8fa01bb9-9c3f- 4069-bcdd-fceec20e0659%40pdc-v- sessmgr04&bdata=Jmxhbmc9ZXMmc2l0ZT1lZHMtbGl2ZQ%3d%3d#AN=89 317181&db=ers [49] V. Thomas, (2016). “Lidar (remote sensing technology) Salem Press Encyclopedia". [Internet]. Disponible en http://ezproxy.uao.edu.co:2094/eds/detail/detail?vid=8&sid=8fa01bb9-9c3f- 4069-bcdd-fceec20e0659%40pdc-v- sessmgr04&bdata=Jmxhbmc9ZXMmc2l0ZT1lZHMtbGl2ZQ%3d%3d#AN=87 323881&db=ers [50] U.S. Air Force, (2017, jun. 6). “The Global Positioning System”. [Internet]. Disponible en: https://www.gps.gov/systems/gps/. [51] G. R. Plitnik, (2018). “Accelerometers Salem Press Encyclopedia of Science". [Internet]. Disponible en http://ezproxy.uao.edu.co:2094/eds/detail/detail?vid=10&sid=8fa01bb9-9c3f- 4069-bcdd-fceec20e0659%40pdc-v- sessmgr04&bdata=Jmxhbmc9ZXMmc2l0ZT1lZHMtbGl2ZQ%3d%3d#AN=89 316860&db=ers [52] K. Dawson-Howe, A Practical Introduction to Computer Vision with OpenCV, ed. 1ra, John Wiley & Sons, 2014. [53] J. Canny, “A Computational Approach To Edge Detection,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 8, no. 6, pp. 679–714, 1986. [54] F. Robert, S. Perkins, A. Walker, y E. Wolfart, “Image Transforms - Hough Transform,” The Hypermedia Image Processing Reference, 2003. Consultado 96en: 6, 2, 2018. [En línea]. https://homepages.inf.ed.ac.uk/rbf/HIPR2/hough.htm. Disponible en: [55] P. Viola and M. Jones, “Rapid object detection using a boosted cascade of simple features,” Proc. 2001 IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognition. CVPR 2001, vol. 1, pp. I-511-I–518, 2001. [56] N. Correll, Introduction to Autonomous Robots, ed. 2da, Magellan Scientific, 2014. [En línea] Disponible en: https://github.com/correll/Introduction-to- Autonomous-Robots. [57] Ubuntu, “Licensing.” https://www.ubuntu.com/licensing. [Internet]. Disponible [58] Ubuntu, “Our mission”. [Internet]. https://www.ubuntu.com/community/mission. [59] Ubuntu, “Debian.” [Internet]. https://www.ubuntu.com/community/debian. [60] Ubuntu, “Ubuntu PC operating https://www.ubuntu.com/desktop. system.” Disponible Disponible [Internet]. Disponible en: en: en: en: [61] Ubuntu, “Ubuntu Server - for scale out workloads.” [Internet]. Disponible en: https://www.ubuntu.com/server. [62] Ubuntu, “Ubuntu for the Internet of Things.” [Internet]. Disponible en: https://www.ubuntu.com/internet-of-things. [63] Ubuntu, “Ubuntu release cycle.” [Internet]. https://www.ubuntu.com/about/release-cycle. Disponible en: [64] Robotic Operative System, “About ROS.” [Internet]. Disponible en: http://www.ros.org/about-ros/. [65] Open Source Robotics Foundation, “Nodes - ROS Wiki.” [Internet]. Disponible 97en: https://wiki.ros.org/Nodes. [66] Open Source Robotics Foundation, “Topics - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Topics. [67] Open Source Robotics Foundation, “Services - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Services. [68] Open Source Robotics Foundation, “Messages - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Messages. [69] Open Source Robotics Foundation, “Parameter Server - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Parameter Server. [70] Open Source Robotics Foundation, “Bags - ROS Wiki.” [Internet]. Disponible en: https://wiki.ros.org/Bags. [71] Open Source Robotics Foundation, “ROS Kinetic Kame.” [Internet]. Disponible en: https://wiki.ros.org/kinetic. [72] Open Source Robotics Foundation, “XML Robot Description Format (URDF).” [Internet]. Disponible en: http://wiki.ros.org/urdf/XML/model. [73] L. Joseph, “Mastering ROS for Robotics Programming,” in Bangladesh Journal of Plant Taxonomy, vol. 22, no. 2, 2015, pp. 137–141. [74] Open Source Robotics Foundation, “Link element - ROS Wiki.” [Internet]. Disponible en: http://wiki.ros.org/urdf/XML/link. [75] Open Source Robotics Foundation, “Joint element - ROS Wiki.” [Internet]. Disponible en: http://wiki.ros.org/urdf/XML/joint. [76] Open Source Robotics Foundation, “Gazebo.” [Internet]. Disponible en: http://gazebosim.org/. [77] Open Source Robotics Foundation, “SDF Format.” [Internet]. Disponible en: 98http://sdformat.org/. [78] Open Source Robotics Foundation, “Using a URDF in Gazebo.” [Internet]. Disponible en: http://gazebosim.org/tutorials/?tut=ros_urdf. [79] OpenCV Team, “About the OpenCV library.” [Internet]. Disponible en: https://opencv.org/about.html. [80] A. Rincón Núñez, “Descripción de escenas por medio de aprendizaje profundo,” Proyecto de Grado, Dto. Automática y electrónica, Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2018. [81] L. S. Pérez Ochoa y M. F. Eraso Salazar, “Diseño y construcción de un robot terrestre que sirva de plataforma para desarrollo de investigaciones en el área de robótica móvil en ambientes abiertos y cerrados,” Proyecto de Grado, Dto. Automática y electrónica, Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2014. [82] A. M. Pinto Vargas, M. Á. Saavedra Ruiz, “Desarrollo de un sistema de aterrizaje autónomo para un vehículo aéreo no tripulado sobre un vehículo terrestre,” Proyecto de Grado, Dto. Automática y electrónica, Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2019. [83] D. Díaz Tenorio, “Diseño e implementación de un sistema para el mapeo y navegación de un robot móvil,” Proyecto de Grado, Dto. Automática y electrónica, Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2017. [84] M. Horga, (2016, Abr. 30). "Udacity: Lane Finding project for self-driving car nd". [Internet]. Disponible en https://github.com/udacity/CarND-LaneLines-P1. [85] G. Ballew, (2017, Ene., 24). “OpenCV For Lane Detection in Self Driving Cars”. [Internet]. Disponible en: https://medium.com/@galen.ballew/opencv- lanedetection-419361364fc0. [86] Scikit Llearn Developers, (2007). “Choosing the right estimator”. [Internet]. Disponible en: https://scikit-learn.org/stable/tutorial/machine_learning_map/ 99[87] F. Pedregosa et al., “Scikit-learn: Machine Learning in Python,” J. Mach. Learn. Res., vol. 12, pp. 2825–2830, 2011. [88] Scikit-learn developers, (2007). “Radial basis function kernel,” [Internet]. Disponible en: https://scikit- learn.org/stable/modules/generated/sklearn.gaussian_process.kernels.RBF. html. [89] M. Pal, “Multiclass Approaches for Support Vector Machine Based Land Cover Classification,” arXiv e-prints, Feb, 2008. Consultado en: 4, 20, 2018.[En línea]. Disponible en: https://arxiv.org/abs/0802.2411 [90] Scikit-learn developers, (2007). “Neural network models (supervised)”. [Internet]. Disponible en: https://scikit- learn.org/stable/modules/neural_networks_supervised.html [91] F. Chao, X. Jing-bo, and D. Shuai, “Lane Detection Based on Machine Learning Algorithm,” TELKOMNIKA Indones. J. Electr. Eng., vol. 12, no. 2, pp. 1403–1409, 2014. [92] N. Otsu, “A Threshold Selection Method from Gray-Level Histograms,” IEEE Trans. Syst. Man. Cybern., vol. 9, no. 1, pp. 62–66, Jan. 1979. [93] F. Robert, S. Perkins, A. Walker, and E. Wolfart, “Adaptive Thresholding,” The Hypermedia Image Processing Reference, 2003. Consultado en: 6, 2, 2018. [En línea]. Disponible en: https://homepages.inf.ed.ac.uk/rbf/HIPR2/adpthrsh.htm. [94] R. E. Kalman, “A New Approach to Linear Filtering and Prediction Problems,” Trans. ASME--Journal Basic Eng., vol. 82, no. Series D, pp. 35–45, 1960. [95] Open Source Robotics Foundation, “SolidWorkds to URDF Exporter.” [Internet]. Disponible en: http://wiki.ros.org/sw_urdf_exporter. [96] Open Source Robotics Foundation, “Model Editor - Gazebo.” [Internet]. Disponible en: http://gazebosim.org/tutorials?cat=guided_b&tut=guided_b3. 100[97] Open Source Robotics Foundation, “Python SDF to URDF.” [Internet]. Disponible en: http://wiki.ros.org/pysdf. [98] Open Source Robotics Foundation, “ROS Control - Wiki.” [Internet]. Disponible en: http://wiki.ros.org/ros_control. [99] K. Ogata, Modern control engineering, 5th Editio., vol. 17, no. 3. 1972.Ingeniería MecatrónicaVehículos autónomosVisión por computadorSimulación por computadoresSeguimiento de carrilAutonomous vehiclesComputer visionComputer simulationDesarrollo de un sistema de percepción para detección de carril y generación de trayectorias para vehículos autónomosTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/acceptedVersionIngeniería MecatrónicaDepartamento de Automática y ElectrónicaFacultad de IngenieríaPublicationhttps://scholar.google.com/citations?user=MW2zbLAAAAAJ&hl=envirtual::4115-10000-0002-7275-9839virtual::4115-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000637769virtual::4115-1286553f4-3942-4404-9123-b85ee6e69330virtual::4115-1286553f4-3942-4404-9123-b85ee6e69330virtual::4115-1TEXTT08772.pdf.txtT08772.pdf.txtExtracted texttext/plain146892https://red.uao.edu.co/bitstreams/79a991d0-85af-4c75-8664-68ec2b2ab861/downloadeb873aa8312751a60c56729892f9dd6aMD57TA8772.pdf.txtTA8772.pdf.txtExtracted texttext/plain2https://red.uao.edu.co/bitstreams/e63e0de6-d8a4-4539-8099-0f2563106d4c/downloade1c06d85ae7b8b032bef47e42e4c08f9MD59THUMBNAILT08772.pdf.jpgT08772.pdf.jpgGenerated Thumbnailimage/jpeg7932https://red.uao.edu.co/bitstreams/80bcc2b2-db28-437d-a7c1-8ede0e19f5c1/download67438728d704a143c7a9d8d2a9eb063eMD58TA8772.pdf.jpgTA8772.pdf.jpgGenerated Thumbnailimage/jpeg14583https://red.uao.edu.co/bitstreams/5f15c1ac-d48d-4cb8-8ec7-bcf865dad112/download783b9df7ae2d3b196065ccefe401ba4bMD510CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-81031https://red.uao.edu.co/bitstreams/f1a1559e-4ffd-4649-bce8-1ffe7daa880f/download934f4ca17e109e0a05eaeaba504d7ce4MD53LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://red.uao.edu.co/bitstreams/e39e2bfe-0ba0-4c7e-82a4-7fb2d4387a10/download20b5ba22b1117f71589c7318baa2c560MD54ORIGINALT08772.pdfT08772.pdfapplication/pdf2242564https://red.uao.edu.co/bitstreams/ae45c204-1c4e-4329-9433-781b08dfecb0/downloadee5ef8e3bc72de952613d768584682a6MD55TA8772.pdfTA8772.pdfapplication/pdf6020753https://red.uao.edu.co/bitstreams/90cbc646-ad45-42d9-ae85-b0991fa0e3cd/download0ad5a88f5cc45216505049ae267768d9MD5610614/11599oai:red.uao.edu.co:10614/115992024-03-13 11:39:35.792https://creativecommons.org/licenses/by-nc-sa/4.0/Derechos Reservados - Universidad Autónoma de Occidenteopen.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K |