Sistema de estimación de transitabilidad para robots móviles terrestres

Este documento presenta el desarrollo de un sistema de percepción robótica para estimación de transitabilidad en ambientes externos y no estructurados, así como su posterior implementación en el robot móvil terrestre Jackal. De igual manera, este proyecto está enmarcado en una de las líneas trazadas...

Full description

Autores:
Rojas Cediel, Davidson Daniel
Cerquera Calderón, Andrés Felipe
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2020
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/12242
Acceso en línea:
http://red.uao.edu.co//handle/10614/12242
Palabra clave:
Programa de Ingeniería Mecatrónica
Estimación de transitabilidad
ROS
LIDAR
Robot móvil terrestre Jackal
Detección de obstáculos explícitos
Robótica
Robotics
Rights
openAccess
License
Derechos Reservados - Universidad Autónoma de Occidente
id REPOUAO2_c656b4ee4396401f6e14c7b3db47f842
oai_identifier_str oai:red.uao.edu.co:10614/12242
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Sistema de estimación de transitabilidad para robots móviles terrestres
title Sistema de estimación de transitabilidad para robots móviles terrestres
spellingShingle Sistema de estimación de transitabilidad para robots móviles terrestres
Programa de Ingeniería Mecatrónica
Estimación de transitabilidad
ROS
LIDAR
Robot móvil terrestre Jackal
Detección de obstáculos explícitos
Robótica
Robotics
title_short Sistema de estimación de transitabilidad para robots móviles terrestres
title_full Sistema de estimación de transitabilidad para robots móviles terrestres
title_fullStr Sistema de estimación de transitabilidad para robots móviles terrestres
title_full_unstemmed Sistema de estimación de transitabilidad para robots móviles terrestres
title_sort Sistema de estimación de transitabilidad para robots móviles terrestres
dc.creator.fl_str_mv Rojas Cediel, Davidson Daniel
Cerquera Calderón, Andrés Felipe
dc.contributor.advisor.spa.fl_str_mv Romero Cano, Victor Adolfo
dc.contributor.author.spa.fl_str_mv Rojas Cediel, Davidson Daniel
Cerquera Calderón, Andrés Felipe
dc.subject.spa.fl_str_mv Programa de Ingeniería Mecatrónica
Estimación de transitabilidad
ROS
LIDAR
Robot móvil terrestre Jackal
Detección de obstáculos explícitos
topic Programa de Ingeniería Mecatrónica
Estimación de transitabilidad
ROS
LIDAR
Robot móvil terrestre Jackal
Detección de obstáculos explícitos
Robótica
Robotics
dc.subject.armarc.spa.fl_str_mv Robótica
dc.subject.armarc.eng.fl_str_mv Robotics
description Este documento presenta el desarrollo de un sistema de percepción robótica para estimación de transitabilidad en ambientes externos y no estructurados, así como su posterior implementación en el robot móvil terrestre Jackal. De igual manera, este proyecto está enmarcado en una de las líneas trazadas por el Semillero de Investigación en Robótica de la Universidad Autónoma de Occidente (UAO), con el fin de soportar tareas de caracterización forestal. El sistema aquí presentado permite estimar transitabilidad, mediante diferentes técnicas, basándose en la detección de obstáculos de manera explícita, para posteriormente realizar el replanteamiento de la ruta definida en un principio y, por último, su ejecución por parte del robot móvil Jackal. Es importante mencionar que, para el desarrollo del mismo, se realizó una intensa búsqueda del estado del arte en torno a los sistemas de estimación de transitabilidad, luego un tamizaje de las alternativas, combinación (o adición de librerías como PCL o Costmap2d), la re- parametrización de los mismo y el empleo de sensores LIDAR, cámara estéreo, GPS e IMU, llegando a soluciones más robustas. Por último, se realizaron pruebas físicas para determinar el correcto funcionamiento de los mismos; se debe aclarar que como middleware se empleó ROS con el soporte del lenguaje de programación C++. Además, estas pruebas se realizaron en dos etapas: dentro del laboratorio de robótica de la UAO y por fuera del mismo (ambientes externos y no estructurados), siendo la última la más importante para el presente proyecto, logrando determinar el correcto funcionamiento de los algoritmos, siempre y cuando se establezcan los parámetros correctamente.
publishDate 2020
dc.date.accessioned.spa.fl_str_mv 2020-04-23T13:18:47Z
dc.date.available.spa.fl_str_mv 2020-04-23T13:18:47Z
dc.date.issued.spa.fl_str_mv 2020-03-09
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
dc.type.coar.spa.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.spa.fl_str_mv Text
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.spa.fl_str_mv https://purl.org/redcol/resource_type/TP
dc.type.version.spa.fl_str_mv info:eu-repo/semantics/publishedVersion
format http://purl.org/coar/resource_type/c_7a1f
status_str publishedVersion
dc.identifier.uri.spa.fl_str_mv http://red.uao.edu.co//handle/10614/12242
url http://red.uao.edu.co//handle/10614/12242
dc.language.iso.spa.fl_str_mv spa
language spa
dc.rights.spa.fl_str_mv Derechos Reservados - Universidad Autónoma de Occidente
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.spa.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.spa.fl_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
rights_invalid_str_mv Derechos Reservados - Universidad Autónoma de Occidente
https://creativecommons.org/licenses/by-nc-nd/4.0/
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.spa.fl_str_mv application/pdf
dc.format.extent.spa.fl_str_mv 103 páginas
dc.coverage.spatial.spa.fl_str_mv Universidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí
dc.publisher.spa.fl_str_mv Universidad Autónoma de Occidente
dc.publisher.program.spa.fl_str_mv Ingeniería Mecatrónica
dc.publisher.department.spa.fl_str_mv Departamento de Automática y Electrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.source.spa.fl_str_mv instname:Universidad Autónoma de Occidente
reponame:Repositorio Institucional UAO
instname_str Universidad Autónoma de Occidente
institution Universidad Autónoma de Occidente
reponame_str Repositorio Institucional UAO
collection Repositorio Institucional UAO
dc.source.bibliographiccitation.spa.fl_str_mv [1] R. Hudda, C. Kelly, G. Long, A. Pandit, D. Phillips, L. Sheet y I. Sidhu. (2013, mayo). “Self-Driving Cars,” College of Engineering University of California, Berkeley, CA, Estados Unidos. [En línea]. Disponible: https://ikhlaqsidhu.files.wordpress.com/ 2013/06/self_driving_cars.pdf [2] D. Xie, Y. Xu y R. Wang, “Obstacle detection and tracking method for autonomous vehicle based on three-dimensional LiDAR,” International Journal of Advanced Robotic Systems, Mar, 2019. doi: 10.1177/1729881419831587, [3] B. Browning, J. Deschaud, D. Prasser y P. Rander, “3D Mapping for high-fidelity unmanned ground vehicle lidar simulation,” The International Journal of Robotics Research, vol. 31, pp. 1349–1376, Nov, 2012. doi: 10.1177/0278364912460288 [4] C. Yee y J. Borenstein, “Characterization of a 2D Laser Scanner for Mobile Robot Obstacle Negotiation,” presentado en la 2002 IEEE International Conference on Robotics and Automation [En línea]. Disponible: https://ieeexplore.ieee.org/document/1013609 [5] H. Baltzakis, A. Argyros y P. Trahanias. “Fusion of laser and visual data for robot motion planning and collision avoidance,” Machine Vision and Applications, vol. 15, issue 2, pp, 92–100, dic. 2003. doi: 10.1007/s00138-003-0133-2 [6] K. Nagatani et al., "Multi-robot exploration for search and rescue missions: A report of map building in RoboCupRescue 2009," presentado en la 2009 IEEE International Workshop on Safety, Security & Rescue Robotics (SSRR), Denver, CO. doi: 10.1109/SSRR.2009.5424148 [7] L. Smadja, J. Ninot, y T. Gavrilovic, “Road extraction and environment interpretation from lidar sensors,” ISPRS. Arch., vol. 38, no. 3a, pp. 281–286, sep. 2010. [8] C. Cadena, L. Carlone, H. Carrillo, Y. Latif, D. Scaramuzza, J. Neira, I. Reid y J. Leonard. “Simultaneous Localization and Mapping: Present, Future, and the Robust-Perception Age,” IEEE Transactions on Robotics, vol. 32 , issue 6, dic, 2016. doi: 10.1109/TRO.2016.2624754 [9] C. Goodin, M. Doude, C. Hudson y D. Carruth. “Enabling Off-Road Autonomous Navigation-Simulation of LIDAR in Dense Vegetation,” Electronics, vol. 7, no. 9, p. 154, ago, 2018. doi: 10.3390/electronics7090154 [10] Y. Broche, L. Herrera y E. Omar, “Bases neurales de la toma de decisiones,” Neurología, vol. 31, pp. 319-325, may, 2015. doi: 10.1016/j.nrl.2015.03.001 [11] L. Hofer. “Decision-making algorithms for autonomous robots,” Ph.D. disertación, École Doctorale de Mathématiques et D’Informatique, Université de Bordeaux, Bordeaux, Francia, 2017. Disponible en https://tel.archives-ouvertes.fr/tel-01684198 [12] I. Harner. (2017, Oct 23). “The 5 Autonomous Driving Levels Explained”. [Internet]. Disponible en https://iotforall.com/5-autonomous-driving-levels-explained [13] Waymo Industry (2009). “Our Mission”. [Internet]. Disponible en: https://waymo.com/mission [14] I. Bogoslavsky, O. Vysotska, J. Serafin, G. Grisetti y C. Stachniss, “Efficient traversability analysis for mobile robots using the Kinect sensor,” presentado en la 2013 European Conference on Mobile Robots, Barcelona, CA, doi: 10.1109/ECMR.2013.6698836 [15] G. Reina, A. Milella y R. Rouveure, “Traversability Analysis for Off-Road Vehicles using Stereo and Radar Data,” presentado en la 2015 IEEE International Conf. on Industrial Technology (ICIT), Sevilla, AND, doi: 10.1109/ICIT.2015.7125155 [16] X. Huang, C. Shuai y X. Wu, “Reactive navigation of autonomous vehicle,” Journal of Physics: Conf. Series, vol. 1176, pp. 52-79, mar, 2019. doi: 10.1088/1742-6596/1176/5/052079 [17] A. Souza, R. Maia, R. Aroca y L. Gonçalves, “Probabilistic robotic grid mapping based on occupancy and elevation information,” presentado en la 2013 16th International Conf. on Advanced Robotics, (ICAR), Montevideo, BA. doi: 10.1109/ICAR.2013.6766467 [18] A. Elfes, "Using occupancy grids for mobile robot perception and navigation," Computer, vol. 22, no. 6, pp. 46-57, jun, 1989. doi: 10.1109/2.30720 [19] Y. Liu, R. Emery, D. Chakrabarti, W. Burgard, y S. Thrun, “Using EM to learn 3D models with mobile robots,” en the International Conference on Machine Learning (ICML), San Francisco, 2001, pp. 329-336. [20] P. Pfaff, R. Triebel, y W. Burgard, “An efficient extension to elevation maps for outdoor terrain mapping and loop closing,” The International Journal of Robotics Research, vol. 26, no. 217, pp. 217–230, feb, 2007. doi: 10.1177/0278364906075165 [21] L. Berczi, I. Posner, y T. Barfoot, “Learning to Assess Terrain From Human Demonstration Using an Introspective Gaussian Process Classifier,” presentado en la 2015 IEEE International Conference on Robotics and Automation (ICRA), Seattle, WA. doi: 10.1109/ICRA.2015.7139637 [22] S. Goldberg, W. Maimone, y L. Matthies, “Stereo Vision and Rover Navigation Software for Planetary Exploration,” Proceedings, IEEE Aerospace Conference, vol. 5, pp. 5-5, ene, 2002. doi: 10.1109/AERO.2002.1035370 [23] K. Ho, T. Peynot, y S. Sukkarieh, “Traversability Estimation for a Planetary Rover Via Experimental Kernel Learning in a Gaussian Process Framework,” presentado en la IEEE International Conference on Robotics and Automation (ICRA), Karlsruhe, BA, 2013. [24] P. Ross, A. English, D. Ball, B. Upcroft y P. Corke, “Finding the ground hidden in the grass: traversability estimation in vegetation,” Maestria, School of Electrical Engineering and Computer Science, Queensland University of Technology., Brisbane, Australia, 2015. Disponible en http://www.araa.asn.au/acra/acra2015/papers/pap105.pdf [25] J. Berrío, “Mapeo y Localización Simultánea de un robot móvil en ambientes estructurados basado en integración sensorial,” Maestria, Fac. Ingeniería., Universidad del Valle, Santiago de Cali, Valle del Cauca, Colombia. 2015. Disponible en http://hdl.handle.net/10893/8843 [26] J. Kocic, N. Jovičić y V. Drndarevic, “Sensors and Sensor Fusion in Autonomous Vehicles,” en 26th Telecommunications Forum (TELFOR), 2018, pp. 420-425. [27] J. Sock, J. Kim, J. Min y K. Kwak, "Probabilistic traversability map generation using 3D-LIDAR and camera," en IEEE International Conference on Robotics and Automation (ICRA), Stockholm, 2016, pp. 5631-5637. [28] N. Hirose, A. Sadeghian, F. Xia, R. Martin-Martin y S. Savarese, “VUNet: Dynamic Scene View Synthesis for Traversability Estimation using an RGB Camera,” IEEE Robotics and Automation Letters, vol. 4, issue 2, pp. 2062 – 2069, ene, 2019. doi: 10.1109/LRA.2019.2894869 [29] G. De Cubber, D. Doroftei, H. Sahli y Y. Baudoin, “Outdoor Terrain Traversability Analysis for Robot Navigation using a Time-Of-Flight Camera,” presentado en la RGB-D Workshop on 3D Perception in Robotics, Odense, DK, 2011. [30] NASA, (2003), “Rover Driving”. [Internet], Disponible en: https://www-robotics.jpl.nasa.gov/roboticVideos/vid1016-70-browse.jpg [31] ROSWIKI, (2019). “Turtlebot tango”. [Internet], Disponible en: http://ros.fei.edu.br/roswiki/attachments/rtabmap_ros(2f)Tutorials(2f)Tango(20)ROS(20)Streamer/turtlebot_tango.png [32] R. Chavez, J. Guzzi, L. Gambardella y A. Giusti, “Image Classification for Ground Traversability Estimation in Robotics,” en International Conference on Advanced Concepts for Intelligent Vision Systems(ICACI), 2017, pp. 325-336. [33] Jackal Unmanned Ground Vehicle (s.f). [Internet]. Disponible en https://clearpathrobotics.com/jackal-small-unmanned-ground-vehicle/ [34] GEFORCE (s.f). [Internet]. Disponible en https://www.nvidia.com/es-la/geforce/ products/10series/geforce-gtx-1050/ [35] T. Giménez y M. Ros. “SISTEMA DE POSICIONAMIENTO GLOBAL (GPS),” Universidad de Murcia, Región de Murcia, Murcia, España, 2010. [En línea]. Disponible en: https://webs.um.es/bussons/GPSresumen_TamaraElena.pdf [36] BigComerse (s.f) “Thingmagic Xpress Sensor Hub Plug-In Gps Interface Module”. [Internet]. Disponible en https://cdn1.bigcommerce.com/n-ww20x/ka7ofex/products/1758/images/4254/GPS__23111.1434050193.1280.1280.jpg [37] A. Chaudhry, C. Shih, A. Skillin y D. Witcpalek, “Inertial Measurement Units,” University of Michigan., Ann Arbor, MI, Estados Unidos, nov, 12, 2018. [En línea]. Disponible en: https://www.eecs.umich.edu/courses/eecs373/Lec/StudentF18/ 373%20IMU%20Presentation.pdf [38] Clearpath robotics (s.f). “Puck lite”. [Internet]. Disponible en https://store.clearpathrobotics.com/products/puck-lite [39] StereoLabs (s.f). “ZED”. [Internet]. Disponible en https://www.stereolabs.com/zed/ [40] ROS (s.f). “What is Ros?”. [Internet]. Disponible en http://wiki.ros.org/ROS/Introduction [41] Baxter Research Robot (s.f). “Rviz - sdk-wiki”. [Internet]. Disponible en http://sdk.rethinkrobotics.com/wiki/Rviz [42] pcl (s.f). “What is PCL?”. [Internet]. Disponible en http://pointclouds.org/about/ [43] ROS (s.f). “nodelet”. [Internet]. Disponible en http://wiki.ros.org/nodelet [44] ROS (s.f). “pluginlib”. [En línea]. Disponible en http://wiki.ros.org/pluginlib [45] ROS (s.f). “costmap_2d”. [Internet]. Disponible en http://wiki.ros.org/costmap_2d [46] ROS (s.f). “navigation”. [Internet]. Disponible en: http://wiki.ros.org/navigation [47] ROS (s.f). “PointCloud to LaserScan”. [Internet]. Disponible en: http://wiki.ros.org/pointcloud_to_laserscan [48] H. Oleynikova, Z. Taylor, M. Fehr, J. Nieto y R. Siegwart, “Voxblox: Incremental 3D Euclidean Signed Distance Fields for On-Board MAV Planning,” en IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). [En línea], Disponible en https://arxiv.org/abs/1611.03631 [49] S. Macenski (s.f). “Spatio-Temporal Voxel Layer”. [Internet]. Disponible en https://github.com/SteveMacenski/spatio_temporal_voxel_layer [50] ClearPath Robotics (s.f). “NAVIGATING WITH JACKAL”. [Internet]. Disponible en http://www.clearpathrobotics.com/assets/guides/jackal/navigation.html [51] S. Macenski. (s.f), On Use of the Spatio-Temporal Voxel Layer: A Fresh(er) look at 3D Perception for the Planar World. Presentado en ROSCon 2018. [Internet]. Disponible en: https://roscon.ros.org/2018/presentations/ROSCon2018_SpatioTemporalVoxelLayer.pdf [52] N. Hirose, A. Sadeghian, F. Xia y S. Savarese, “GONet++: Traversability Estimation via Dynamic Scene View Synthesis,” IEEE Robotics & Automation Magazine, Jun, 2018. [En línea]. Disponible en https://www.researchgate.net/publication/325986451_GONet_Traversability_Estimation_via_Dynamic_Scene_View_Synthesis [53] N. Kaiser (2017). Nu_jackal_autonav. [Internet]. Disponible en https://github.com/njkaiser/nu_jackal_autonav [54] ROS (s.f). “gps_goal”. [En línea]. Disponible en http://wiki.ros.org/ gps_goal
bitstream.url.fl_str_mv https://dspace7-uao.metacatalogo.com/bitstreams/6aeec0e5-24cf-4872-a4ad-2bf2a92b802d/download
https://dspace7-uao.metacatalogo.com/bitstreams/216b4b6a-06a2-4e59-b8df-36d9b3d83819/download
https://dspace7-uao.metacatalogo.com/bitstreams/b8e660bf-88b3-4dcd-9785-ebde0947eba4/download
https://dspace7-uao.metacatalogo.com/bitstreams/bc58213a-8c9b-479a-9002-7948b2378f6b/download
https://dspace7-uao.metacatalogo.com/bitstreams/925a7088-314f-4d2c-9636-024bb2b84546/download
https://dspace7-uao.metacatalogo.com/bitstreams/1961be88-dd81-4448-927a-c93402aa2fc0/download
https://dspace7-uao.metacatalogo.com/bitstreams/55b4ddac-a22b-4001-9b28-3b2f7ac8aef4/download
https://dspace7-uao.metacatalogo.com/bitstreams/861feffc-e19c-4709-a6d2-3fd4a47f4505/download
bitstream.checksum.fl_str_mv 962ed6d794769a77a1134e1fe1642616
0275431bea02a36310fa33fb53439d79
22bc4c233ed94e125ce417f4976d017d
a986c75ee2b8191f9a1c194120af7680
4460e5956bc1d1639be9ae6146a50347
20b5ba22b1117f71589c7318baa2c560
b02661b77d65392a4d8949e326be2bca
bbafb53b926937909bdcf17f1518b488
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio UAO
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1814260089893158912
spelling Romero Cano, Victor Adolfo6e79be7b8aa957fba6721fd97907059a-1Rojas Cediel, Davidson Daniel14243ad36be719bb60a6e0284df78ce7-1Cerquera Calderón, Andrés Felipe99c41e053fd374357f0ed648d3f923a1-1Ingeniero MecatrónicoUniversidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí2020-04-23T13:18:47Z2020-04-23T13:18:47Z2020-03-09http://red.uao.edu.co//handle/10614/12242Este documento presenta el desarrollo de un sistema de percepción robótica para estimación de transitabilidad en ambientes externos y no estructurados, así como su posterior implementación en el robot móvil terrestre Jackal. De igual manera, este proyecto está enmarcado en una de las líneas trazadas por el Semillero de Investigación en Robótica de la Universidad Autónoma de Occidente (UAO), con el fin de soportar tareas de caracterización forestal. El sistema aquí presentado permite estimar transitabilidad, mediante diferentes técnicas, basándose en la detección de obstáculos de manera explícita, para posteriormente realizar el replanteamiento de la ruta definida en un principio y, por último, su ejecución por parte del robot móvil Jackal. Es importante mencionar que, para el desarrollo del mismo, se realizó una intensa búsqueda del estado del arte en torno a los sistemas de estimación de transitabilidad, luego un tamizaje de las alternativas, combinación (o adición de librerías como PCL o Costmap2d), la re- parametrización de los mismo y el empleo de sensores LIDAR, cámara estéreo, GPS e IMU, llegando a soluciones más robustas. Por último, se realizaron pruebas físicas para determinar el correcto funcionamiento de los mismos; se debe aclarar que como middleware se empleó ROS con el soporte del lenguaje de programación C++. Además, estas pruebas se realizaron en dos etapas: dentro del laboratorio de robótica de la UAO y por fuera del mismo (ambientes externos y no estructurados), siendo la última la más importante para el presente proyecto, logrando determinar el correcto funcionamiento de los algoritmos, siempre y cuando se establezcan los parámetros correctamente.This project presents the development of a robotic perception system for estimating transitability in external and unstructured environments, as well as its subsequent implementation in the land mobile robot Jackal. Similarly, this project is framed in one of the lines drawn by the Semillero de Investigación en Robótica de la Universidad Autónoma de Occidente (UAO), in order to support forest characterization tasks. The system presented here allows to estimate transitability, through different techniques, based on the detection of obstacles in an explicit way, to later carry out the rethinking of the route defined at the beginning and, finally, its execution by Jackal. It is important to mention that, for the development of the same one, an intense search of the state of the art was made around the systems of estimation of transitability, then a sifting of the alternatives, combination (or addition of libraries like PCL or Costmap2d), the re-parametrization of the same ones and the use of sensors LIDAR, stereo camera, GPS and IMU, arriving at more robust solutions. Finally, physical tests were carried out to determine the correct functioning of the same; it should be clarified that ROS was used as middleware with the support of the C++ programming language. In addition, these tests were performed in two stages: inside the robotics laboratory of the UAO and outside it (external and unstructured environments), the latter being the most important for the present project, managing to determine the proper functioning of the algorithms, as long as the parameters are established correctly.Pasantía de investigación (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2020PregradoIngeniero(a) Mecatrónico(a)application/pdf103 páginasspaUniversidad Autónoma de OccidenteIngeniería MecatrónicaDepartamento de Automática y ElectrónicaFacultad de IngenieríaDerechos Reservados - Universidad Autónoma de Occidentehttps://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2instname:Universidad Autónoma de Occidentereponame:Repositorio Institucional UAO[1] R. Hudda, C. Kelly, G. Long, A. Pandit, D. Phillips, L. Sheet y I. Sidhu. (2013, mayo). “Self-Driving Cars,” College of Engineering University of California, Berkeley, CA, Estados Unidos. [En línea]. Disponible: https://ikhlaqsidhu.files.wordpress.com/ 2013/06/self_driving_cars.pdf [2] D. Xie, Y. Xu y R. Wang, “Obstacle detection and tracking method for autonomous vehicle based on three-dimensional LiDAR,” International Journal of Advanced Robotic Systems, Mar, 2019. doi: 10.1177/1729881419831587, [3] B. Browning, J. Deschaud, D. Prasser y P. Rander, “3D Mapping for high-fidelity unmanned ground vehicle lidar simulation,” The International Journal of Robotics Research, vol. 31, pp. 1349–1376, Nov, 2012. doi: 10.1177/0278364912460288 [4] C. Yee y J. Borenstein, “Characterization of a 2D Laser Scanner for Mobile Robot Obstacle Negotiation,” presentado en la 2002 IEEE International Conference on Robotics and Automation [En línea]. Disponible: https://ieeexplore.ieee.org/document/1013609 [5] H. Baltzakis, A. Argyros y P. Trahanias. “Fusion of laser and visual data for robot motion planning and collision avoidance,” Machine Vision and Applications, vol. 15, issue 2, pp, 92–100, dic. 2003. doi: 10.1007/s00138-003-0133-2 [6] K. Nagatani et al., "Multi-robot exploration for search and rescue missions: A report of map building in RoboCupRescue 2009," presentado en la 2009 IEEE International Workshop on Safety, Security & Rescue Robotics (SSRR), Denver, CO. doi: 10.1109/SSRR.2009.5424148 [7] L. Smadja, J. Ninot, y T. Gavrilovic, “Road extraction and environment interpretation from lidar sensors,” ISPRS. Arch., vol. 38, no. 3a, pp. 281–286, sep. 2010. [8] C. Cadena, L. Carlone, H. Carrillo, Y. Latif, D. Scaramuzza, J. Neira, I. Reid y J. Leonard. “Simultaneous Localization and Mapping: Present, Future, and the Robust-Perception Age,” IEEE Transactions on Robotics, vol. 32 , issue 6, dic, 2016. doi: 10.1109/TRO.2016.2624754 [9] C. Goodin, M. Doude, C. Hudson y D. Carruth. “Enabling Off-Road Autonomous Navigation-Simulation of LIDAR in Dense Vegetation,” Electronics, vol. 7, no. 9, p. 154, ago, 2018. doi: 10.3390/electronics7090154 [10] Y. Broche, L. Herrera y E. Omar, “Bases neurales de la toma de decisiones,” Neurología, vol. 31, pp. 319-325, may, 2015. doi: 10.1016/j.nrl.2015.03.001 [11] L. Hofer. “Decision-making algorithms for autonomous robots,” Ph.D. disertación, École Doctorale de Mathématiques et D’Informatique, Université de Bordeaux, Bordeaux, Francia, 2017. Disponible en https://tel.archives-ouvertes.fr/tel-01684198 [12] I. Harner. (2017, Oct 23). “The 5 Autonomous Driving Levels Explained”. [Internet]. Disponible en https://iotforall.com/5-autonomous-driving-levels-explained [13] Waymo Industry (2009). “Our Mission”. [Internet]. Disponible en: https://waymo.com/mission [14] I. Bogoslavsky, O. Vysotska, J. Serafin, G. Grisetti y C. Stachniss, “Efficient traversability analysis for mobile robots using the Kinect sensor,” presentado en la 2013 European Conference on Mobile Robots, Barcelona, CA, doi: 10.1109/ECMR.2013.6698836 [15] G. Reina, A. Milella y R. Rouveure, “Traversability Analysis for Off-Road Vehicles using Stereo and Radar Data,” presentado en la 2015 IEEE International Conf. on Industrial Technology (ICIT), Sevilla, AND, doi: 10.1109/ICIT.2015.7125155 [16] X. Huang, C. Shuai y X. Wu, “Reactive navigation of autonomous vehicle,” Journal of Physics: Conf. Series, vol. 1176, pp. 52-79, mar, 2019. doi: 10.1088/1742-6596/1176/5/052079 [17] A. Souza, R. Maia, R. Aroca y L. Gonçalves, “Probabilistic robotic grid mapping based on occupancy and elevation information,” presentado en la 2013 16th International Conf. on Advanced Robotics, (ICAR), Montevideo, BA. doi: 10.1109/ICAR.2013.6766467 [18] A. Elfes, "Using occupancy grids for mobile robot perception and navigation," Computer, vol. 22, no. 6, pp. 46-57, jun, 1989. doi: 10.1109/2.30720 [19] Y. Liu, R. Emery, D. Chakrabarti, W. Burgard, y S. Thrun, “Using EM to learn 3D models with mobile robots,” en the International Conference on Machine Learning (ICML), San Francisco, 2001, pp. 329-336. [20] P. Pfaff, R. Triebel, y W. Burgard, “An efficient extension to elevation maps for outdoor terrain mapping and loop closing,” The International Journal of Robotics Research, vol. 26, no. 217, pp. 217–230, feb, 2007. doi: 10.1177/0278364906075165 [21] L. Berczi, I. Posner, y T. Barfoot, “Learning to Assess Terrain From Human Demonstration Using an Introspective Gaussian Process Classifier,” presentado en la 2015 IEEE International Conference on Robotics and Automation (ICRA), Seattle, WA. doi: 10.1109/ICRA.2015.7139637 [22] S. Goldberg, W. Maimone, y L. Matthies, “Stereo Vision and Rover Navigation Software for Planetary Exploration,” Proceedings, IEEE Aerospace Conference, vol. 5, pp. 5-5, ene, 2002. doi: 10.1109/AERO.2002.1035370 [23] K. Ho, T. Peynot, y S. Sukkarieh, “Traversability Estimation for a Planetary Rover Via Experimental Kernel Learning in a Gaussian Process Framework,” presentado en la IEEE International Conference on Robotics and Automation (ICRA), Karlsruhe, BA, 2013. [24] P. Ross, A. English, D. Ball, B. Upcroft y P. Corke, “Finding the ground hidden in the grass: traversability estimation in vegetation,” Maestria, School of Electrical Engineering and Computer Science, Queensland University of Technology., Brisbane, Australia, 2015. Disponible en http://www.araa.asn.au/acra/acra2015/papers/pap105.pdf [25] J. Berrío, “Mapeo y Localización Simultánea de un robot móvil en ambientes estructurados basado en integración sensorial,” Maestria, Fac. Ingeniería., Universidad del Valle, Santiago de Cali, Valle del Cauca, Colombia. 2015. Disponible en http://hdl.handle.net/10893/8843 [26] J. Kocic, N. Jovičić y V. Drndarevic, “Sensors and Sensor Fusion in Autonomous Vehicles,” en 26th Telecommunications Forum (TELFOR), 2018, pp. 420-425. [27] J. Sock, J. Kim, J. Min y K. Kwak, "Probabilistic traversability map generation using 3D-LIDAR and camera," en IEEE International Conference on Robotics and Automation (ICRA), Stockholm, 2016, pp. 5631-5637. [28] N. Hirose, A. Sadeghian, F. Xia, R. Martin-Martin y S. Savarese, “VUNet: Dynamic Scene View Synthesis for Traversability Estimation using an RGB Camera,” IEEE Robotics and Automation Letters, vol. 4, issue 2, pp. 2062 – 2069, ene, 2019. doi: 10.1109/LRA.2019.2894869 [29] G. De Cubber, D. Doroftei, H. Sahli y Y. Baudoin, “Outdoor Terrain Traversability Analysis for Robot Navigation using a Time-Of-Flight Camera,” presentado en la RGB-D Workshop on 3D Perception in Robotics, Odense, DK, 2011. [30] NASA, (2003), “Rover Driving”. [Internet], Disponible en: https://www-robotics.jpl.nasa.gov/roboticVideos/vid1016-70-browse.jpg [31] ROSWIKI, (2019). “Turtlebot tango”. [Internet], Disponible en: http://ros.fei.edu.br/roswiki/attachments/rtabmap_ros(2f)Tutorials(2f)Tango(20)ROS(20)Streamer/turtlebot_tango.png [32] R. Chavez, J. Guzzi, L. Gambardella y A. Giusti, “Image Classification for Ground Traversability Estimation in Robotics,” en International Conference on Advanced Concepts for Intelligent Vision Systems(ICACI), 2017, pp. 325-336. [33] Jackal Unmanned Ground Vehicle (s.f). [Internet]. Disponible en https://clearpathrobotics.com/jackal-small-unmanned-ground-vehicle/ [34] GEFORCE (s.f). [Internet]. Disponible en https://www.nvidia.com/es-la/geforce/ products/10series/geforce-gtx-1050/ [35] T. Giménez y M. Ros. “SISTEMA DE POSICIONAMIENTO GLOBAL (GPS),” Universidad de Murcia, Región de Murcia, Murcia, España, 2010. [En línea]. Disponible en: https://webs.um.es/bussons/GPSresumen_TamaraElena.pdf [36] BigComerse (s.f) “Thingmagic Xpress Sensor Hub Plug-In Gps Interface Module”. [Internet]. Disponible en https://cdn1.bigcommerce.com/n-ww20x/ka7ofex/products/1758/images/4254/GPS__23111.1434050193.1280.1280.jpg [37] A. Chaudhry, C. Shih, A. Skillin y D. Witcpalek, “Inertial Measurement Units,” University of Michigan., Ann Arbor, MI, Estados Unidos, nov, 12, 2018. [En línea]. Disponible en: https://www.eecs.umich.edu/courses/eecs373/Lec/StudentF18/ 373%20IMU%20Presentation.pdf [38] Clearpath robotics (s.f). “Puck lite”. [Internet]. Disponible en https://store.clearpathrobotics.com/products/puck-lite [39] StereoLabs (s.f). “ZED”. [Internet]. Disponible en https://www.stereolabs.com/zed/ [40] ROS (s.f). “What is Ros?”. [Internet]. Disponible en http://wiki.ros.org/ROS/Introduction [41] Baxter Research Robot (s.f). “Rviz - sdk-wiki”. [Internet]. Disponible en http://sdk.rethinkrobotics.com/wiki/Rviz [42] pcl (s.f). “What is PCL?”. [Internet]. Disponible en http://pointclouds.org/about/ [43] ROS (s.f). “nodelet”. [Internet]. Disponible en http://wiki.ros.org/nodelet [44] ROS (s.f). “pluginlib”. [En línea]. Disponible en http://wiki.ros.org/pluginlib [45] ROS (s.f). “costmap_2d”. [Internet]. Disponible en http://wiki.ros.org/costmap_2d [46] ROS (s.f). “navigation”. [Internet]. Disponible en: http://wiki.ros.org/navigation [47] ROS (s.f). “PointCloud to LaserScan”. [Internet]. Disponible en: http://wiki.ros.org/pointcloud_to_laserscan [48] H. Oleynikova, Z. Taylor, M. Fehr, J. Nieto y R. Siegwart, “Voxblox: Incremental 3D Euclidean Signed Distance Fields for On-Board MAV Planning,” en IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). [En línea], Disponible en https://arxiv.org/abs/1611.03631 [49] S. Macenski (s.f). “Spatio-Temporal Voxel Layer”. [Internet]. Disponible en https://github.com/SteveMacenski/spatio_temporal_voxel_layer [50] ClearPath Robotics (s.f). “NAVIGATING WITH JACKAL”. [Internet]. Disponible en http://www.clearpathrobotics.com/assets/guides/jackal/navigation.html [51] S. Macenski. (s.f), On Use of the Spatio-Temporal Voxel Layer: A Fresh(er) look at 3D Perception for the Planar World. Presentado en ROSCon 2018. [Internet]. Disponible en: https://roscon.ros.org/2018/presentations/ROSCon2018_SpatioTemporalVoxelLayer.pdf [52] N. Hirose, A. Sadeghian, F. Xia y S. Savarese, “GONet++: Traversability Estimation via Dynamic Scene View Synthesis,” IEEE Robotics & Automation Magazine, Jun, 2018. [En línea]. Disponible en https://www.researchgate.net/publication/325986451_GONet_Traversability_Estimation_via_Dynamic_Scene_View_Synthesis [53] N. Kaiser (2017). Nu_jackal_autonav. [Internet]. Disponible en https://github.com/njkaiser/nu_jackal_autonav [54] ROS (s.f). “gps_goal”. [En línea]. Disponible en http://wiki.ros.org/ gps_goalPrograma de Ingeniería MecatrónicaEstimación de transitabilidadROSLIDARRobot móvil terrestre JackalDetección de obstáculos explícitosRobóticaRoboticsSistema de estimación de transitabilidad para robots móviles terrestresTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85PublicationTEXTT09113.pdf.txtT09113.pdf.txtExtracted texttext/plain135059https://dspace7-uao.metacatalogo.com/bitstreams/6aeec0e5-24cf-4872-a4ad-2bf2a92b802d/download962ed6d794769a77a1134e1fe1642616MD57TA9113.pdf.txtTA9113.pdf.txtExtracted texttext/plain4159https://dspace7-uao.metacatalogo.com/bitstreams/216b4b6a-06a2-4e59-b8df-36d9b3d83819/download0275431bea02a36310fa33fb53439d79MD59THUMBNAILT09113.pdf.jpgT09113.pdf.jpgGenerated Thumbnailimage/jpeg6425https://dspace7-uao.metacatalogo.com/bitstreams/b8e660bf-88b3-4dcd-9785-ebde0947eba4/download22bc4c233ed94e125ce417f4976d017dMD58TA9113.pdf.jpgTA9113.pdf.jpgGenerated Thumbnailimage/jpeg13382https://dspace7-uao.metacatalogo.com/bitstreams/bc58213a-8c9b-479a-9002-7948b2378f6b/downloada986c75ee2b8191f9a1c194120af7680MD510CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8805https://dspace7-uao.metacatalogo.com/bitstreams/925a7088-314f-4d2c-9636-024bb2b84546/download4460e5956bc1d1639be9ae6146a50347MD53LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://dspace7-uao.metacatalogo.com/bitstreams/1961be88-dd81-4448-927a-c93402aa2fc0/download20b5ba22b1117f71589c7318baa2c560MD54ORIGINALT09113.pdfT09113.pdfapplication/pdf4005006https://dspace7-uao.metacatalogo.com/bitstreams/55b4ddac-a22b-4001-9b28-3b2f7ac8aef4/downloadb02661b77d65392a4d8949e326be2bcaMD55TA9113.pdfTA9113.pdfapplication/pdf308466https://dspace7-uao.metacatalogo.com/bitstreams/861feffc-e19c-4709-a6d2-3fd4a47f4505/downloadbbafb53b926937909bdcf17f1518b488MD5610614/12242oai:dspace7-uao.metacatalogo.com:10614/122422024-01-19 16:58:31.699https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos Reservados - Universidad Autónoma de Occidenteopen.accesshttps://dspace7-uao.metacatalogo.comRepositorio UAOrepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K