Sistema de estimación de transitabilidad para robots móviles terrestres
Este documento presenta el desarrollo de un sistema de percepción robótica para estimación de transitabilidad en ambientes externos y no estructurados, así como su posterior implementación en el robot móvil terrestre Jackal. De igual manera, este proyecto está enmarcado en una de las líneas trazadas...
- Autores:
-
Rojas Cediel, Davidson Daniel
Cerquera Calderón, Andrés Felipe
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2020
- Institución:
- Universidad Autónoma de Occidente
- Repositorio:
- RED: Repositorio Educativo Digital UAO
- Idioma:
- spa
- OAI Identifier:
- oai:red.uao.edu.co:10614/12242
- Acceso en línea:
- http://red.uao.edu.co//handle/10614/12242
- Palabra clave:
- Programa de Ingeniería Mecatrónica
Estimación de transitabilidad
ROS
LIDAR
Robot móvil terrestre Jackal
Detección de obstáculos explícitos
Robótica
Robotics
- Rights
- openAccess
- License
- Derechos Reservados - Universidad Autónoma de Occidente
id |
REPOUAO2_c656b4ee4396401f6e14c7b3db47f842 |
---|---|
oai_identifier_str |
oai:red.uao.edu.co:10614/12242 |
network_acronym_str |
REPOUAO2 |
network_name_str |
RED: Repositorio Educativo Digital UAO |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Sistema de estimación de transitabilidad para robots móviles terrestres |
title |
Sistema de estimación de transitabilidad para robots móviles terrestres |
spellingShingle |
Sistema de estimación de transitabilidad para robots móviles terrestres Programa de Ingeniería Mecatrónica Estimación de transitabilidad ROS LIDAR Robot móvil terrestre Jackal Detección de obstáculos explícitos Robótica Robotics |
title_short |
Sistema de estimación de transitabilidad para robots móviles terrestres |
title_full |
Sistema de estimación de transitabilidad para robots móviles terrestres |
title_fullStr |
Sistema de estimación de transitabilidad para robots móviles terrestres |
title_full_unstemmed |
Sistema de estimación de transitabilidad para robots móviles terrestres |
title_sort |
Sistema de estimación de transitabilidad para robots móviles terrestres |
dc.creator.fl_str_mv |
Rojas Cediel, Davidson Daniel Cerquera Calderón, Andrés Felipe |
dc.contributor.advisor.spa.fl_str_mv |
Romero Cano, Victor Adolfo |
dc.contributor.author.spa.fl_str_mv |
Rojas Cediel, Davidson Daniel Cerquera Calderón, Andrés Felipe |
dc.subject.spa.fl_str_mv |
Programa de Ingeniería Mecatrónica Estimación de transitabilidad ROS LIDAR Robot móvil terrestre Jackal Detección de obstáculos explícitos |
topic |
Programa de Ingeniería Mecatrónica Estimación de transitabilidad ROS LIDAR Robot móvil terrestre Jackal Detección de obstáculos explícitos Robótica Robotics |
dc.subject.armarc.spa.fl_str_mv |
Robótica |
dc.subject.armarc.eng.fl_str_mv |
Robotics |
description |
Este documento presenta el desarrollo de un sistema de percepción robótica para estimación de transitabilidad en ambientes externos y no estructurados, así como su posterior implementación en el robot móvil terrestre Jackal. De igual manera, este proyecto está enmarcado en una de las líneas trazadas por el Semillero de Investigación en Robótica de la Universidad Autónoma de Occidente (UAO), con el fin de soportar tareas de caracterización forestal. El sistema aquí presentado permite estimar transitabilidad, mediante diferentes técnicas, basándose en la detección de obstáculos de manera explícita, para posteriormente realizar el replanteamiento de la ruta definida en un principio y, por último, su ejecución por parte del robot móvil Jackal. Es importante mencionar que, para el desarrollo del mismo, se realizó una intensa búsqueda del estado del arte en torno a los sistemas de estimación de transitabilidad, luego un tamizaje de las alternativas, combinación (o adición de librerías como PCL o Costmap2d), la re- parametrización de los mismo y el empleo de sensores LIDAR, cámara estéreo, GPS e IMU, llegando a soluciones más robustas. Por último, se realizaron pruebas físicas para determinar el correcto funcionamiento de los mismos; se debe aclarar que como middleware se empleó ROS con el soporte del lenguaje de programación C++. Además, estas pruebas se realizaron en dos etapas: dentro del laboratorio de robótica de la UAO y por fuera del mismo (ambientes externos y no estructurados), siendo la última la más importante para el presente proyecto, logrando determinar el correcto funcionamiento de los algoritmos, siempre y cuando se establezcan los parámetros correctamente. |
publishDate |
2020 |
dc.date.accessioned.spa.fl_str_mv |
2020-04-23T13:18:47Z |
dc.date.available.spa.fl_str_mv |
2020-04-23T13:18:47Z |
dc.date.issued.spa.fl_str_mv |
2020-03-09 |
dc.type.spa.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.coarversion.fl_str_mv |
http://purl.org/coar/version/c_970fb48d4fbd8a85 |
dc.type.coar.spa.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.spa.fl_str_mv |
Text |
dc.type.driver.spa.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.redcol.spa.fl_str_mv |
https://purl.org/redcol/resource_type/TP |
dc.type.version.spa.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
publishedVersion |
dc.identifier.uri.spa.fl_str_mv |
http://red.uao.edu.co//handle/10614/12242 |
url |
http://red.uao.edu.co//handle/10614/12242 |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.rights.spa.fl_str_mv |
Derechos Reservados - Universidad Autónoma de Occidente |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.uri.spa.fl_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0/ |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.creativecommons.spa.fl_str_mv |
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) |
rights_invalid_str_mv |
Derechos Reservados - Universidad Autónoma de Occidente https://creativecommons.org/licenses/by-nc-nd/4.0/ Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.spa.fl_str_mv |
application/pdf |
dc.format.extent.spa.fl_str_mv |
103 páginas |
dc.coverage.spatial.spa.fl_str_mv |
Universidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí |
dc.publisher.spa.fl_str_mv |
Universidad Autónoma de Occidente |
dc.publisher.program.spa.fl_str_mv |
Ingeniería Mecatrónica |
dc.publisher.department.spa.fl_str_mv |
Departamento de Automática y Electrónica |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ingeniería |
dc.source.spa.fl_str_mv |
instname:Universidad Autónoma de Occidente reponame:Repositorio Institucional UAO |
instname_str |
Universidad Autónoma de Occidente |
institution |
Universidad Autónoma de Occidente |
reponame_str |
Repositorio Institucional UAO |
collection |
Repositorio Institucional UAO |
dc.source.bibliographiccitation.spa.fl_str_mv |
[1] R. Hudda, C. Kelly, G. Long, A. Pandit, D. Phillips, L. Sheet y I. Sidhu. (2013, mayo). “Self-Driving Cars,” College of Engineering University of California, Berkeley, CA, Estados Unidos. [En línea]. Disponible: https://ikhlaqsidhu.files.wordpress.com/ 2013/06/self_driving_cars.pdf [2] D. Xie, Y. Xu y R. Wang, “Obstacle detection and tracking method for autonomous vehicle based on three-dimensional LiDAR,” International Journal of Advanced Robotic Systems, Mar, 2019. doi: 10.1177/1729881419831587, [3] B. Browning, J. Deschaud, D. Prasser y P. Rander, “3D Mapping for high-fidelity unmanned ground vehicle lidar simulation,” The International Journal of Robotics Research, vol. 31, pp. 1349–1376, Nov, 2012. doi: 10.1177/0278364912460288 [4] C. Yee y J. Borenstein, “Characterization of a 2D Laser Scanner for Mobile Robot Obstacle Negotiation,” presentado en la 2002 IEEE International Conference on Robotics and Automation [En línea]. Disponible: https://ieeexplore.ieee.org/document/1013609 [5] H. Baltzakis, A. Argyros y P. Trahanias. “Fusion of laser and visual data for robot motion planning and collision avoidance,” Machine Vision and Applications, vol. 15, issue 2, pp, 92–100, dic. 2003. doi: 10.1007/s00138-003-0133-2 [6] K. Nagatani et al., "Multi-robot exploration for search and rescue missions: A report of map building in RoboCupRescue 2009," presentado en la 2009 IEEE International Workshop on Safety, Security & Rescue Robotics (SSRR), Denver, CO. doi: 10.1109/SSRR.2009.5424148 [7] L. Smadja, J. Ninot, y T. Gavrilovic, “Road extraction and environment interpretation from lidar sensors,” ISPRS. Arch., vol. 38, no. 3a, pp. 281–286, sep. 2010. [8] C. Cadena, L. Carlone, H. Carrillo, Y. Latif, D. Scaramuzza, J. Neira, I. Reid y J. Leonard. “Simultaneous Localization and Mapping: Present, Future, and the Robust-Perception Age,” IEEE Transactions on Robotics, vol. 32 , issue 6, dic, 2016. doi: 10.1109/TRO.2016.2624754 [9] C. Goodin, M. Doude, C. Hudson y D. Carruth. “Enabling Off-Road Autonomous Navigation-Simulation of LIDAR in Dense Vegetation,” Electronics, vol. 7, no. 9, p. 154, ago, 2018. doi: 10.3390/electronics7090154 [10] Y. Broche, L. Herrera y E. Omar, “Bases neurales de la toma de decisiones,” Neurología, vol. 31, pp. 319-325, may, 2015. doi: 10.1016/j.nrl.2015.03.001 [11] L. Hofer. “Decision-making algorithms for autonomous robots,” Ph.D. disertación, École Doctorale de Mathématiques et D’Informatique, Université de Bordeaux, Bordeaux, Francia, 2017. Disponible en https://tel.archives-ouvertes.fr/tel-01684198 [12] I. Harner. (2017, Oct 23). “The 5 Autonomous Driving Levels Explained”. [Internet]. Disponible en https://iotforall.com/5-autonomous-driving-levels-explained [13] Waymo Industry (2009). “Our Mission”. [Internet]. Disponible en: https://waymo.com/mission [14] I. Bogoslavsky, O. Vysotska, J. Serafin, G. Grisetti y C. Stachniss, “Efficient traversability analysis for mobile robots using the Kinect sensor,” presentado en la 2013 European Conference on Mobile Robots, Barcelona, CA, doi: 10.1109/ECMR.2013.6698836 [15] G. Reina, A. Milella y R. Rouveure, “Traversability Analysis for Off-Road Vehicles using Stereo and Radar Data,” presentado en la 2015 IEEE International Conf. on Industrial Technology (ICIT), Sevilla, AND, doi: 10.1109/ICIT.2015.7125155 [16] X. Huang, C. Shuai y X. Wu, “Reactive navigation of autonomous vehicle,” Journal of Physics: Conf. Series, vol. 1176, pp. 52-79, mar, 2019. doi: 10.1088/1742-6596/1176/5/052079 [17] A. Souza, R. Maia, R. Aroca y L. Gonçalves, “Probabilistic robotic grid mapping based on occupancy and elevation information,” presentado en la 2013 16th International Conf. on Advanced Robotics, (ICAR), Montevideo, BA. doi: 10.1109/ICAR.2013.6766467 [18] A. Elfes, "Using occupancy grids for mobile robot perception and navigation," Computer, vol. 22, no. 6, pp. 46-57, jun, 1989. doi: 10.1109/2.30720 [19] Y. Liu, R. Emery, D. Chakrabarti, W. Burgard, y S. Thrun, “Using EM to learn 3D models with mobile robots,” en the International Conference on Machine Learning (ICML), San Francisco, 2001, pp. 329-336. [20] P. Pfaff, R. Triebel, y W. Burgard, “An efficient extension to elevation maps for outdoor terrain mapping and loop closing,” The International Journal of Robotics Research, vol. 26, no. 217, pp. 217–230, feb, 2007. doi: 10.1177/0278364906075165 [21] L. Berczi, I. Posner, y T. Barfoot, “Learning to Assess Terrain From Human Demonstration Using an Introspective Gaussian Process Classifier,” presentado en la 2015 IEEE International Conference on Robotics and Automation (ICRA), Seattle, WA. doi: 10.1109/ICRA.2015.7139637 [22] S. Goldberg, W. Maimone, y L. Matthies, “Stereo Vision and Rover Navigation Software for Planetary Exploration,” Proceedings, IEEE Aerospace Conference, vol. 5, pp. 5-5, ene, 2002. doi: 10.1109/AERO.2002.1035370 [23] K. Ho, T. Peynot, y S. Sukkarieh, “Traversability Estimation for a Planetary Rover Via Experimental Kernel Learning in a Gaussian Process Framework,” presentado en la IEEE International Conference on Robotics and Automation (ICRA), Karlsruhe, BA, 2013. [24] P. Ross, A. English, D. Ball, B. Upcroft y P. Corke, “Finding the ground hidden in the grass: traversability estimation in vegetation,” Maestria, School of Electrical Engineering and Computer Science, Queensland University of Technology., Brisbane, Australia, 2015. Disponible en http://www.araa.asn.au/acra/acra2015/papers/pap105.pdf [25] J. Berrío, “Mapeo y Localización Simultánea de un robot móvil en ambientes estructurados basado en integración sensorial,” Maestria, Fac. Ingeniería., Universidad del Valle, Santiago de Cali, Valle del Cauca, Colombia. 2015. Disponible en http://hdl.handle.net/10893/8843 [26] J. Kocic, N. Jovičić y V. Drndarevic, “Sensors and Sensor Fusion in Autonomous Vehicles,” en 26th Telecommunications Forum (TELFOR), 2018, pp. 420-425. [27] J. Sock, J. Kim, J. Min y K. Kwak, "Probabilistic traversability map generation using 3D-LIDAR and camera," en IEEE International Conference on Robotics and Automation (ICRA), Stockholm, 2016, pp. 5631-5637. [28] N. Hirose, A. Sadeghian, F. Xia, R. Martin-Martin y S. Savarese, “VUNet: Dynamic Scene View Synthesis for Traversability Estimation using an RGB Camera,” IEEE Robotics and Automation Letters, vol. 4, issue 2, pp. 2062 – 2069, ene, 2019. doi: 10.1109/LRA.2019.2894869 [29] G. De Cubber, D. Doroftei, H. Sahli y Y. Baudoin, “Outdoor Terrain Traversability Analysis for Robot Navigation using a Time-Of-Flight Camera,” presentado en la RGB-D Workshop on 3D Perception in Robotics, Odense, DK, 2011. [30] NASA, (2003), “Rover Driving”. [Internet], Disponible en: https://www-robotics.jpl.nasa.gov/roboticVideos/vid1016-70-browse.jpg [31] ROSWIKI, (2019). “Turtlebot tango”. [Internet], Disponible en: http://ros.fei.edu.br/roswiki/attachments/rtabmap_ros(2f)Tutorials(2f)Tango(20)ROS(20)Streamer/turtlebot_tango.png [32] R. Chavez, J. Guzzi, L. Gambardella y A. Giusti, “Image Classification for Ground Traversability Estimation in Robotics,” en International Conference on Advanced Concepts for Intelligent Vision Systems(ICACI), 2017, pp. 325-336. [33] Jackal Unmanned Ground Vehicle (s.f). [Internet]. Disponible en https://clearpathrobotics.com/jackal-small-unmanned-ground-vehicle/ [34] GEFORCE (s.f). [Internet]. Disponible en https://www.nvidia.com/es-la/geforce/ products/10series/geforce-gtx-1050/ [35] T. Giménez y M. Ros. “SISTEMA DE POSICIONAMIENTO GLOBAL (GPS),” Universidad de Murcia, Región de Murcia, Murcia, España, 2010. [En línea]. Disponible en: https://webs.um.es/bussons/GPSresumen_TamaraElena.pdf [36] BigComerse (s.f) “Thingmagic Xpress Sensor Hub Plug-In Gps Interface Module”. [Internet]. Disponible en https://cdn1.bigcommerce.com/n-ww20x/ka7ofex/products/1758/images/4254/GPS__23111.1434050193.1280.1280.jpg [37] A. Chaudhry, C. Shih, A. Skillin y D. Witcpalek, “Inertial Measurement Units,” University of Michigan., Ann Arbor, MI, Estados Unidos, nov, 12, 2018. [En línea]. Disponible en: https://www.eecs.umich.edu/courses/eecs373/Lec/StudentF18/ 373%20IMU%20Presentation.pdf [38] Clearpath robotics (s.f). “Puck lite”. [Internet]. Disponible en https://store.clearpathrobotics.com/products/puck-lite [39] StereoLabs (s.f). “ZED”. [Internet]. Disponible en https://www.stereolabs.com/zed/ [40] ROS (s.f). “What is Ros?”. [Internet]. Disponible en http://wiki.ros.org/ROS/Introduction [41] Baxter Research Robot (s.f). “Rviz - sdk-wiki”. [Internet]. Disponible en http://sdk.rethinkrobotics.com/wiki/Rviz [42] pcl (s.f). “What is PCL?”. [Internet]. Disponible en http://pointclouds.org/about/ [43] ROS (s.f). “nodelet”. [Internet]. Disponible en http://wiki.ros.org/nodelet [44] ROS (s.f). “pluginlib”. [En línea]. Disponible en http://wiki.ros.org/pluginlib [45] ROS (s.f). “costmap_2d”. [Internet]. Disponible en http://wiki.ros.org/costmap_2d [46] ROS (s.f). “navigation”. [Internet]. Disponible en: http://wiki.ros.org/navigation [47] ROS (s.f). “PointCloud to LaserScan”. [Internet]. Disponible en: http://wiki.ros.org/pointcloud_to_laserscan [48] H. Oleynikova, Z. Taylor, M. Fehr, J. Nieto y R. Siegwart, “Voxblox: Incremental 3D Euclidean Signed Distance Fields for On-Board MAV Planning,” en IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). [En línea], Disponible en https://arxiv.org/abs/1611.03631 [49] S. Macenski (s.f). “Spatio-Temporal Voxel Layer”. [Internet]. Disponible en https://github.com/SteveMacenski/spatio_temporal_voxel_layer [50] ClearPath Robotics (s.f). “NAVIGATING WITH JACKAL”. [Internet]. Disponible en http://www.clearpathrobotics.com/assets/guides/jackal/navigation.html [51] S. Macenski. (s.f), On Use of the Spatio-Temporal Voxel Layer: A Fresh(er) look at 3D Perception for the Planar World. Presentado en ROSCon 2018. [Internet]. Disponible en: https://roscon.ros.org/2018/presentations/ROSCon2018_SpatioTemporalVoxelLayer.pdf [52] N. Hirose, A. Sadeghian, F. Xia y S. Savarese, “GONet++: Traversability Estimation via Dynamic Scene View Synthesis,” IEEE Robotics & Automation Magazine, Jun, 2018. [En línea]. Disponible en https://www.researchgate.net/publication/325986451_GONet_Traversability_Estimation_via_Dynamic_Scene_View_Synthesis [53] N. Kaiser (2017). Nu_jackal_autonav. [Internet]. Disponible en https://github.com/njkaiser/nu_jackal_autonav [54] ROS (s.f). “gps_goal”. [En línea]. Disponible en http://wiki.ros.org/ gps_goal |
bitstream.url.fl_str_mv |
https://dspace7-uao.metacatalogo.com/bitstreams/6aeec0e5-24cf-4872-a4ad-2bf2a92b802d/download https://dspace7-uao.metacatalogo.com/bitstreams/216b4b6a-06a2-4e59-b8df-36d9b3d83819/download https://dspace7-uao.metacatalogo.com/bitstreams/b8e660bf-88b3-4dcd-9785-ebde0947eba4/download https://dspace7-uao.metacatalogo.com/bitstreams/bc58213a-8c9b-479a-9002-7948b2378f6b/download https://dspace7-uao.metacatalogo.com/bitstreams/925a7088-314f-4d2c-9636-024bb2b84546/download https://dspace7-uao.metacatalogo.com/bitstreams/1961be88-dd81-4448-927a-c93402aa2fc0/download https://dspace7-uao.metacatalogo.com/bitstreams/55b4ddac-a22b-4001-9b28-3b2f7ac8aef4/download https://dspace7-uao.metacatalogo.com/bitstreams/861feffc-e19c-4709-a6d2-3fd4a47f4505/download |
bitstream.checksum.fl_str_mv |
962ed6d794769a77a1134e1fe1642616 0275431bea02a36310fa33fb53439d79 22bc4c233ed94e125ce417f4976d017d a986c75ee2b8191f9a1c194120af7680 4460e5956bc1d1639be9ae6146a50347 20b5ba22b1117f71589c7318baa2c560 b02661b77d65392a4d8949e326be2bca bbafb53b926937909bdcf17f1518b488 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio UAO |
repository.mail.fl_str_mv |
repositorio@uao.edu.co |
_version_ |
1814260089893158912 |
spelling |
Romero Cano, Victor Adolfo6e79be7b8aa957fba6721fd97907059a-1Rojas Cediel, Davidson Daniel14243ad36be719bb60a6e0284df78ce7-1Cerquera Calderón, Andrés Felipe99c41e053fd374357f0ed648d3f923a1-1Ingeniero MecatrónicoUniversidad Autónoma de Occidente. Calle 25 115-85. Km 2 vía Cali-Jamundí2020-04-23T13:18:47Z2020-04-23T13:18:47Z2020-03-09http://red.uao.edu.co//handle/10614/12242Este documento presenta el desarrollo de un sistema de percepción robótica para estimación de transitabilidad en ambientes externos y no estructurados, así como su posterior implementación en el robot móvil terrestre Jackal. De igual manera, este proyecto está enmarcado en una de las líneas trazadas por el Semillero de Investigación en Robótica de la Universidad Autónoma de Occidente (UAO), con el fin de soportar tareas de caracterización forestal. El sistema aquí presentado permite estimar transitabilidad, mediante diferentes técnicas, basándose en la detección de obstáculos de manera explícita, para posteriormente realizar el replanteamiento de la ruta definida en un principio y, por último, su ejecución por parte del robot móvil Jackal. Es importante mencionar que, para el desarrollo del mismo, se realizó una intensa búsqueda del estado del arte en torno a los sistemas de estimación de transitabilidad, luego un tamizaje de las alternativas, combinación (o adición de librerías como PCL o Costmap2d), la re- parametrización de los mismo y el empleo de sensores LIDAR, cámara estéreo, GPS e IMU, llegando a soluciones más robustas. Por último, se realizaron pruebas físicas para determinar el correcto funcionamiento de los mismos; se debe aclarar que como middleware se empleó ROS con el soporte del lenguaje de programación C++. Además, estas pruebas se realizaron en dos etapas: dentro del laboratorio de robótica de la UAO y por fuera del mismo (ambientes externos y no estructurados), siendo la última la más importante para el presente proyecto, logrando determinar el correcto funcionamiento de los algoritmos, siempre y cuando se establezcan los parámetros correctamente.This project presents the development of a robotic perception system for estimating transitability in external and unstructured environments, as well as its subsequent implementation in the land mobile robot Jackal. Similarly, this project is framed in one of the lines drawn by the Semillero de Investigación en Robótica de la Universidad Autónoma de Occidente (UAO), in order to support forest characterization tasks. The system presented here allows to estimate transitability, through different techniques, based on the detection of obstacles in an explicit way, to later carry out the rethinking of the route defined at the beginning and, finally, its execution by Jackal. It is important to mention that, for the development of the same one, an intense search of the state of the art was made around the systems of estimation of transitability, then a sifting of the alternatives, combination (or addition of libraries like PCL or Costmap2d), the re-parametrization of the same ones and the use of sensors LIDAR, stereo camera, GPS and IMU, arriving at more robust solutions. Finally, physical tests were carried out to determine the correct functioning of the same; it should be clarified that ROS was used as middleware with the support of the C++ programming language. In addition, these tests were performed in two stages: inside the robotics laboratory of the UAO and outside it (external and unstructured environments), the latter being the most important for the present project, managing to determine the proper functioning of the algorithms, as long as the parameters are established correctly.Pasantía de investigación (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2020PregradoIngeniero(a) Mecatrónico(a)application/pdf103 páginasspaUniversidad Autónoma de OccidenteIngeniería MecatrónicaDepartamento de Automática y ElectrónicaFacultad de IngenieríaDerechos Reservados - Universidad Autónoma de Occidentehttps://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2instname:Universidad Autónoma de Occidentereponame:Repositorio Institucional UAO[1] R. Hudda, C. Kelly, G. Long, A. Pandit, D. Phillips, L. Sheet y I. Sidhu. (2013, mayo). “Self-Driving Cars,” College of Engineering University of California, Berkeley, CA, Estados Unidos. [En línea]. Disponible: https://ikhlaqsidhu.files.wordpress.com/ 2013/06/self_driving_cars.pdf [2] D. Xie, Y. Xu y R. Wang, “Obstacle detection and tracking method for autonomous vehicle based on three-dimensional LiDAR,” International Journal of Advanced Robotic Systems, Mar, 2019. doi: 10.1177/1729881419831587, [3] B. Browning, J. Deschaud, D. Prasser y P. Rander, “3D Mapping for high-fidelity unmanned ground vehicle lidar simulation,” The International Journal of Robotics Research, vol. 31, pp. 1349–1376, Nov, 2012. doi: 10.1177/0278364912460288 [4] C. Yee y J. Borenstein, “Characterization of a 2D Laser Scanner for Mobile Robot Obstacle Negotiation,” presentado en la 2002 IEEE International Conference on Robotics and Automation [En línea]. Disponible: https://ieeexplore.ieee.org/document/1013609 [5] H. Baltzakis, A. Argyros y P. Trahanias. “Fusion of laser and visual data for robot motion planning and collision avoidance,” Machine Vision and Applications, vol. 15, issue 2, pp, 92–100, dic. 2003. doi: 10.1007/s00138-003-0133-2 [6] K. Nagatani et al., "Multi-robot exploration for search and rescue missions: A report of map building in RoboCupRescue 2009," presentado en la 2009 IEEE International Workshop on Safety, Security & Rescue Robotics (SSRR), Denver, CO. doi: 10.1109/SSRR.2009.5424148 [7] L. Smadja, J. Ninot, y T. Gavrilovic, “Road extraction and environment interpretation from lidar sensors,” ISPRS. Arch., vol. 38, no. 3a, pp. 281–286, sep. 2010. [8] C. Cadena, L. Carlone, H. Carrillo, Y. Latif, D. Scaramuzza, J. Neira, I. Reid y J. Leonard. “Simultaneous Localization and Mapping: Present, Future, and the Robust-Perception Age,” IEEE Transactions on Robotics, vol. 32 , issue 6, dic, 2016. doi: 10.1109/TRO.2016.2624754 [9] C. Goodin, M. Doude, C. Hudson y D. Carruth. “Enabling Off-Road Autonomous Navigation-Simulation of LIDAR in Dense Vegetation,” Electronics, vol. 7, no. 9, p. 154, ago, 2018. doi: 10.3390/electronics7090154 [10] Y. Broche, L. Herrera y E. Omar, “Bases neurales de la toma de decisiones,” Neurología, vol. 31, pp. 319-325, may, 2015. doi: 10.1016/j.nrl.2015.03.001 [11] L. Hofer. “Decision-making algorithms for autonomous robots,” Ph.D. disertación, École Doctorale de Mathématiques et D’Informatique, Université de Bordeaux, Bordeaux, Francia, 2017. Disponible en https://tel.archives-ouvertes.fr/tel-01684198 [12] I. Harner. (2017, Oct 23). “The 5 Autonomous Driving Levels Explained”. [Internet]. Disponible en https://iotforall.com/5-autonomous-driving-levels-explained [13] Waymo Industry (2009). “Our Mission”. [Internet]. Disponible en: https://waymo.com/mission [14] I. Bogoslavsky, O. Vysotska, J. Serafin, G. Grisetti y C. Stachniss, “Efficient traversability analysis for mobile robots using the Kinect sensor,” presentado en la 2013 European Conference on Mobile Robots, Barcelona, CA, doi: 10.1109/ECMR.2013.6698836 [15] G. Reina, A. Milella y R. Rouveure, “Traversability Analysis for Off-Road Vehicles using Stereo and Radar Data,” presentado en la 2015 IEEE International Conf. on Industrial Technology (ICIT), Sevilla, AND, doi: 10.1109/ICIT.2015.7125155 [16] X. Huang, C. Shuai y X. Wu, “Reactive navigation of autonomous vehicle,” Journal of Physics: Conf. Series, vol. 1176, pp. 52-79, mar, 2019. doi: 10.1088/1742-6596/1176/5/052079 [17] A. Souza, R. Maia, R. Aroca y L. Gonçalves, “Probabilistic robotic grid mapping based on occupancy and elevation information,” presentado en la 2013 16th International Conf. on Advanced Robotics, (ICAR), Montevideo, BA. doi: 10.1109/ICAR.2013.6766467 [18] A. Elfes, "Using occupancy grids for mobile robot perception and navigation," Computer, vol. 22, no. 6, pp. 46-57, jun, 1989. doi: 10.1109/2.30720 [19] Y. Liu, R. Emery, D. Chakrabarti, W. Burgard, y S. Thrun, “Using EM to learn 3D models with mobile robots,” en the International Conference on Machine Learning (ICML), San Francisco, 2001, pp. 329-336. [20] P. Pfaff, R. Triebel, y W. Burgard, “An efficient extension to elevation maps for outdoor terrain mapping and loop closing,” The International Journal of Robotics Research, vol. 26, no. 217, pp. 217–230, feb, 2007. doi: 10.1177/0278364906075165 [21] L. Berczi, I. Posner, y T. Barfoot, “Learning to Assess Terrain From Human Demonstration Using an Introspective Gaussian Process Classifier,” presentado en la 2015 IEEE International Conference on Robotics and Automation (ICRA), Seattle, WA. doi: 10.1109/ICRA.2015.7139637 [22] S. Goldberg, W. Maimone, y L. Matthies, “Stereo Vision and Rover Navigation Software for Planetary Exploration,” Proceedings, IEEE Aerospace Conference, vol. 5, pp. 5-5, ene, 2002. doi: 10.1109/AERO.2002.1035370 [23] K. Ho, T. Peynot, y S. Sukkarieh, “Traversability Estimation for a Planetary Rover Via Experimental Kernel Learning in a Gaussian Process Framework,” presentado en la IEEE International Conference on Robotics and Automation (ICRA), Karlsruhe, BA, 2013. [24] P. Ross, A. English, D. Ball, B. Upcroft y P. Corke, “Finding the ground hidden in the grass: traversability estimation in vegetation,” Maestria, School of Electrical Engineering and Computer Science, Queensland University of Technology., Brisbane, Australia, 2015. Disponible en http://www.araa.asn.au/acra/acra2015/papers/pap105.pdf [25] J. Berrío, “Mapeo y Localización Simultánea de un robot móvil en ambientes estructurados basado en integración sensorial,” Maestria, Fac. Ingeniería., Universidad del Valle, Santiago de Cali, Valle del Cauca, Colombia. 2015. Disponible en http://hdl.handle.net/10893/8843 [26] J. Kocic, N. Jovičić y V. Drndarevic, “Sensors and Sensor Fusion in Autonomous Vehicles,” en 26th Telecommunications Forum (TELFOR), 2018, pp. 420-425. [27] J. Sock, J. Kim, J. Min y K. Kwak, "Probabilistic traversability map generation using 3D-LIDAR and camera," en IEEE International Conference on Robotics and Automation (ICRA), Stockholm, 2016, pp. 5631-5637. [28] N. Hirose, A. Sadeghian, F. Xia, R. Martin-Martin y S. Savarese, “VUNet: Dynamic Scene View Synthesis for Traversability Estimation using an RGB Camera,” IEEE Robotics and Automation Letters, vol. 4, issue 2, pp. 2062 – 2069, ene, 2019. doi: 10.1109/LRA.2019.2894869 [29] G. De Cubber, D. Doroftei, H. Sahli y Y. Baudoin, “Outdoor Terrain Traversability Analysis for Robot Navigation using a Time-Of-Flight Camera,” presentado en la RGB-D Workshop on 3D Perception in Robotics, Odense, DK, 2011. [30] NASA, (2003), “Rover Driving”. [Internet], Disponible en: https://www-robotics.jpl.nasa.gov/roboticVideos/vid1016-70-browse.jpg [31] ROSWIKI, (2019). “Turtlebot tango”. [Internet], Disponible en: http://ros.fei.edu.br/roswiki/attachments/rtabmap_ros(2f)Tutorials(2f)Tango(20)ROS(20)Streamer/turtlebot_tango.png [32] R. Chavez, J. Guzzi, L. Gambardella y A. Giusti, “Image Classification for Ground Traversability Estimation in Robotics,” en International Conference on Advanced Concepts for Intelligent Vision Systems(ICACI), 2017, pp. 325-336. [33] Jackal Unmanned Ground Vehicle (s.f). [Internet]. Disponible en https://clearpathrobotics.com/jackal-small-unmanned-ground-vehicle/ [34] GEFORCE (s.f). [Internet]. Disponible en https://www.nvidia.com/es-la/geforce/ products/10series/geforce-gtx-1050/ [35] T. Giménez y M. Ros. “SISTEMA DE POSICIONAMIENTO GLOBAL (GPS),” Universidad de Murcia, Región de Murcia, Murcia, España, 2010. [En línea]. Disponible en: https://webs.um.es/bussons/GPSresumen_TamaraElena.pdf [36] BigComerse (s.f) “Thingmagic Xpress Sensor Hub Plug-In Gps Interface Module”. [Internet]. Disponible en https://cdn1.bigcommerce.com/n-ww20x/ka7ofex/products/1758/images/4254/GPS__23111.1434050193.1280.1280.jpg [37] A. Chaudhry, C. Shih, A. Skillin y D. Witcpalek, “Inertial Measurement Units,” University of Michigan., Ann Arbor, MI, Estados Unidos, nov, 12, 2018. [En línea]. Disponible en: https://www.eecs.umich.edu/courses/eecs373/Lec/StudentF18/ 373%20IMU%20Presentation.pdf [38] Clearpath robotics (s.f). “Puck lite”. [Internet]. Disponible en https://store.clearpathrobotics.com/products/puck-lite [39] StereoLabs (s.f). “ZED”. [Internet]. Disponible en https://www.stereolabs.com/zed/ [40] ROS (s.f). “What is Ros?”. [Internet]. Disponible en http://wiki.ros.org/ROS/Introduction [41] Baxter Research Robot (s.f). “Rviz - sdk-wiki”. [Internet]. Disponible en http://sdk.rethinkrobotics.com/wiki/Rviz [42] pcl (s.f). “What is PCL?”. [Internet]. Disponible en http://pointclouds.org/about/ [43] ROS (s.f). “nodelet”. [Internet]. Disponible en http://wiki.ros.org/nodelet [44] ROS (s.f). “pluginlib”. [En línea]. Disponible en http://wiki.ros.org/pluginlib [45] ROS (s.f). “costmap_2d”. [Internet]. Disponible en http://wiki.ros.org/costmap_2d [46] ROS (s.f). “navigation”. [Internet]. Disponible en: http://wiki.ros.org/navigation [47] ROS (s.f). “PointCloud to LaserScan”. [Internet]. Disponible en: http://wiki.ros.org/pointcloud_to_laserscan [48] H. Oleynikova, Z. Taylor, M. Fehr, J. Nieto y R. Siegwart, “Voxblox: Incremental 3D Euclidean Signed Distance Fields for On-Board MAV Planning,” en IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). [En línea], Disponible en https://arxiv.org/abs/1611.03631 [49] S. Macenski (s.f). “Spatio-Temporal Voxel Layer”. [Internet]. Disponible en https://github.com/SteveMacenski/spatio_temporal_voxel_layer [50] ClearPath Robotics (s.f). “NAVIGATING WITH JACKAL”. [Internet]. Disponible en http://www.clearpathrobotics.com/assets/guides/jackal/navigation.html [51] S. Macenski. (s.f), On Use of the Spatio-Temporal Voxel Layer: A Fresh(er) look at 3D Perception for the Planar World. Presentado en ROSCon 2018. [Internet]. Disponible en: https://roscon.ros.org/2018/presentations/ROSCon2018_SpatioTemporalVoxelLayer.pdf [52] N. Hirose, A. Sadeghian, F. Xia y S. Savarese, “GONet++: Traversability Estimation via Dynamic Scene View Synthesis,” IEEE Robotics & Automation Magazine, Jun, 2018. [En línea]. Disponible en https://www.researchgate.net/publication/325986451_GONet_Traversability_Estimation_via_Dynamic_Scene_View_Synthesis [53] N. Kaiser (2017). Nu_jackal_autonav. [Internet]. Disponible en https://github.com/njkaiser/nu_jackal_autonav [54] ROS (s.f). “gps_goal”. [En línea]. Disponible en http://wiki.ros.org/ gps_goalPrograma de Ingeniería MecatrónicaEstimación de transitabilidadROSLIDARRobot móvil terrestre JackalDetección de obstáculos explícitosRobóticaRoboticsSistema de estimación de transitabilidad para robots móviles terrestresTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85PublicationTEXTT09113.pdf.txtT09113.pdf.txtExtracted texttext/plain135059https://dspace7-uao.metacatalogo.com/bitstreams/6aeec0e5-24cf-4872-a4ad-2bf2a92b802d/download962ed6d794769a77a1134e1fe1642616MD57TA9113.pdf.txtTA9113.pdf.txtExtracted texttext/plain4159https://dspace7-uao.metacatalogo.com/bitstreams/216b4b6a-06a2-4e59-b8df-36d9b3d83819/download0275431bea02a36310fa33fb53439d79MD59THUMBNAILT09113.pdf.jpgT09113.pdf.jpgGenerated Thumbnailimage/jpeg6425https://dspace7-uao.metacatalogo.com/bitstreams/b8e660bf-88b3-4dcd-9785-ebde0947eba4/download22bc4c233ed94e125ce417f4976d017dMD58TA9113.pdf.jpgTA9113.pdf.jpgGenerated Thumbnailimage/jpeg13382https://dspace7-uao.metacatalogo.com/bitstreams/bc58213a-8c9b-479a-9002-7948b2378f6b/downloada986c75ee2b8191f9a1c194120af7680MD510CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8805https://dspace7-uao.metacatalogo.com/bitstreams/925a7088-314f-4d2c-9636-024bb2b84546/download4460e5956bc1d1639be9ae6146a50347MD53LICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://dspace7-uao.metacatalogo.com/bitstreams/1961be88-dd81-4448-927a-c93402aa2fc0/download20b5ba22b1117f71589c7318baa2c560MD54ORIGINALT09113.pdfT09113.pdfapplication/pdf4005006https://dspace7-uao.metacatalogo.com/bitstreams/55b4ddac-a22b-4001-9b28-3b2f7ac8aef4/downloadb02661b77d65392a4d8949e326be2bcaMD55TA9113.pdfTA9113.pdfapplication/pdf308466https://dspace7-uao.metacatalogo.com/bitstreams/861feffc-e19c-4709-a6d2-3fd4a47f4505/downloadbbafb53b926937909bdcf17f1518b488MD5610614/12242oai:dspace7-uao.metacatalogo.com:10614/122422024-01-19 16:58:31.699https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos Reservados - Universidad Autónoma de Occidenteopen.accesshttps://dspace7-uao.metacatalogo.comRepositorio UAOrepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K |