Desarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructurados

El presente proyecto consistió en el desarrollo de un sistema de percepción capaz de localizar tanto métrica como topológicamente un robot móvil tipo Ackermann en ambientes semiestructurados. Este sistema de percepción se dividió en dos partes, la primera en la ubicación del robot métricamente por c...

Full description

Autores:
Escobar Montoya, Diego Alejandro
Rico Romero, Juan David
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2021
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/13025
Acceso en línea:
https://hdl.handle.net/10614/13025
https://red.uao.edu.co/
Palabra clave:
Ingeniería Mecatrónica
Ackermann
Sensor
Semiestructurados
Propioceptivo
Robótica
Robotics
Rights
openAccess
License
Derechos reservados - Universidad Autónoma de Occidente, 2021
id REPOUAO2_4edf80c238216808c142f097c6118647
oai_identifier_str oai:red.uao.edu.co:10614/13025
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Desarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructurados
title Desarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructurados
spellingShingle Desarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructurados
Ingeniería Mecatrónica
Ackermann
Sensor
Semiestructurados
Propioceptivo
Robótica
Robotics
title_short Desarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructurados
title_full Desarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructurados
title_fullStr Desarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructurados
title_full_unstemmed Desarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructurados
title_sort Desarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructurados
dc.creator.fl_str_mv Escobar Montoya, Diego Alejandro
Rico Romero, Juan David
dc.contributor.advisor.none.fl_str_mv Romero Cano, Victor Adolfo
dc.contributor.author.none.fl_str_mv Escobar Montoya, Diego Alejandro
Rico Romero, Juan David
dc.contributor.corporatename.spa.fl_str_mv Universidad Autónoma de Occidente
dc.subject.spa.fl_str_mv Ingeniería Mecatrónica
Ackermann
Sensor
Semiestructurados
Propioceptivo
topic Ingeniería Mecatrónica
Ackermann
Sensor
Semiestructurados
Propioceptivo
Robótica
Robotics
dc.subject.armarc.spa.fl_str_mv Robótica
dc.subject.armarc.eng.fl_str_mv Robotics
description El presente proyecto consistió en el desarrollo de un sistema de percepción capaz de localizar tanto métrica como topológicamente un robot móvil tipo Ackermann en ambientes semiestructurados. Este sistema de percepción se dividió en dos partes, la primera en la ubicación del robot métricamente por coordenadas cartesianas y la y la segunda en la identificación de lugares del entorno de trabajo por visión computacional (redes neuronales convolucionales). El primer sistema utilizó sensores propioceptivos como lo son el IMU y los encoders de los motores, con el fin de generar la localización métrica del modelo físico en un plano cartesiano. Asimismo, este sistema empleó la ubicación virtual del robot contenido en el simulador Gazebo, con el objetivo de estimar una “super” odometría con error pequeño respecto a la medida real del entorno; resaltando que la odometría final calculada por el sistema, utilizó un filtro de Kalman el cual generaba la estimación en base al conjunto de información de la entradas (localización real y virtual). Por otro lado, el segundo sistema empleó un tipo de red neuronal artificial capaz de identificar objetos en imágenes digitales. Esta red fue la CNN o red neuronal convolucional, la cual permitió la localización de objetos o lugares contenidos en una imagen digital. Adicionalmente, para la adquisición de datos de dicha red, se empleó una cámara monocular con transmisión de datos por puerto USB, de igual manera fue utilizada para obtener imágenes de validación para el sistema topológico, cada uno de estos sistemas estuvo compuesto por una serie de programas y nodos de ROS, que al integrarse y complementarse con un entorno simulado (Gazebo) permitieron la unificación de sistemas (métrico y topológico). Finalmente el objetivo de este proyecto, es servir como base para un robot guía de personas al interior del campus de la Universidad Autónoma de Occidente específicamente en el sótano dos, basados en una plataforma robótica tipo Ackermann ya existente en la universidad.
publishDate 2021
dc.date.accessioned.none.fl_str_mv 2021-06-04T22:39:13Z
dc.date.available.none.fl_str_mv 2021-06-04T22:39:13Z
dc.date.issued.none.fl_str_mv 2021-05-28
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_71e4c1898caa6e32
dc.type.coar.eng.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.eng.fl_str_mv Text
dc.type.driver.eng.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.eng.fl_str_mv https://purl.org/redcol/resource_type/TP
format http://purl.org/coar/resource_type/c_7a1f
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/10614/13025
dc.identifier.instname.spa.fl_str_mv Universidad Autónoma de Occidente
dc.identifier.reponame.spa.fl_str_mv Repositorio Educativo Digital
dc.identifier.repourl.spa.fl_str_mv https://red.uao.edu.co/
url https://hdl.handle.net/10614/13025
https://red.uao.edu.co/
identifier_str_mv Universidad Autónoma de Occidente
Repositorio Educativo Digital
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.none.fl_str_mv [1] Q. Lin, X. Liu and Z. Zhang, "Mobile Robot Self-LocalizationUsing Visual Odometry Based on eiling Vision," 2019 IEEE Symposium Series on Computational Intelligence (SSCI), 2019, pp. 1435-1439, doi: 10.1109/SSCI44817.2019.9003092.
[2] C. Lee, H. Lee, I. Hwang and B. Zhang, "Spatial Perception by Object-Aware Visual Scene Representation", Openaccess.thecvf.com, 2019. .[En línea]. Disponible en: https://openaccess.thecvf.com/content_ICCVW_2019/html/DL4VSLAM/Lee_Spatial_Perception_by_Object- Aware_Visual_Scene_Representation_ICCVW_2019_paper.html.
[3] A. Davison, "FutureMapping: The Computational Structure of Spatial AI Systems", arXiv.org, 2018. .[En línea]. Disponible en: https://arxiv.org/abs/1803.11288.
[4] J. L. Schonberger, J.-M. Frahm, "Structure-from-motion revisited", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 4104-4113, 2016.
[5] C. Cadena, L. Carlone, H. Carrillo, Y. Latif, D. Scaramuzza, J. Neira, I. Reid, J. J. Leonard, "Past present and future of simultaneous localization and mapping: Toward the robust-perception age", IEEE Transactions on Robotics, vol. 32, no. 6, pp. 1309-1332, 2016.
[6] H. Durrant-Whyte, T. Bailey, "Simultaneous localization and mapping (SLAM): Part I", IEEE Robotics & Automation Magazine, vol. 13, no. 2, pp. 99-110, 2006.
[7] Pileun Kim, Jingdao Chen, Yong K. Cho,SLAM-driven robotic mapping and registration of 3D point clouds,Automation in Construction,Volume 89,2018,Pages 38-48,ISSN 0926-5805,https://doi.org/10.1016/j.autcon.2018.01.009.
[8] M. Olivares Ávila and J. Gallardo Arancibia, "sistema de localización autónoma para robots móviles basado en fusión de sensores propioceptivos", Revista Politécnica ISSN 2256-5353 (En línea), 2015. Disponible en: http://revistas.elpoli.edu.co/index.php/pol/article/download/621/597.
[9] L. Enciso Salas, "Diseño de un sistema de navegación autónomo para robots móviles usando fusión de sensores y controladores neuro difusos", Tesis.pucp.edu.pe, 2015. [En línea]. Disponible en: http://tesis.pucp.edu.pe/repositorio/handle/20.500.12404/6191.
[10] C. Rojas Cardenas, "Precalculo matematicas para el calculo", Academia.edu, 2010 [En línea]. Disponible en: https://www.academia.edu/38431347/Precalculo_matematicas_para_el_calculo
[11] K. Academy, "Integrales triples en coordenadas esféricas (artículo) | Khan Academy", Khan Academy, 2021. .[En línea]. Disponible en: https://es.khanacademy.org/math/multivariable-calculus/integrating-multivariablefunctions/ x786f2022:polar-spherical-cylindrical-coordinates/a/triple-integrals-inspherical-coordinates.
[12] D. Fisica aplicada III, Universidad de sevilla, "Coordenadas cilíndricas. Definición", Laplace.us.es, 2007. [En línea]. Disponible en: http://laplace.us.es/wiki/index.php/Coordenadas_cil%C3%ADndricas._Definici%C3 %B3n.
[13] SIEGWART Roland, Nourbakhsh Illah R. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004.
[14] SIEGWART Roland, Nourbakhsh Illah R. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004.
[15] SIEGWART Roland, Nourbakhsh Illah R. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004.
[16] SIEGWART Roland, Nourbakhsh Illah R. Introduction to Autonomous Mobile Robots. Cambridge, London: The MIT Press, 2004. p25
[17] V. Lidar, "HDL-64E Durable Surround Lidar Sensor | Velodyne Lidar", Velodyne Lidar, 2021. [En línea]. Disponible en: https://velodynelidar.com/products/hdl-64e/.
[18] Encoder ¿Como funciona? Y sus tipos: Como funciona un encoder [en linea] ingenieria mecafenix. .[En línea]. Disponible en: https://www.ingmecafenix.com/automatizacion/encoder/
[19] "CSCI 2150 -- Digital Signals and Binary Numbers", Faculty.etsu.edu, 2021. [En línea]. Disponible en: https://faculty.etsu.edu/tarnoff/ntes2150/dig_bin/dig_bin.htm.
[20] Amaris Gonzalez, Marcos. (2009). Aplicacion en Scilab para el tratamiento de señales digitales con la transformación de Fourier fraccionaria: Filtro de Wiener fraccionario. 10.13140/RG.2.2.19520.94727.
21]M. Cervantes, "Señales", Programas.cuaed.unam.mx, 2017. .[En línea]. Disponible en: https://programas.cuaed.unam.mx/repositorio/moodle/pluginfile.php/824/mod_reso urce/content/5/contenido/index.html.
[22] J. Rojas, "servomotores para arduino uno", Es.slideshare.net, 2018. [Online]. Available: https://es.slideshare.net/NelsonRojasGonzales/servomotores-paraarduino- uno.
[23] A.M Karadeniz, M. Alkayyali y P.T Szemes. “Modelling and Simulation of Stepper Motor For Position Control Using LabVIEW,”, Department of Mechatronics, University of Debrecen, Debrecen, Hungary, No. #1, En,7,2018.[En línea]. Disponible en: https://www.researchgate.net/Fig.ure/Schematic-view-of-a-steppermotor- with-three-teeth4_Fig.1_324261648
[24] Robotic Operative System(Ros), (2020,Jul.10). ”Ros.org| Powering the world’s robots ”. [Internet]. Disponible en: https://www.ros.org/
[25] AristaSur, (2020, Jul, 11). “Cómo funciona el Sistema de posicionamiento GPS”.[Internet]. Disponible en: https://www.aristasur.com/contenido/comofunciona- el-sistema-de-posicionamiento-gps
[26] M. Olinski, A. Gronowicz, M. Ceccarelli y D. Cafolla, “Human motion characterization using wireless inertial sensors,” Departamento de Biomedica, Mecatronica y teoria de mecanismos, Laboratorio de mecatrónica y robotica, Wroclaw University of Science and Technology and University of Cassino and South Latium, Wroclaw and Cassino, Poland and Italy, 2015. p. 329. Disponible en: https://www.researchgate.net/Fig.ure/IMU-sensor-with-a-scheme-of-the-measured- Euler-angles_Fig.5_308860567
[27] G. Verhoeven, M. Wieser, C. Briese y M. Doneus, “Positioning in Time and Space – Cost-Effective exterior orientation for airborne archaeological photographs”, vias – Vienna Institute for Archaeological Science, LBI for Archaeological Prospection and Virtual Archaeology and Department of Geodesy and Geoinformation, University of Vienna and Vienna University of Technology, Vienna and Wien, Austria, 2013. p. 314. Disponible en: https://www.researchgate.net/Fig.ure/Three-axes-and-rotations-of-a-digital-stillcamera_ Fig.1_256325054
[28] M. Hirz and B. Walzel, “Sensor and object recognition technologies for selfdriving cars ”, Graz University of Technology, Graz, Estiria, Austria, 2018. p. 6. Disponible en: https://www.researchgate.net/Fig.ure/Point-cloud-of-a-trafficsituation- delivered-by-LIDAR-10_Fig.8_322368082
[29] stereo labs, (2020,Oct, 15). “ZED Stereo Camera| Stereolabs”. [Internet]. Disponible en: https://www.stereolabs.com/zed/
[30] N. Saparkhojayev and S. Guvercin, “Attendance Control System based on RFID-technology”, Department of Systems Analysis and Management, Engineering Faculty, L.N.Gumilyov Eurasian National University and Suleyman Demirel University, Nur-sultán, Kazakhstan, 2012. p. 227. Disponible en: https://www.researchgate.net/Fig.ure/The-workflow-of-RFIDtechnology_ Fig.1_267404585
[31] B. Choi, J. Lee, Ju. Lee and K. Park, “Distributed Sensor Network Based on RFID System for Localization of Multiple Mobile Agents”, Department of Electrical Engineering and Korea Institute of Machinery and Materials, KAIST, Daejeon, Korea (South), 2011. p. 3. Disponible en: https://www.researchgate.net/Fig.ure/Conceptof- the-sensor-network-based-on-the-RFID-system-for-localization-ofmultiple_ Fig.3_220279110
[32] A. Islam, T. Hossan and Y. Min Jang, “Convolutional neural network schemebased optical camera communication system for intelligent Internet of vehicles”, Department of Electronics Engineering, Kookmin University, Seoul, Korea(South), 2018. p. 11. Disponible en: https://www.researchgate.net/Fig.ure/Distancecalculation- using-a-stereo-image-from-a-stereo-camera-and-b-systemplatform_ Fig.8_323782015
[33] J. Ziegler, J. Gleichauf and C. Pfitzner, “RobotCup Rescue 2018 Team Description Paper AutonOHM”, Department of Electrical Engineering, TH Nuremberg Georg Simon Ohm, . Nuremberg, Bavaria, Germany, 2018. p. 4. Disponible en: https://www.researchgate.net/Fig.ure/Map-generated-by-the-ohmtsd- slam_Fig.2_326580040
[34] S. Thrun, A. Bucken, W. Burgard, D. Fox, T. Frohlinghaus, D. Hennig, T. Hofmann, M. Krell and T. Schmidt, “Map Learning and High-Speed Navigation in RHINO”, Institut fur Informatik III and Computer Science Department, Universitat Bonn and Carnegie Mellon University, Bonn and Pittsburgh, North Rhine-Westphalia and Pensilvania, Germany and United Stated, 1996. P. 8. Disponible en: https://www.researchgate.net/publication/2436687_Map_Learning_and_High-Speed_Navigation_in_RHINO
[35] T. Bailey and H. Durrant-Whyte, "Simultaneous localization and mapping (SLAM): part II," in IEEE Robotics & Automation Magazine, vol. 13, no. 3, pp. 108- 117, Sept. 2006. Disponible en: https://ieeexplore.ieee.org/document/1678144
[36] F. Martin, V. Matellán, P. Barrera y J. M. Cañas, “Localización basada en lógica y filtros de Kalman para robots con patas”, Grupo de Robótica, Universidad Rey Juan Carlos, Móstoles, Madrid, España, 2014. p. 7. Disponible en: https://www.researchgate.net/Fig.ure/Fig.-5-Modelo-de-movimiento-basado-en-laodometria_Fig.5_233792295
[37] ithub,Udacity(2020, Oct, 20). “robot_pose_ekf package”. [Internet]. Disponible en: https://github.com/udacity/robot_pose_ekf
[38] Z. Alom, T. M. Taha, C. Yakopcic, S. Westberg, P. Sidike, S. Nasrin, M. Hasan, B. C. Van Essen, A. S. Awwal and V. K. Asari, “A State-of-the-Art Survey on Deep Learning Theory and Architectures”, Department of Electrical and Computer Engineering, Department of Earth and Atmospheric Sciences, Comcast Labs and Lawrence Livermore National Laboratory, University of Dayton, Saint Louis University, Dayton, washington dc, Livermore, Ohio, District of Columbia and California, United States, 2019. p. 11. Disponible en: https://www.researchgate.net/Fig.ure/The-overall-architecture-of-the-Convolutional- Neural-Network-CNN-includes-an-input_Fig.4_331540139
[39] gazebosim, (2020, Nov, 1). “Gazebo| Robot simulation made easy”. [Internet]. Disponible en: http://gazebosim.org/
[40] github, noetic-devel(2020, Nov, 5). “ros-visualization/rviz: ROS 3D Robot Visualizer”. [Internet]. Disponible en: https://github.com/ros-visualization/rviz
[41] H. A. Al-Barazanchi, H. Qassim and A. Verma, “Residual CNDS”, Department of Computer Science, University California, Fullerton, California, United States,2016, p. 2. Disponible en: https://www.researchgate.net/Fig.ure/Residual-Connection- 22_Fig.2_305994981
[42] "ResNet (34, 50, 101): Residual CNNs for Image Classification Tasks", Neurohive.io,Saint-Petersburg, Vyborgskaya nab, Russia, Jan, 23, 2019. [En línea]. Disponible en: https://neurohive.io/en/popular-networks/resnet/.
[43] "ResNet (34, 50, 101): Residual CNNs for Image Classification Tasks", Neurohive.io,Saint-Petersburg, Vyborgskaya nab, Russia, Jan, 23, 2019. [En línea]. Disponible en: https://neurohive.io/en/popular-networks/resnet/.
dc.rights.spa.fl_str_mv Derechos reservados - Universidad Autónoma de Occidente, 2021
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.eng.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.eng.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.spa.fl_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
rights_invalid_str_mv Derechos reservados - Universidad Autónoma de Occidente, 2021
https://creativecommons.org/licenses/by-nc-nd/4.0/
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.spa.fl_str_mv 125 páginas
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.spa.fl_str_mv Universidad Autónoma de Occidente (UAO)
dc.publisher.program.spa.fl_str_mv Ingeniería Mecatrónica
dc.publisher.department.spa.fl_str_mv Departamento de Automática y Electrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.publisher.place.spa.fl_str_mv Cali
institution Universidad Autónoma de Occidente
bitstream.url.fl_str_mv https://red.uao.edu.co/bitstreams/a30cafeb-aef1-4c34-bb7a-a4acdce65e96/download
https://red.uao.edu.co/bitstreams/de6d7265-b653-4671-84de-8e7cdcae4285/download
https://red.uao.edu.co/bitstreams/a57dd663-c6cc-45fb-bddb-b14f3cffbca1/download
https://red.uao.edu.co/bitstreams/e782427b-b8a2-4059-bc53-5c22cbab0ce2/download
https://red.uao.edu.co/bitstreams/c122b018-8dc6-4544-8fc9-f57f8502c812/download
https://red.uao.edu.co/bitstreams/7823202d-71f4-43e3-8ff7-b9c63202cd4b/download
https://red.uao.edu.co/bitstreams/6949bcf8-b107-45be-acc2-bca131b0b2c9/download
bitstream.checksum.fl_str_mv 20b5ba22b1117f71589c7318baa2c560
5e41c85653d1b07a09f8811a2df4ea00
1f41d173989dc2931da666035b4a9569
f6deb043017cb9f7d30880205ccf9eca
e1c06d85ae7b8b032bef47e42e4c08f9
9f1ff833bd9fff3fa29cf6c65646bffd
34f343f70a20f00947d79cdd251529da
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Digital Universidad Autonoma de Occidente
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1814259822365769728
spelling Romero Cano, Victor Adolfo6e79be7b8aa957fba6721fd97907059aEscobar Montoya, Diego Alejandro1bc71ffb7594b3a1d2e223a384725e6dRico Romero, Juan David37fde6ef35a9b731d31b3c89e7ad6108Universidad Autónoma de Occidente2021-06-04T22:39:13Z2021-06-04T22:39:13Z2021-05-28https://hdl.handle.net/10614/13025Universidad Autónoma de OccidenteRepositorio Educativo Digitalhttps://red.uao.edu.co/El presente proyecto consistió en el desarrollo de un sistema de percepción capaz de localizar tanto métrica como topológicamente un robot móvil tipo Ackermann en ambientes semiestructurados. Este sistema de percepción se dividió en dos partes, la primera en la ubicación del robot métricamente por coordenadas cartesianas y la y la segunda en la identificación de lugares del entorno de trabajo por visión computacional (redes neuronales convolucionales). El primer sistema utilizó sensores propioceptivos como lo son el IMU y los encoders de los motores, con el fin de generar la localización métrica del modelo físico en un plano cartesiano. Asimismo, este sistema empleó la ubicación virtual del robot contenido en el simulador Gazebo, con el objetivo de estimar una “super” odometría con error pequeño respecto a la medida real del entorno; resaltando que la odometría final calculada por el sistema, utilizó un filtro de Kalman el cual generaba la estimación en base al conjunto de información de la entradas (localización real y virtual). Por otro lado, el segundo sistema empleó un tipo de red neuronal artificial capaz de identificar objetos en imágenes digitales. Esta red fue la CNN o red neuronal convolucional, la cual permitió la localización de objetos o lugares contenidos en una imagen digital. Adicionalmente, para la adquisición de datos de dicha red, se empleó una cámara monocular con transmisión de datos por puerto USB, de igual manera fue utilizada para obtener imágenes de validación para el sistema topológico, cada uno de estos sistemas estuvo compuesto por una serie de programas y nodos de ROS, que al integrarse y complementarse con un entorno simulado (Gazebo) permitieron la unificación de sistemas (métrico y topológico). Finalmente el objetivo de este proyecto, es servir como base para un robot guía de personas al interior del campus de la Universidad Autónoma de Occidente específicamente en el sótano dos, basados en una plataforma robótica tipo Ackermann ya existente en la universidad.Proyecto de grado (Ingeniero Mecatrónico)-- Universidad Autónoma de Occidente, 2021PregradoIngeniero(a) Mecatrónico(a)125 páginasapplication/pdfspaUniversidad Autónoma de Occidente (UAO)Ingeniería MecatrónicaDepartamento de Automática y ElectrónicaFacultad de IngenieríaCaliDerechos reservados - Universidad Autónoma de Occidente, 2021https://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2Ingeniería MecatrónicaAckermannSensorSemiestructuradosPropioceptivoRobóticaRoboticsDesarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructuradosTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttps://purl.org/redcol/resource_type/TPhttp://purl.org/coar/version/c_71e4c1898caa6e32[1] Q. Lin, X. Liu and Z. Zhang, "Mobile Robot Self-LocalizationUsing Visual Odometry Based on eiling Vision," 2019 IEEE Symposium Series on Computational Intelligence (SSCI), 2019, pp. 1435-1439, doi: 10.1109/SSCI44817.2019.9003092.[2] C. Lee, H. Lee, I. Hwang and B. Zhang, "Spatial Perception by Object-Aware Visual Scene Representation", Openaccess.thecvf.com, 2019. .[En línea]. Disponible en: https://openaccess.thecvf.com/content_ICCVW_2019/html/DL4VSLAM/Lee_Spatial_Perception_by_Object- Aware_Visual_Scene_Representation_ICCVW_2019_paper.html.[3] A. Davison, "FutureMapping: The Computational Structure of Spatial AI Systems", arXiv.org, 2018. .[En línea]. Disponible en: https://arxiv.org/abs/1803.11288.[4] J. L. Schonberger, J.-M. Frahm, "Structure-from-motion revisited", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 4104-4113, 2016.[5] C. Cadena, L. Carlone, H. Carrillo, Y. Latif, D. Scaramuzza, J. Neira, I. Reid, J. J. Leonard, "Past present and future of simultaneous localization and mapping: Toward the robust-perception age", IEEE Transactions on Robotics, vol. 32, no. 6, pp. 1309-1332, 2016.[6] H. Durrant-Whyte, T. Bailey, "Simultaneous localization and mapping (SLAM): Part I", IEEE Robotics & Automation Magazine, vol. 13, no. 2, pp. 99-110, 2006.[7] Pileun Kim, Jingdao Chen, Yong K. Cho,SLAM-driven robotic mapping and registration of 3D point clouds,Automation in Construction,Volume 89,2018,Pages 38-48,ISSN 0926-5805,https://doi.org/10.1016/j.autcon.2018.01.009.[8] M. Olivares Ávila and J. Gallardo Arancibia, "sistema de localización autónoma para robots móviles basado en fusión de sensores propioceptivos", Revista Politécnica ISSN 2256-5353 (En línea), 2015. Disponible en: http://revistas.elpoli.edu.co/index.php/pol/article/download/621/597.[9] L. Enciso Salas, "Diseño de un sistema de navegación autónomo para robots móviles usando fusión de sensores y controladores neuro difusos", Tesis.pucp.edu.pe, 2015. [En línea]. Disponible en: http://tesis.pucp.edu.pe/repositorio/handle/20.500.12404/6191.[10] C. Rojas Cardenas, "Precalculo matematicas para el calculo", Academia.edu, 2010 [En línea]. Disponible en: https://www.academia.edu/38431347/Precalculo_matematicas_para_el_calculo[11] K. Academy, "Integrales triples en coordenadas esféricas (artículo) | Khan Academy", Khan Academy, 2021. .[En línea]. Disponible en: https://es.khanacademy.org/math/multivariable-calculus/integrating-multivariablefunctions/ x786f2022:polar-spherical-cylindrical-coordinates/a/triple-integrals-inspherical-coordinates.[12] D. Fisica aplicada III, Universidad de sevilla, "Coordenadas cilíndricas. Definición", Laplace.us.es, 2007. [En línea]. Disponible en: http://laplace.us.es/wiki/index.php/Coordenadas_cil%C3%ADndricas._Definici%C3 %B3n.[13] SIEGWART Roland, Nourbakhsh Illah R. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004.[14] SIEGWART Roland, Nourbakhsh Illah R. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004.[15] SIEGWART Roland, Nourbakhsh Illah R. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004.[16] SIEGWART Roland, Nourbakhsh Illah R. Introduction to Autonomous Mobile Robots. Cambridge, London: The MIT Press, 2004. p25[17] V. Lidar, "HDL-64E Durable Surround Lidar Sensor | Velodyne Lidar", Velodyne Lidar, 2021. [En línea]. Disponible en: https://velodynelidar.com/products/hdl-64e/.[18] Encoder ¿Como funciona? Y sus tipos: Como funciona un encoder [en linea] ingenieria mecafenix. .[En línea]. Disponible en: https://www.ingmecafenix.com/automatizacion/encoder/[19] "CSCI 2150 -- Digital Signals and Binary Numbers", Faculty.etsu.edu, 2021. [En línea]. Disponible en: https://faculty.etsu.edu/tarnoff/ntes2150/dig_bin/dig_bin.htm.[20] Amaris Gonzalez, Marcos. (2009). Aplicacion en Scilab para el tratamiento de señales digitales con la transformación de Fourier fraccionaria: Filtro de Wiener fraccionario. 10.13140/RG.2.2.19520.94727.21]M. Cervantes, "Señales", Programas.cuaed.unam.mx, 2017. .[En línea]. Disponible en: https://programas.cuaed.unam.mx/repositorio/moodle/pluginfile.php/824/mod_reso urce/content/5/contenido/index.html.[22] J. Rojas, "servomotores para arduino uno", Es.slideshare.net, 2018. [Online]. Available: https://es.slideshare.net/NelsonRojasGonzales/servomotores-paraarduino- uno.[23] A.M Karadeniz, M. Alkayyali y P.T Szemes. “Modelling and Simulation of Stepper Motor For Position Control Using LabVIEW,”, Department of Mechatronics, University of Debrecen, Debrecen, Hungary, No. #1, En,7,2018.[En línea]. Disponible en: https://www.researchgate.net/Fig.ure/Schematic-view-of-a-steppermotor- with-three-teeth4_Fig.1_324261648[24] Robotic Operative System(Ros), (2020,Jul.10). ”Ros.org| Powering the world’s robots ”. [Internet]. Disponible en: https://www.ros.org/[25] AristaSur, (2020, Jul, 11). “Cómo funciona el Sistema de posicionamiento GPS”.[Internet]. Disponible en: https://www.aristasur.com/contenido/comofunciona- el-sistema-de-posicionamiento-gps[26] M. Olinski, A. Gronowicz, M. Ceccarelli y D. Cafolla, “Human motion characterization using wireless inertial sensors,” Departamento de Biomedica, Mecatronica y teoria de mecanismos, Laboratorio de mecatrónica y robotica, Wroclaw University of Science and Technology and University of Cassino and South Latium, Wroclaw and Cassino, Poland and Italy, 2015. p. 329. Disponible en: https://www.researchgate.net/Fig.ure/IMU-sensor-with-a-scheme-of-the-measured- Euler-angles_Fig.5_308860567[27] G. Verhoeven, M. Wieser, C. Briese y M. Doneus, “Positioning in Time and Space – Cost-Effective exterior orientation for airborne archaeological photographs”, vias – Vienna Institute for Archaeological Science, LBI for Archaeological Prospection and Virtual Archaeology and Department of Geodesy and Geoinformation, University of Vienna and Vienna University of Technology, Vienna and Wien, Austria, 2013. p. 314. Disponible en: https://www.researchgate.net/Fig.ure/Three-axes-and-rotations-of-a-digital-stillcamera_ Fig.1_256325054[28] M. Hirz and B. Walzel, “Sensor and object recognition technologies for selfdriving cars ”, Graz University of Technology, Graz, Estiria, Austria, 2018. p. 6. Disponible en: https://www.researchgate.net/Fig.ure/Point-cloud-of-a-trafficsituation- delivered-by-LIDAR-10_Fig.8_322368082[29] stereo labs, (2020,Oct, 15). “ZED Stereo Camera| Stereolabs”. [Internet]. Disponible en: https://www.stereolabs.com/zed/[30] N. Saparkhojayev and S. Guvercin, “Attendance Control System based on RFID-technology”, Department of Systems Analysis and Management, Engineering Faculty, L.N.Gumilyov Eurasian National University and Suleyman Demirel University, Nur-sultán, Kazakhstan, 2012. p. 227. Disponible en: https://www.researchgate.net/Fig.ure/The-workflow-of-RFIDtechnology_ Fig.1_267404585[31] B. Choi, J. Lee, Ju. Lee and K. Park, “Distributed Sensor Network Based on RFID System for Localization of Multiple Mobile Agents”, Department of Electrical Engineering and Korea Institute of Machinery and Materials, KAIST, Daejeon, Korea (South), 2011. p. 3. Disponible en: https://www.researchgate.net/Fig.ure/Conceptof- the-sensor-network-based-on-the-RFID-system-for-localization-ofmultiple_ Fig.3_220279110[32] A. Islam, T. Hossan and Y. Min Jang, “Convolutional neural network schemebased optical camera communication system for intelligent Internet of vehicles”, Department of Electronics Engineering, Kookmin University, Seoul, Korea(South), 2018. p. 11. Disponible en: https://www.researchgate.net/Fig.ure/Distancecalculation- using-a-stereo-image-from-a-stereo-camera-and-b-systemplatform_ Fig.8_323782015[33] J. Ziegler, J. Gleichauf and C. Pfitzner, “RobotCup Rescue 2018 Team Description Paper AutonOHM”, Department of Electrical Engineering, TH Nuremberg Georg Simon Ohm, . Nuremberg, Bavaria, Germany, 2018. p. 4. Disponible en: https://www.researchgate.net/Fig.ure/Map-generated-by-the-ohmtsd- slam_Fig.2_326580040[34] S. Thrun, A. Bucken, W. Burgard, D. Fox, T. Frohlinghaus, D. Hennig, T. Hofmann, M. Krell and T. Schmidt, “Map Learning and High-Speed Navigation in RHINO”, Institut fur Informatik III and Computer Science Department, Universitat Bonn and Carnegie Mellon University, Bonn and Pittsburgh, North Rhine-Westphalia and Pensilvania, Germany and United Stated, 1996. P. 8. Disponible en: https://www.researchgate.net/publication/2436687_Map_Learning_and_High-Speed_Navigation_in_RHINO[35] T. Bailey and H. Durrant-Whyte, "Simultaneous localization and mapping (SLAM): part II," in IEEE Robotics & Automation Magazine, vol. 13, no. 3, pp. 108- 117, Sept. 2006. Disponible en: https://ieeexplore.ieee.org/document/1678144[36] F. Martin, V. Matellán, P. Barrera y J. M. Cañas, “Localización basada en lógica y filtros de Kalman para robots con patas”, Grupo de Robótica, Universidad Rey Juan Carlos, Móstoles, Madrid, España, 2014. p. 7. Disponible en: https://www.researchgate.net/Fig.ure/Fig.-5-Modelo-de-movimiento-basado-en-laodometria_Fig.5_233792295[37] ithub,Udacity(2020, Oct, 20). “robot_pose_ekf package”. [Internet]. Disponible en: https://github.com/udacity/robot_pose_ekf[38] Z. Alom, T. M. Taha, C. Yakopcic, S. Westberg, P. Sidike, S. Nasrin, M. Hasan, B. C. Van Essen, A. S. Awwal and V. K. Asari, “A State-of-the-Art Survey on Deep Learning Theory and Architectures”, Department of Electrical and Computer Engineering, Department of Earth and Atmospheric Sciences, Comcast Labs and Lawrence Livermore National Laboratory, University of Dayton, Saint Louis University, Dayton, washington dc, Livermore, Ohio, District of Columbia and California, United States, 2019. p. 11. Disponible en: https://www.researchgate.net/Fig.ure/The-overall-architecture-of-the-Convolutional- Neural-Network-CNN-includes-an-input_Fig.4_331540139[39] gazebosim, (2020, Nov, 1). “Gazebo| Robot simulation made easy”. [Internet]. Disponible en: http://gazebosim.org/[40] github, noetic-devel(2020, Nov, 5). “ros-visualization/rviz: ROS 3D Robot Visualizer”. [Internet]. Disponible en: https://github.com/ros-visualization/rviz[41] H. A. Al-Barazanchi, H. Qassim and A. Verma, “Residual CNDS”, Department of Computer Science, University California, Fullerton, California, United States,2016, p. 2. Disponible en: https://www.researchgate.net/Fig.ure/Residual-Connection- 22_Fig.2_305994981[42] "ResNet (34, 50, 101): Residual CNNs for Image Classification Tasks", Neurohive.io,Saint-Petersburg, Vyborgskaya nab, Russia, Jan, 23, 2019. [En línea]. Disponible en: https://neurohive.io/en/popular-networks/resnet/.[43] "ResNet (34, 50, 101): Residual CNNs for Image Classification Tasks", Neurohive.io,Saint-Petersburg, Vyborgskaya nab, Russia, Jan, 23, 2019. [En línea]. Disponible en: https://neurohive.io/en/popular-networks/resnet/.GeneralPublicationLICENSElicense.txtlicense.txttext/plain; charset=utf-81665https://red.uao.edu.co/bitstreams/a30cafeb-aef1-4c34-bb7a-a4acdce65e96/download20b5ba22b1117f71589c7318baa2c560MD52ORIGINALT09791_Desarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructurados.pdfT09791_Desarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructurados.pdfArchivo texto completo del trabajo de grado. pdfapplication/pdf1919337https://red.uao.edu.co/bitstreams/de6d7265-b653-4671-84de-8e7cdcae4285/download5e41c85653d1b07a09f8811a2df4ea00MD53TA9791_Autorización trabajo de grado.pdfTA9791_Autorización trabajo de grado.pdfAutorización para trabajo de gradoapplication/pdf637640https://red.uao.edu.co/bitstreams/a57dd663-c6cc-45fb-bddb-b14f3cffbca1/download1f41d173989dc2931da666035b4a9569MD54TEXTT09791_Desarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructurados.pdf.txtT09791_Desarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructurados.pdf.txtExtracted texttext/plain142533https://red.uao.edu.co/bitstreams/e782427b-b8a2-4059-bc53-5c22cbab0ce2/downloadf6deb043017cb9f7d30880205ccf9ecaMD55TA9791_Autorización trabajo de grado.pdf.txtTA9791_Autorización trabajo de grado.pdf.txtExtracted texttext/plain2https://red.uao.edu.co/bitstreams/c122b018-8dc6-4544-8fc9-f57f8502c812/downloade1c06d85ae7b8b032bef47e42e4c08f9MD57THUMBNAILT09791_Desarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructurados.pdf.jpgT09791_Desarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructurados.pdf.jpgGenerated Thumbnailimage/jpeg6886https://red.uao.edu.co/bitstreams/7823202d-71f4-43e3-8ff7-b9c63202cd4b/download9f1ff833bd9fff3fa29cf6c65646bffdMD56TA9791_Autorización trabajo de grado.pdf.jpgTA9791_Autorización trabajo de grado.pdf.jpgGenerated Thumbnailimage/jpeg12199https://red.uao.edu.co/bitstreams/6949bcf8-b107-45be-acc2-bca131b0b2c9/download34f343f70a20f00947d79cdd251529daMD5810614/13025oai:red.uao.edu.co:10614/130252024-03-15 09:14:41.362https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos reservados - Universidad Autónoma de Occidente, 2021open.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coRUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS4K