Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico
El propósito de este trabajo de grado es abordar la carencia en la industria de automatización en Colombia en cuanto a la implementación de sistemas de inteligencia artificial. Se propone un sistema de visión artificial basado en técnicas de redes neuronales convolucionales (CNNs) para la detección...
- Autores:
-
Jiménez Pérez, Stephen Manuel
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2024
- Institución:
- Universidad Cooperativa de Colombia
- Repositorio:
- Repositorio UCC
- Idioma:
- spa
- OAI Identifier:
- oai:repository.ucc.edu.co:20.500.12494/56419
- Acceso en línea:
- https://hdl.handle.net/20.500.12494/56419
- Palabra clave:
- 620 - Ingeniería y operaciones afines
Automatización
Brazo robótico
CNNs
IA
Automation
Robotic arm
CNNs
AI
- Rights
- openAccess
- License
- https://creativecommons.org/licenses/by/4.0/
id |
COOPER2_17337753a0acc730f9d1ea76913f6f97 |
---|---|
oai_identifier_str |
oai:repository.ucc.edu.co:20.500.12494/56419 |
network_acronym_str |
COOPER2 |
network_name_str |
Repositorio UCC |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico |
title |
Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico |
spellingShingle |
Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico 620 - Ingeniería y operaciones afines Automatización Brazo robótico CNNs IA Automation Robotic arm CNNs AI |
title_short |
Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico |
title_full |
Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico |
title_fullStr |
Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico |
title_full_unstemmed |
Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico |
title_sort |
Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico |
dc.creator.fl_str_mv |
Jiménez Pérez, Stephen Manuel |
dc.contributor.advisor.none.fl_str_mv |
Restrepo Leal, Diego Andrés Noguera Polania, José Fernando |
dc.contributor.author.none.fl_str_mv |
Jiménez Pérez, Stephen Manuel |
dc.subject.ddc.none.fl_str_mv |
620 - Ingeniería y operaciones afines |
topic |
620 - Ingeniería y operaciones afines Automatización Brazo robótico CNNs IA Automation Robotic arm CNNs AI |
dc.subject.proposal.spa.fl_str_mv |
Automatización Brazo robótico CNNs IA |
dc.subject.proposal.eng.fl_str_mv |
Automation Robotic arm CNNs AI |
description |
El propósito de este trabajo de grado es abordar la carencia en la industria de automatización en Colombia en cuanto a la implementación de sistemas de inteligencia artificial. Se propone un sistema de visión artificial basado en técnicas de redes neuronales convolucionales (CNNs) para la detección de elementos, permitiendo su traslado a una trayectoria deseada mediante brazos robóticos. El sistema incluye un subsistema que maneja un brazo robótico con una trayectoria predefinida, estableciendo toda la comunicación a través del Framework ROS, y un subsistema de detección de visión artificial utilizando la técnica de CNNs. Los resultados evidencian la precisión del modelo de detección y la eficacia de la implementación de ROS, validando la ventaja del sistema diseñado con inteligencia artificial. Esto demuestra la capacidad del sistema para adaptarse a diversos problemas de detección en la industria, contribuyendo al aumento de la automatización y la disminución de fallas humanas. |
publishDate |
2024 |
dc.date.accessioned.none.fl_str_mv |
2024-07-19T19:20:56Z |
dc.date.available.none.fl_str_mv |
2024-07-19T19:20:56Z |
dc.date.issued.none.fl_str_mv |
2024-06-24 |
dc.type.none.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.none.fl_str_mv |
Text |
dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.redcol.none.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.citation.none.fl_str_mv |
Jiménez Pérez, S. M. (2024). Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico. [Tesis de pregrado, Universidad Cooperativa de Colombia]. Repositorio Institucional Universidad Cooperativa de Colombia. |
dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/20.500.12494/56419 |
identifier_str_mv |
Jiménez Pérez, S. M. (2024). Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico. [Tesis de pregrado, Universidad Cooperativa de Colombia]. Repositorio Institucional Universidad Cooperativa de Colombia. |
url |
https://hdl.handle.net/20.500.12494/56419 |
dc.language.iso.none.fl_str_mv |
spa |
language |
spa |
dc.relation.references.none.fl_str_mv |
Abellán Sánchez, D. (2021). Estimación de poses de mano para control de brazo robot de bajo coste. http://rua.ua.es/dspace/handle/10045/115958 Amin, Y., Gianoglio, C., & Valle, M. (2023). Embedded real-time objects’ hardness classification for robotic grippers. Future Generation Computer Systems, 148, 211–224. https://doi.org/10.1016/J.FUTURE.2023.06.002 Bancolombia. (2024). Estos son los países líderes en inteligencia artificial. https://blog.bancolombia.com/innovacion/paises-lideres-inteligencia-artificial/ Camara, L. G., & Přeučil, L. (2020). Visual Place Recognition by spatial matching of high-level CNN features. Robotics and Autonomous Systems, 133, 103625. https://doi.org/10.1016/J.ROBOT.2020.103625 Costa, C. M., Sobreira, H. M., Sousa, A. J., & Veiga, G. M. (2016). Robust 3/6 DoF self-localization system with selective map update for mobile robot platforms. Robotics and Autonomous Systems, 76, 113–140. https://doi.org/10.1016/J.ROBOT.2015.09.030 De, E., Correa, H., & De La Hoz Franco, E. (2009). Linux ubuntu server. https://doi.org/10.1/JQUERY.MIN.JS Dixit, S., & Soni, N. (2021). Object Detection in Image Using Components of Convolutional Neural Network and YOLO. 535–548. https://doi.org/10.1007/978-981-15-9873-9_42 DNP. (2019). Documentos CONPES. Departamento Nacional de Planeación. https://www.dnp.gov.co/LaEntidad_/subdireccion-general-prospectiva-desarrollo-nacional/direccion-desarrollo-digital/Paginas/Documentos-Conpes.aspx Elvis, S. G. A. (2021). Sistema Para La Clasificación Automática De Peces Endémicos Del Ecuador Usando Técnicas De Aprendizaje Profundo. https://repositorio.puce.edu.ec/handle/123456789/38023 Fan, X., Chai, X., Zhou, J., & Sun, T. (2023). Deep learning based weed detection and target spraying robot system at seedling stage of cotton field. Computers and Electronics in Agriculture, 214, 108317. https://doi.org/10.1016/J.COMPAG.2023.108317 Gao, F., Fu, L., Zhang, X., Majeed, Y., Li, R., Karkee, M., & Zhang, Q. (2020). Multi-class fruit-on-plant detection for apple in SNAP system using Faster R-CNN. Computers and Electronics in Agriculture, 176, 105634. https://doi.org/10.1016/J.COMPAG.2020.105634 García Cazorla Director, A., & Luis Muñoz Lozano, J. (2013). ROS : Robot Operating System. https://repositorio.upct.es/handle/10317/3597 Gharakhani, H., Alex Thomasson, J., & Lu, Y. (2023). Integration and preliminary evaluation of a robotic cotton harvester prototype. Computers and Electronics in Agriculture, 211, 107943. https://doi.org/10.1016/J.COMPAG.2023.107943 Guío, A., Tamayo, E., & Gómez, P. (2021). Marco Ético para la inteligencia artificial en Colombia. Ministerio de Ciencia, Tecnología e Innovación. Hasan, M., Vasker, N., Hossain, M. M., Bhuiyan, M. I., Biswas, J., & Ahmmad Rashid, M. R. (2024). Framework for fish freshness detection and rotten fish removal in Bangladesh using mask R–CNN method with robotic arm and fisheye analysis. Journal of Agriculture and Food Research, 16, 101139. https://doi.org/10.1016/J.JAFR.2024.101139 IBM. (n.d.). ¿Qué es la Industria 4.0 y cómo funciona? | IBM. International Business Machine. Retrieved May 20, 2024, from https://www.ibm.com/es-es/topics/industry-4-0 Jin, T., & Han, X. (2024). Robotic arms in precision agriculture: A comprehensive review of the technologies, applications, challenges, and future prospects. Computers and Electronics in Agriculture, 221, 108938. https://doi.org/10.1016/J.Compag.2024.108938 Kuo, C. C. J. (2016). Understanding Convolutional Neural Networks with A Mathematical Model. Journal of Visual Communication and Image Representation, 41, 406–413. https://doi.org/10.1016/j.jvcir.2016.11.003 LeCun, Y., Bottou, L., Bengio, Y., & Haffner, P. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278–2323. https://doi.org/10.1109/5.726791 Mazhitov, A., Syrymova, T., Kappassov, Z., & Rubagotti, M. (2023). Human–robot handover with prior-to-pass soft/rigid object classification via tactile glove. Robotics and Autonomous Systems, 159, 104311. https://doi.org/10.1016/J.ROBOT.2022.104311 McKinsey & Company. (2022). El estado de la IA en 2022 y el balance de media década | McKinsey. https://www.mckinsey.com/featured-insights/destacados/el-estado-de-la-ia-en-2022-y-el-balance-de-media-decada/es Minciencias. (2024). Colombia ya cuenta con una Hoja de Ruta en Inteligencia Artificial | Minciencias. Ministerio de Ciencia, Tecnología e Innovación. https://minciencias.gov.co/sala_de_prensa/colombia-ya-cuenta-con-una-hoja-ruta-en-inteligencia-artificial MinTIC. (2018). El 1,8% de las empresas en Colombia utiliza Inteligencia Artificial. Ministerio de Tecnologías de La Información y Las Comunicaciones. https://mintic.gov.co/portal/inicio/Sala-de-prensa/MinTIC-en-los-medios/79933:El-1-8-de-las-empresas-en-Colombia-utiliza-Inteligencia-Artificial Moreno, R. J., Avilés, O., Ovalle, D. M., Del, I., & Resumen, A. (2018). Centro de Investigación de la Universidad Distrital Francisco José de Caldas. Visión Electrónica, 12(2), 208–214. https://doi.org/10.14483/22484728.13996 Noguera, J., García, O., & Robles, C. (2017). Modelado y control de un robot manipulador utilizando las técnicas de control estándar y H infinito. Revista Espacios, 38(58). Noguera, J., Portillo, N., & Hernandez, L. (2014). Redes Neuronales, Bioinspiración para el Desarrollo de la Ingeniería. INGENIARE, 17, 117–131. https://www.unilibrebaq.edu.co/ojsinvestigacion/index.php/ingeniare/article/view/419 Oliveira, M., Castro, A., Madeira, T., Pedrosa, E., Dias, P., & Santos, V. (2020). A ROS framework for the extrinsic calibration of intelligent vehicles: A multi-sensor, multi-modal approach. Robotics and Autonomous Systems, 131, 103558. https://doi.org/10.1016/J.Robot.2020.103558 Oxford Insights. (2023). AI Readiness Index - Oxford Insights. https://oxfordinsights.com/ai-readiness/ai-readiness-index/ Park, J., Jun, M. B. G., & Yun, H. (2022). Development of robotic bin picking platform with cluttered objects using human guidance and convolutional neural network (CNN). Journal of Manufacturing Systems, 63, 539–549. https://doi.org/10.1016/J.JMSY.2022.05.011 Restrepo Leal, D. A., Viloria Porto, J. P., & Robles Algarín, C. A. (2021). El camino a las redes neuronales artificiales. Editorial Unimagdalena. https://doi.org/10.21676/9789587464290 Ribeiro, J., Lima, R., Eckhardt, T., & Paiva, S. (2021). Robotic Process Automation and Artificial Intelligence in Industry 4.0 – A Literature review. Procedia Computer Science, 181, 51–58. https://doi.org/10.1016/J.PROCS.2021.01.104 Robotis. (n.d.). Dynamixel SDK. Retrieved May 20, 2024, from https://emanual.robotis.com/docs/en/software/dynamixel/dynamixel_sdk/overview/#dynamixel-sdk ROS. (2022). ROS/Tutorials - ROS Wiki. Robot Operation System. https://wiki.ros.org/ROS/Tutorials Sandoval, J., Su, H., Vieyres, P., Poisson, G., Ferrigno, G., & De Momi, E. (2018). Collaborative framework for robot-assisted minimally invasive surgery using a 7-DoF anthropomorphic robot. Robotics and Autonomous Systems, 106, 95–106. https://doi.org/10.1016/J.Robot.2018.04.001 Scherer, D., Müller, A., & Behnke, S. (2010). Evaluation of Pooling Operations in Convolutional Architectures for Object Recognition. Lecture Notes in Computer Science (Including Subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 6354 LNCS(PART 3), 92–101. https://doi.org/10.1007/978-3-642-15825-4_10 Sharan, S., Nguyen, D. T., Nauth, P., Umansky, J., & Dominguez-Jimenez, J. J. (2023). Design and Development of a Robotic Arm for an Assistive Robot using ROS. Proceedings of IEEE International Conference on Modelling, Simulation and Intelligent Computing, MoSICom 2023, 197–202. https://doi.org/10.1109/Mosicom59118.2023.10458837 Sileo, M., Capece, N., Gruosso, M., Nigro, M., Bloisi, D. D., Pierri, F., & Erra, U. (2024). Vision-enhanced Peg-in-Hole for automotive body parts using semantic image segmentation and object detection. Engineering Applications of Artificial Intelligence, 128, 107486. https://doi.org/10.1016/J.ENGAPPAI.2023.107486 Song, P., Chen, K., Zhu, L., Yang, M., Ji, C., Xiao, A., Jia, H., Zhang, J., & Yang, W. (2022). An improved cascade R-CNN and RGB-D camera-based method for dynamic cotton top bud recognition and localization in the field. Computers and Electronics in Agriculture, 202, 107442. https://doi.org/10.1016/J.COMPAG.2022.107442 SuperDataScience. (2018). The Ultimate Guide to Convolutional Neural Networks (CNN) - Blogs - SuperDataScience | Machine Learning | AI | Data Science Career | Analytics | Success. https://www.superdatascience.com/blogs/the-ultimate-guide-to-convolutional-neural-networks-cnn UN. (n.d.). Infraestructura - Desarrollo Sostenible. United Nations. Retrieved May 17, 2024, from https://www.un.org/sustainabledevelopment/es/infrastructure/ Wu, J. (2017). Introduction to Convolutional Neural Networks. Wu, S., Wong, P. W., Tandoc, E. C., & Salmon, C. T. (2023). Reconfiguring human-machine relations in the automation age: An actor-network analysis on automation’s takeover of the advertising media planning industry. Journal of Business Research, 168, 114234. https://doi.org/10.1016/j.jbusres.2023.114234 Yu, Y., An, X., Lin, J., Li, S., & Chen, Y. (2024). A vision system based on CNN-LSTM for robotic citrus sorting. Information Processing in Agriculture, 11(1), 14–25. https://doi.org/10.1016/J.INPA.2022.06.002 Zhang, S., Yao, J., Wang, R., Liu, Z., Ma, C., Wang, Y., & Zhao, Y. (2022). Design of intelligent fire-fighting robot based on multi-sensor fusion and experimental study on fire scene patrol. Robotics and Autonomous Systems, 154, 104122. https://doi.org/10.1016/J.ROBOT.2022.104122 Zhong, M., Han, R., Liu, Y., Huang, B., Chai, X., & Liu, Y. (2024). Development, integration, and field evaluation of an autonomous Agaricus bisporus picking robot. Computers and Electronics in Agriculture, 220, 108871. https://doi.org/10.1016/J.COMPAG.2024.108871 |
dc.rights.uri.none.fl_str_mv |
https://creativecommons.org/licenses/by/4.0/ |
dc.rights.accessrights.none.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.creativecommons.none.fl_str_mv |
Atribución 4.0 Internacional (CC BY 4.0) |
dc.rights.coar.none.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
https://creativecommons.org/licenses/by/4.0/ Atribución 4.0 Internacional (CC BY 4.0) http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.extent.none.fl_str_mv |
56 p. |
dc.format.mimetype.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidad Cooperativa de Colombia, Facultad de Ingenierías, Ingeniería Electrónica, Santa Marta |
dc.publisher.program.none.fl_str_mv |
Ingeniería Electrónica |
dc.publisher.faculty.none.fl_str_mv |
Ingenierías |
dc.publisher.place.none.fl_str_mv |
Santa Marta |
dc.publisher.branch.none.fl_str_mv |
Santa Marta |
publisher.none.fl_str_mv |
Universidad Cooperativa de Colombia, Facultad de Ingenierías, Ingeniería Electrónica, Santa Marta |
institution |
Universidad Cooperativa de Colombia |
bitstream.url.fl_str_mv |
https://repository.ucc.edu.co/bitstreams/ea081f9f-92f0-42be-a5ab-d583cd20e582/download https://repository.ucc.edu.co/bitstreams/6d310f4f-4f09-4375-9fae-e8cbba6522b9/download https://repository.ucc.edu.co/bitstreams/7f89bffd-bb0d-48be-906d-17549d9f51cf/download https://repository.ucc.edu.co/bitstreams/8d2500cb-2809-4a3f-9f53-10a38c8870c4/download https://repository.ucc.edu.co/bitstreams/dd1c7623-e7ec-4218-9e05-38d554bf40fe/download https://repository.ucc.edu.co/bitstreams/3edc7110-c0a1-401d-9160-47df700073f3/download https://repository.ucc.edu.co/bitstreams/ce158889-c07b-4354-995d-ee5b4c6868e1/download https://repository.ucc.edu.co/bitstreams/3fb64c5f-cb5c-4a66-add4-cc6a22188b0c/download https://repository.ucc.edu.co/bitstreams/cdd31753-5416-42fd-9340-bc951750750b/download https://repository.ucc.edu.co/bitstreams/ccccb75c-eabb-4bbf-afd6-29e612e52696/download |
bitstream.checksum.fl_str_mv |
f3e1bd65208c1fa1ada13f6cfb12d0b9 1f86b87ce4465eeaeac79d30b3148c1d 6c6d30709dedbea6fcfe82ec56523c98 3bce4f7ab09dfc588f126e1e36e98a45 4d5908c143a5f851c51c355bd082c2af 62743cd92f8a2906272d7ff3d6a28af8 70601facb26577df851e3f520f725dc5 f2537115dff254f1523834eb8cc997fd 4b5b8c34e8be9e16bb769296bcd9b03a eb8db4ff0f02a502795f33418cfe7784 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Institucional Universidad Cooperativa de Colombia |
repository.mail.fl_str_mv |
bdigital@metabiblioteca.com |
_version_ |
1814246958105100288 |
spelling |
Restrepo Leal, Diego AndrésNoguera Polania, José FernandoJiménez Pérez, Stephen Manuel2024-07-19T19:20:56Z2024-07-19T19:20:56Z2024-06-24Jiménez Pérez, S. M. (2024). Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico. [Tesis de pregrado, Universidad Cooperativa de Colombia]. Repositorio Institucional Universidad Cooperativa de Colombia.https://hdl.handle.net/20.500.12494/56419El propósito de este trabajo de grado es abordar la carencia en la industria de automatización en Colombia en cuanto a la implementación de sistemas de inteligencia artificial. Se propone un sistema de visión artificial basado en técnicas de redes neuronales convolucionales (CNNs) para la detección de elementos, permitiendo su traslado a una trayectoria deseada mediante brazos robóticos. El sistema incluye un subsistema que maneja un brazo robótico con una trayectoria predefinida, estableciendo toda la comunicación a través del Framework ROS, y un subsistema de detección de visión artificial utilizando la técnica de CNNs. Los resultados evidencian la precisión del modelo de detección y la eficacia de la implementación de ROS, validando la ventaja del sistema diseñado con inteligencia artificial. Esto demuestra la capacidad del sistema para adaptarse a diversos problemas de detección en la industria, contribuyendo al aumento de la automatización y la disminución de fallas humanas.The purpose of this degree work is to address the lack of implementation of artificial intelligence systems in the automation industry in Colombia. An artificial vision system based on convolutional neural networks (CNNs) techniques is proposed for the detection of elements, allowing their transfer to a desired trajectory by means of robotic arms. The system includes a subsystem that manages a robotic arm with a predefined trajectory, establishing all the communication through the ROS Framework, and a machine vision detection subsystem using the CNNs technique. The results evidence the accuracy of the sensing model and the effectiveness of the ROS implementation, validating the advantage of the system designed with artificial intelligence. This demonstrates the ability of the system to adapt to various detection problems in the industry, contributing to increased automation and decreased human failures.Inteligencia artificial aplicada con el uso de redes neuronales de convolución (cnns) para la detección y traslado de objetos por medio de un brazo robótico. -- Inteligencia artificial aplicada con el uso de redes neuronales de convolución (cnns) para la detección y traslado de objetos por medio de un brazo robótico. -- Dedicatoria. -- Agradecimientos. -- Tabla de contenido. -- Resumen. -- Abstract. -- Capítulo i:. -- 1.1 Introducción. -- 1.2 Planteamiento del problema. -- 1.2.1 Descripción del problema. -- 1.2.2 Formulación del problema. -- 1.3 Objetivos. -- 1.3.1 Objetivo general. -- 1.3.2 Objetivos específicos. -- 1.3.2.1 Configurar un sistema que permita dar instrucciones precisas a un brazo robótico para realizar tareas de detección y traslado de objetos. -- 1.3.2.2 Seleccionar un modelo de inteligencia artificial adecuado para la visión artificial, enfocado en la clasificación precisa de objetos. -- 1.3.2.3 Entrenar el modelo seleccionado de visión artificial utilizando conjuntos de datos específicos para mejorar la precisión y la eficacia en la clasificación de objetos. -- 1.3.2.4 Integrar el sistema de actuadores para el brazo robótico con el sistema de visión artificial, asegurando una comunicación eficiente y una operación coordinada para la detección y traslado de objetos. -- 1.4 Justificación. -- 1.5 Marco referencial. -- 1.5.1 Linux ubuntu. -- 1.5.2 Robot operating system (ros). -- 1.5.2.1 Nodos. -- 1.5.2.2 Topics. -- 1.5.2.3 Roscore (master-node). -- 1.5.2.4 Nodo publisher y nodo subscriber. -- 1.5.3 Dynamixel sdk. -- 1.5.4 Modelo de una neurona. -- 1.5.4.1 Función de activación. -- 1.5.5 Redes neuronales de convolución (cnns). -- 1.5.5.1 Imagen de entrada. -- 1.5.5.2 Capa de convolución. -- 1.5.5.3 Capa de rectified linear unit (relu). -- 1.5.5.4 Capa de max pooling (mp). -- 1.5.5.5 Capa de flattening. -- 1.5.5.6 Capa de full connection. -- 1.6 Estado de arte. -- 1.6.1 Trabajos previos. -- 1.6.1.1 Framework for fish freshness detection and rotten fish removal in bangladesh using mask r–cnn method with robotic arm and fisheye análisis. -- 1.6.1.2 Robotic arms in precision agriculture: a comprehensive review of the technologies, applications, challenges, and future prospects. -- 1.6.1.3 Design and development of a robotic arm for an assistive robot using ros. -- 1.6.1.4 Redes neuronales de convolución, robótica y automatización. -- 1.6.2 Contribución. -- Capítulo ii:. -- 2.1 Metodología. -- 2.2 Tipo de estudio. -- 2.3 Fuentes de recolección de información. -- 2.3.1 Fuentes primarias. -- 2.3.2 Fuentes secundarias. -- 2.2 Preparación del entorno. -- 2.2.1 Configuración del entorno de trabajo. -- 2.2.1.1 Instalación de las librerías y paquetes utilizados. -- 2.2.1.2 Instalación de softwares. -- 2.2.2 Adquisición de los ángulos para la trayectoria deseada. -- 2.2.3 Algoritmo de movimiento. -- 2.3 Visión. -- 2.3.1 Selección del algoritmo de visión artificial. -- 2.3.2 Adquisición de imágenes. -- 2.3.3 Entrenamiento del algoritmo de visión artificial. -- 2.4 Integración de los sistemas. -- Capítulo iii:. -- 3.1 Resultados. -- Capítulo iv:. -- 4.1 Conclusiones. -- Referencias. -- Anexos. -- Enlaces. -- RecomendacionesPregradoIngeniero electrónico56 p.application/pdfspaUniversidad Cooperativa de Colombia, Facultad de Ingenierías, Ingeniería Electrónica, Santa MartaIngeniería ElectrónicaIngenieríasSanta MartaSanta Martahttps://creativecommons.org/licenses/by/4.0/info:eu-repo/semantics/openAccessAtribución 4.0 Internacional (CC BY 4.0)http://purl.org/coar/access_right/c_abf2620 - Ingeniería y operaciones afinesAutomatizaciónBrazo robóticoCNNsIAAutomationRobotic armCNNsAIInteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robóticoTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttp://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/acceptedVersionAbellán Sánchez, D. (2021). Estimación de poses de mano para control de brazo robot de bajo coste. http://rua.ua.es/dspace/handle/10045/115958Amin, Y., Gianoglio, C., & Valle, M. (2023). Embedded real-time objects’ hardness classification for robotic grippers. Future Generation Computer Systems, 148, 211–224. https://doi.org/10.1016/J.FUTURE.2023.06.002Bancolombia. (2024). Estos son los países líderes en inteligencia artificial. https://blog.bancolombia.com/innovacion/paises-lideres-inteligencia-artificial/Camara, L. G., & Přeučil, L. (2020). Visual Place Recognition by spatial matching of high-level CNN features. Robotics and Autonomous Systems, 133, 103625. https://doi.org/10.1016/J.ROBOT.2020.103625Costa, C. M., Sobreira, H. M., Sousa, A. J., & Veiga, G. M. (2016). Robust 3/6 DoF self-localization system with selective map update for mobile robot platforms. Robotics and Autonomous Systems, 76, 113–140. https://doi.org/10.1016/J.ROBOT.2015.09.030De, E., Correa, H., & De La Hoz Franco, E. (2009). Linux ubuntu server. https://doi.org/10.1/JQUERY.MIN.JSDixit, S., & Soni, N. (2021). Object Detection in Image Using Components of Convolutional Neural Network and YOLO. 535–548. https://doi.org/10.1007/978-981-15-9873-9_42DNP. (2019). Documentos CONPES. Departamento Nacional de Planeación. https://www.dnp.gov.co/LaEntidad_/subdireccion-general-prospectiva-desarrollo-nacional/direccion-desarrollo-digital/Paginas/Documentos-Conpes.aspxElvis, S. G. A. (2021). Sistema Para La Clasificación Automática De Peces Endémicos Del Ecuador Usando Técnicas De Aprendizaje Profundo. https://repositorio.puce.edu.ec/handle/123456789/38023Fan, X., Chai, X., Zhou, J., & Sun, T. (2023). Deep learning based weed detection and target spraying robot system at seedling stage of cotton field. Computers and Electronics in Agriculture, 214, 108317. https://doi.org/10.1016/J.COMPAG.2023.108317Gao, F., Fu, L., Zhang, X., Majeed, Y., Li, R., Karkee, M., & Zhang, Q. (2020). Multi-class fruit-on-plant detection for apple in SNAP system using Faster R-CNN. Computers and Electronics in Agriculture, 176, 105634. https://doi.org/10.1016/J.COMPAG.2020.105634García Cazorla Director, A., & Luis Muñoz Lozano, J. (2013). ROS : Robot Operating System. https://repositorio.upct.es/handle/10317/3597Gharakhani, H., Alex Thomasson, J., & Lu, Y. (2023). Integration and preliminary evaluation of a robotic cotton harvester prototype. Computers and Electronics in Agriculture, 211, 107943. https://doi.org/10.1016/J.COMPAG.2023.107943Guío, A., Tamayo, E., & Gómez, P. (2021). Marco Ético para la inteligencia artificial en Colombia. Ministerio de Ciencia, Tecnología e Innovación.Hasan, M., Vasker, N., Hossain, M. M., Bhuiyan, M. I., Biswas, J., & Ahmmad Rashid, M. R. (2024). Framework for fish freshness detection and rotten fish removal in Bangladesh using mask R–CNN method with robotic arm and fisheye analysis. Journal of Agriculture and Food Research, 16, 101139. https://doi.org/10.1016/J.JAFR.2024.101139IBM. (n.d.). ¿Qué es la Industria 4.0 y cómo funciona? | IBM. International Business Machine. Retrieved May 20, 2024, from https://www.ibm.com/es-es/topics/industry-4-0Jin, T., & Han, X. (2024). Robotic arms in precision agriculture: A comprehensive review of the technologies, applications, challenges, and future prospects. Computers and Electronics in Agriculture, 221, 108938. https://doi.org/10.1016/J.Compag.2024.108938Kuo, C. C. J. (2016). Understanding Convolutional Neural Networks with A Mathematical Model. Journal of Visual Communication and Image Representation, 41, 406–413. https://doi.org/10.1016/j.jvcir.2016.11.003LeCun, Y., Bottou, L., Bengio, Y., & Haffner, P. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278–2323. https://doi.org/10.1109/5.726791Mazhitov, A., Syrymova, T., Kappassov, Z., & Rubagotti, M. (2023). Human–robot handover with prior-to-pass soft/rigid object classification via tactile glove. Robotics and Autonomous Systems, 159, 104311. https://doi.org/10.1016/J.ROBOT.2022.104311McKinsey & Company. (2022). El estado de la IA en 2022 y el balance de media década | McKinsey. https://www.mckinsey.com/featured-insights/destacados/el-estado-de-la-ia-en-2022-y-el-balance-de-media-decada/esMinciencias. (2024). Colombia ya cuenta con una Hoja de Ruta en Inteligencia Artificial | Minciencias. Ministerio de Ciencia, Tecnología e Innovación. https://minciencias.gov.co/sala_de_prensa/colombia-ya-cuenta-con-una-hoja-ruta-en-inteligencia-artificialMinTIC. (2018). El 1,8% de las empresas en Colombia utiliza Inteligencia Artificial. Ministerio de Tecnologías de La Información y Las Comunicaciones. https://mintic.gov.co/portal/inicio/Sala-de-prensa/MinTIC-en-los-medios/79933:El-1-8-de-las-empresas-en-Colombia-utiliza-Inteligencia-ArtificialMoreno, R. J., Avilés, O., Ovalle, D. M., Del, I., & Resumen, A. (2018). Centro de Investigación de la Universidad Distrital Francisco José de Caldas. Visión Electrónica, 12(2), 208–214. https://doi.org/10.14483/22484728.13996Noguera, J., García, O., & Robles, C. (2017). Modelado y control de un robot manipulador utilizando las técnicas de control estándar y H infinito. Revista Espacios, 38(58).Noguera, J., Portillo, N., & Hernandez, L. (2014). Redes Neuronales, Bioinspiración para el Desarrollo de la Ingeniería. INGENIARE, 17, 117–131. https://www.unilibrebaq.edu.co/ojsinvestigacion/index.php/ingeniare/article/view/419Oliveira, M., Castro, A., Madeira, T., Pedrosa, E., Dias, P., & Santos, V. (2020). A ROS framework for the extrinsic calibration of intelligent vehicles: A multi-sensor, multi-modal approach. Robotics and Autonomous Systems, 131, 103558. https://doi.org/10.1016/J.Robot.2020.103558Oxford Insights. (2023). AI Readiness Index - Oxford Insights. https://oxfordinsights.com/ai-readiness/ai-readiness-index/Park, J., Jun, M. B. G., & Yun, H. (2022). Development of robotic bin picking platform with cluttered objects using human guidance and convolutional neural network (CNN). Journal of Manufacturing Systems, 63, 539–549. https://doi.org/10.1016/J.JMSY.2022.05.011Restrepo Leal, D. A., Viloria Porto, J. P., & Robles Algarín, C. A. (2021). El camino a las redes neuronales artificiales. Editorial Unimagdalena. https://doi.org/10.21676/9789587464290Ribeiro, J., Lima, R., Eckhardt, T., & Paiva, S. (2021). Robotic Process Automation and Artificial Intelligence in Industry 4.0 – A Literature review. Procedia Computer Science, 181, 51–58. https://doi.org/10.1016/J.PROCS.2021.01.104Robotis. (n.d.). Dynamixel SDK. Retrieved May 20, 2024, from https://emanual.robotis.com/docs/en/software/dynamixel/dynamixel_sdk/overview/#dynamixel-sdkROS. (2022). ROS/Tutorials - ROS Wiki. Robot Operation System. https://wiki.ros.org/ROS/TutorialsSandoval, J., Su, H., Vieyres, P., Poisson, G., Ferrigno, G., & De Momi, E. (2018). Collaborative framework for robot-assisted minimally invasive surgery using a 7-DoF anthropomorphic robot. Robotics and Autonomous Systems, 106, 95–106. https://doi.org/10.1016/J.Robot.2018.04.001Scherer, D., Müller, A., & Behnke, S. (2010). Evaluation of Pooling Operations in Convolutional Architectures for Object Recognition. Lecture Notes in Computer Science (Including Subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 6354 LNCS(PART 3), 92–101. https://doi.org/10.1007/978-3-642-15825-4_10Sharan, S., Nguyen, D. T., Nauth, P., Umansky, J., & Dominguez-Jimenez, J. J. (2023). Design and Development of a Robotic Arm for an Assistive Robot using ROS. Proceedings of IEEE International Conference on Modelling, Simulation and Intelligent Computing, MoSICom 2023, 197–202. https://doi.org/10.1109/Mosicom59118.2023.10458837Sileo, M., Capece, N., Gruosso, M., Nigro, M., Bloisi, D. D., Pierri, F., & Erra, U. (2024). Vision-enhanced Peg-in-Hole for automotive body parts using semantic image segmentation and object detection. Engineering Applications of Artificial Intelligence, 128, 107486. https://doi.org/10.1016/J.ENGAPPAI.2023.107486Song, P., Chen, K., Zhu, L., Yang, M., Ji, C., Xiao, A., Jia, H., Zhang, J., & Yang, W. (2022). An improved cascade R-CNN and RGB-D camera-based method for dynamic cotton top bud recognition and localization in the field. Computers and Electronics in Agriculture, 202, 107442. https://doi.org/10.1016/J.COMPAG.2022.107442SuperDataScience. (2018). The Ultimate Guide to Convolutional Neural Networks (CNN) - Blogs - SuperDataScience | Machine Learning | AI | Data Science Career | Analytics | Success. https://www.superdatascience.com/blogs/the-ultimate-guide-to-convolutional-neural-networks-cnnUN. (n.d.). Infraestructura - Desarrollo Sostenible. United Nations. Retrieved May 17, 2024, from https://www.un.org/sustainabledevelopment/es/infrastructure/Wu, J. (2017). Introduction to Convolutional Neural Networks.Wu, S., Wong, P. W., Tandoc, E. C., & Salmon, C. T. (2023). Reconfiguring human-machine relations in the automation age: An actor-network analysis on automation’s takeover of the advertising media planning industry. Journal of Business Research, 168, 114234. https://doi.org/10.1016/j.jbusres.2023.114234Yu, Y., An, X., Lin, J., Li, S., & Chen, Y. (2024). A vision system based on CNN-LSTM for robotic citrus sorting. Information Processing in Agriculture, 11(1), 14–25. https://doi.org/10.1016/J.INPA.2022.06.002Zhang, S., Yao, J., Wang, R., Liu, Z., Ma, C., Wang, Y., & Zhao, Y. (2022). Design of intelligent fire-fighting robot based on multi-sensor fusion and experimental study on fire scene patrol. Robotics and Autonomous Systems, 154, 104122. https://doi.org/10.1016/J.ROBOT.2022.104122Zhong, M., Han, R., Liu, Y., Huang, B., Chai, X., & Liu, Y. (2024). Development, integration, and field evaluation of an autonomous Agaricus bisporus picking robot. Computers and Electronics in Agriculture, 220, 108871. https://doi.org/10.1016/J.COMPAG.2024.108871PublicationORIGINAL2024_Trabajo_Grado.pdf2024_Trabajo_Grado.pdfapplication/pdf1839063https://repository.ucc.edu.co/bitstreams/ea081f9f-92f0-42be-a5ab-d583cd20e582/downloadf3e1bd65208c1fa1ada13f6cfb12d0b9MD552024_Licencia_Uso .pdf2024_Licencia_Uso .pdfapplication/pdf204986https://repository.ucc.edu.co/bitstreams/6d310f4f-4f09-4375-9fae-e8cbba6522b9/download1f86b87ce4465eeaeac79d30b3148c1dMD512024_Acta_Sustentacion.pdf2024_Acta_Sustentacion.pdfapplication/pdf283331https://repository.ucc.edu.co/bitstreams/7f89bffd-bb0d-48be-906d-17549d9f51cf/download6c6d30709dedbea6fcfe82ec56523c98MD54LICENSElicense.txtlicense.txttext/plain; charset=utf-84334https://repository.ucc.edu.co/bitstreams/8d2500cb-2809-4a3f-9f53-10a38c8870c4/download3bce4f7ab09dfc588f126e1e36e98a45MD53TEXT2024_Trabajo_Grado.pdf.txt2024_Trabajo_Grado.pdf.txtExtracted texttext/plain70111https://repository.ucc.edu.co/bitstreams/dd1c7623-e7ec-4218-9e05-38d554bf40fe/download4d5908c143a5f851c51c355bd082c2afMD562024_Licencia_Uso .pdf.txt2024_Licencia_Uso .pdf.txtExtracted texttext/plain5895https://repository.ucc.edu.co/bitstreams/3edc7110-c0a1-401d-9160-47df700073f3/download62743cd92f8a2906272d7ff3d6a28af8MD582024_Acta_Sustentacion.pdf.txt2024_Acta_Sustentacion.pdf.txtExtracted texttext/plain1879https://repository.ucc.edu.co/bitstreams/ce158889-c07b-4354-995d-ee5b4c6868e1/download70601facb26577df851e3f520f725dc5MD510THUMBNAIL2024_Trabajo_Grado.pdf.jpg2024_Trabajo_Grado.pdf.jpgGenerated Thumbnailimage/jpeg5965https://repository.ucc.edu.co/bitstreams/3fb64c5f-cb5c-4a66-add4-cc6a22188b0c/downloadf2537115dff254f1523834eb8cc997fdMD572024_Licencia_Uso .pdf.jpg2024_Licencia_Uso .pdf.jpgGenerated Thumbnailimage/jpeg12081https://repository.ucc.edu.co/bitstreams/cdd31753-5416-42fd-9340-bc951750750b/download4b5b8c34e8be9e16bb769296bcd9b03aMD592024_Acta_Sustentacion.pdf.jpg2024_Acta_Sustentacion.pdf.jpgGenerated Thumbnailimage/jpeg12012https://repository.ucc.edu.co/bitstreams/ccccb75c-eabb-4bbf-afd6-29e612e52696/downloadeb8db4ff0f02a502795f33418cfe7784MD51120.500.12494/56419oai:repository.ucc.edu.co:20.500.12494/564192024-07-20 03:06:10.554https://creativecommons.org/licenses/by/4.0/Atribución 4.0 Internacional (CC BY 4.0)open.accesshttps://repository.ucc.edu.coRepositorio Institucional Universidad Cooperativa de Colombiabdigital@metabiblioteca.comVU5JVkVSU0lEQUQgQ09PUEVSQVRJVkEgREUgQ09MT01CSUEKUkVQT1NJVE9SSU9TIElOU1RJVFVDSU9OQUxFUwpMSUNFTkNJQSBERSBVU08KClBvciBtZWRpbyBkZWwgcHJlc2VudGUgZG9jdW1lbnRvLCBlbCBBdXRvcihlcyksIG1heW9yIChlcykgZGUgZWRhZCwgcXVpZW4gZW4gYWRlbGFudGUgc2UgZGVub21pbmFyw6EgZWwgQVVUT1IsIGNvbmZpZXJlIGEgbGEgVU5JVkVSU0lEQUQgQ09PUEVSQVRJVkEgREUgQ09MT01CSUEsIGNvbiBOSVQuIDg2MC0wMjk5MjQtNywgdW5hIExJQ0VOQ0lBIERFIFVTTyBkZSBvYnJhLCBiYWpvIGxhcyBzaWd1aWVudGVzIGNvbmRpY2lvbmVzLgoKQ0zDgVVTVUxBUwoKUFJJTUVSQS4gT2JqZXRvLiBFTCBBVVRPUiBwb3IgZXN0ZSBhY3RvIGF1dG9yaXphIGxhIHV0aWxpemFjacOzbiBkZSBsYSBvYnJhLCBkZSBjb25mb3JtaWRhZCBjb24gbG8gZXN0aXB1bGFkbyBhIGNvbnRpbnVhY2nDs246IAoKKGEpIFBhcmEgZWZlY3RvcyBkZSBsYSBwcmVzZW50ZSBsaWNlbmNpYSBzZSBhdXRvcml6YSBsYSByZXByb2R1Y2Npw7NuIGRlIGxhIG9icmEgYW50ZXJpb3JtZW50ZSBjaXRhZGEsIGxhIGN1YWwgc2UgYWxvamFyw6EgZW4gZm9ybWF0byBkaWdpdGFsIGVuIGxhcyBwbGF0YWZvcm1hcyBvIHJlcG9zaXRvcmlvcyBhZG1pbmlzdHJhZG9zIHBvciBsYSBVTklWRVJTSURBRCBvIGVuIG90cm8gdGlwbyBkZSByZXBvc2l0b3Jpb3MgZXh0ZXJub3MgbyBww6FnaW5hcyB3ZWIgZXNjb2dpZG9zIHBvciBsYSBVTklWRVJTSURBRCwgcGFyYSBmaW5lcyBkZSBkaWZ1c2nDs24geSBkaXZ1bGdhY2nDs24uIEFkaWNpb25hbG1lbnRlLCBzZSBhdXRvcml6YSBhIHF1ZSBsb3MgdXN1YXJpb3MgaW50ZXJub3MgeSBleHRlcm5vcyBkZSBkaWNoYXMgcGxhdGFmb3JtYXMgbyByZXBvc2l0b3Jpb3MgcmVwcm9kdXpjYW4gbyBkZXNjYXJndWVuIGxhIG9icmEsIHNpbiDDoW5pbW8gZGUgbHVjcm8sIHBhcmEgZmluZXMgcHJpdmFkb3MsIGVkdWNhdGl2b3MgbyBhY2Fkw6ltaWNvczsgc2llbXByZSB5IGN1YW5kbyBubyBzZSB2aW9sZW4gYWN1ZXJkb3MgY29uIGVkaXRvcmVzLCBwZXJpb2RvcyBkZSBlbWJhcmdvIG8gYWN1ZXJkb3MgZGUgY29uZmlkZW5jaWFsaWRhZCBxdWUgYXBsaXF1ZW4uCgooYikgU2UgYXV0b3JpemEgbGEgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGxhIHB1ZXN0YSBhIGRpc3Bvc2ljacOzbiBkZSBsYSBvYnJhIG1lbmNpb25hZGEsIGVuIGFjY2VzbyBhYmllcnRvLCBwYXJhIHN1IHV0aWxpemFjacOzbiBlbiBsYXMgcGxhdGFmb3JtYXMgbyByZXBvc2l0b3Jpb3MgYWRtaW5pc3RyYWRvcyBwb3IgbGEgVU5JVkVSU0lEQUQuCgooYykgTG8gYW50ZXJpb3IgZXN0YXLDoSBzdWpldG8gYSBsYXMgZGVmaW5pY2lvbmVzIGNvbnRlbmlkYXMgZW4gbGEgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5MyB5IGxhIExleSAyMyBkZSAxOTgyLgoKClNFR1VOREEuIE9yaWdpbmFsaWRhZCB5IHJlY2xhbWFjaW9uZXMuIEVsIEFVVE9SIGRlY2xhcmEgcXVlIGxhIE9CUkEgZXMgb3JpZ2luYWwgeSBxdWUgZXMgZGUgc3UgY3JlYWNpw7NuIGV4Y2x1c2l2YSwgbm8gZXhpc3RpZW5kbyBpbXBlZGltZW50byBkZSBjdWFscXVpZXIgbmF0dXJhbGV6YSAoZW1iYXJnb3MsIHVzbyBkZSBtYXRlcmlhbCBwcm90ZWdpZG8gcG9yIGRlcmVjaG9zIGRlIGF1dG9yKSBwYXJhIGxhIGNvbmNlc2nDs24gZGUgbG9zIGRlcmVjaG9zIHByZXZpc3RvcyBlbiBlc3RlIGFjdWVyZG8uIEVsIEFVVE9SIHJlc3BvbmRlcsOhIHBvciBjdWFscXVpZXIgYWNjacOzbiBkZSByZWl2aW5kaWNhY2nDs24sIHBsYWdpbyB1IG90cmEgY2xhc2UgZGUgcmVjbGFtYWNpw7NuIHF1ZSBhbCByZXNwZWN0byBwdWRpZXJhIHNvYnJldmVuaXIuCgpURVJDRVJBLiBDb250cmFwcmVzdGFjacOzbi4gRWwgQVVUT1IgYXV0b3JpemEgYSBxdWUgc3Ugb2JyYSBzZWEgdXRpbGl6YWRhIGRlIGNvbmZvcm1pZGFkIGNvbiBsYSBjbMOhdXN1bGEgUFJJTUVSQSBkZSBmb3JtYSBncmF0dWl0YSwgZXMgZGVjaXIsIHF1ZSBsYSB1dGlsaXphY2nDs24gZGUgbGEgbWlzbWEgbm8gZ2VuZXJhIG5pbmfDum4gcGFnbyBvIHJlZ2Fsw61hcyBlbiBmYXZvciBkZSBlc3RlLgoKQ1VBUlRBLiBUaXR1bGFyaWRhZCBkZSBkZXJlY2hvcy4gRWwgcHJlc2VudGUgY29udHJhdG8gbm8gdHJhbnNmaWVyZSBsYSB0aXR1bGFyaWRhZCBkZSBsb3MgZGVyZWNob3MgcGF0cmltb25pYWxlcyBzb2JyZSBsYXMgb2JyYXMgYW50ZXJpb3JtZW50ZSBtZW5jaW9uYWRhcyBhIGxhIFVOSVZFUlNJREFELiDDmm5pY2FtZW50ZSBoYWNlIHJlbGFjacOzbiBhIHVuYSBsaWNlbmNpYSBubyBleGNsdXNpdmEgZW4gbG9zIHTDqXJtaW5vcyB5IGNvbmRpY2lvbmVzIGFudGVyaW9ybWVudGUgcGFjdGFkb3MuCgpRVUlOVEEuIENyw6lkaXRvcy4gTGEgVU5JVkVSU0lEQUQgc2UgY29tcHJvbWV0ZSBhIGRhciBhbCBBVVRPUiwgZWwgcmVjb25vY2ltaWVudG8gZGVudHJvIGNhZGEgZm9ybWEgZGUgdXRpbGl6YWNpw7NuIGVuIGxhIG9icmEuIExvcyBjcsOpZGl0b3MgZGViZW4gZmlndXJhciBlbiBjYWRhIHVubyBkZSBsb3MgZm9ybWF0b3MgbyByZWdpc3Ryb3MgZGUgcHVibGljYWNpw7NuLiBObyBjb25zdGl0dWlyw6EgdW5hIHZpb2xhY2nDs24gYSBsb3MgZGVyZWNob3MgbW9yYWxlcyBkZWwgYXV0b3IgbGEgbm8gcmVwcm9kdWNjacOzbiwgY29tdW5pY2FjacOzbiBvIGRlbcOhcyB1dGlsaXphY2lvbmVzIGRlIGxhIG9icmEuIExhIHV0aWxpemFjacOzbiBvIG5vIGRlIGxhIG9icmEsIGFzw60gY29tbyBzdSBmb3JtYSBkZSB1dGlsaXphY2nDs24gc2Vyw6EgZmFjdWx0YWQgZXhjbHVzaXZhIGRlIGxhIFVOSVZFUlNJREFELgogClNFWFRBLiBEdXJhY2nDs24geSB0ZXJyaXRvcmlvLiBMYSBwcmVzZW50ZSBsaWNlbmNpYSBkZSB1c28gcXVlIHNlIG90b3JnYSBhIGZhdm9yIGRlIGxhIFVOSVZFUlNJREFEIHRlbmRyw6EgdW5hIGR1cmFjacOzbiBlcXVpdmFsZW50ZSBhbCB0w6lybWlubyBkZSBwcm90ZWNjacOzbiBsZWdhbCBkZSBsYSBvYnJhIHkgcGFyYSB0b2RvcyBsb3MgcGHDrXNlcyBkZWwgbXVuZG8uCgpTw4lQVElNQS4gVXNvIGRlIENyZWF0aXZlIENvbW1vbnMuIEVsIEFVVE9SIGF1dG9yaXphcsOhIGxhIGRpZnVzacOzbiBkZSBzdSBjb250ZW5pZG8gYmFqbyB1bmEgbGljZW5jaWEgQ3JlYXRpdmUgQ29tbW9ucyBhdHJpYnVjacOzbiA0LjAgaW50ZXJuYWNpb25hbCwgcXVlIGRlYmVyw6EgaW5jbHVpcnNlIGVuIGVsIGNvbnRlbmlkby4gCgpPQ1RBVkEuIERlcmVjaG8gZGUgZXhjbHVzacOzbi4gQ2FkYSBhdXRvciBwdWVkZSBpbmRpY2FyIGVuIGVsIG1vbWVudG8gZGUgZGVww7NzaXRvIGRlbCBjb250ZW5pZG8gcXVlIGVsIHRleHRvIGNvbXBsZXRvIGRlIGxhIHByb2R1Y2Npw7NuIGFjYWTDqW1pY2EgbyBjaWVudMOtZmljYSBubyBlc3RlIGNvbiBhY2Nlc28gYWJpZXJ0byBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIHBvciBtb3Rpdm9zIGRlIGNvbmZpZGVuY2lhbGlkYWQsIHBvcnF1ZSBzZSBlbmN1ZW50cmUgZW4gdsOtYXMgZGUgb2J0ZW5lciB1biBkZXJlY2hvIGRlIHByb3BpZWRhZCBpbmR1c3RyaWFsIG8gZXhpc3RpciBhY3VlcmRvcyBwcmV2aW9zIGNvbiB0ZXJjZXJvcyAoZWRpdG9yaWFsZXMsIHJldmlzdGFzIGNpZW50w61maWNhcywgb3RyYXMgaW5zdGl0dWNpb25lcykuIEVsIGF1dG9yIHNlIGNvbXByb21ldGUgYSBkZXBvc2l0YXIgbG9zIG1ldGFkYXRvcyBlIGluZm9ybWFyIGVsIHRpZW1wbyBkZSBlbWJhcmdvIGR1cmFudGUgZWwgY3VhbCBlbCB0ZXh0byBjb21wbGV0byB0ZW5kcsOhIGFjY2VzbyByZXN0cmluZ2lkby4gCgpOT1ZFTkEuIEVsIEFVVE9SIGFsIGFjZXB0YXIgZXN0YSBsaWNlbmNpYSBhZHVjZSBxdWUgZXN0YSBwcm9kdWNjacOzbiBzZSBkZXNhcnJvbGzDsyBlbiBlbCBwZXJpb2RvIGVuIHF1ZSBzZSBlbmN1ZW50cmEgY29uIHbDrW5jdWxvcyBjb24gTGEgVW5pdmVyc2lkYWQuCgpEw4lDSU1BLiBOb3JtYXMgYXBsaWNhYmxlcy4gUGFyYSBsYSBpbnRlcnByZXRhY2nDs24geSBjdW1wbGltaWVudG8gZGVsIHByZXNlbnRlIGFjdWVyZG8gbGFzIHBhcnRlcyBzZSBzb21ldGVuIGEgbGEgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5MywgbGEgTGV5IDIzIGRlIDE5ODIgeSBkZW3DoXMgbm9ybWFzIGFwbGljYWJsZXMgZGUgQ29sb21iaWEuIEFkZW3DoXMsIGEgbGFzIG5vcm1hcyBJbnN0aXR1Y2lvbmFsZXMgcXVlIGFwbGlxdWVuLgoKTGEgcHJlc2VudGUgbGljZW5jaWEgc2UgYXV0b3JpemEgZW4gbGEgZmVjaGEgZGUgcHVibGljYWNpw7NuIGVuIGxvcyByZXBvc2l0b3Jpb3MgaW5zdGl0dWNpb25hbGVzLgo= |