Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico

El propósito de este trabajo de grado es abordar la carencia en la industria de automatización en Colombia en cuanto a la implementación de sistemas de inteligencia artificial. Se propone un sistema de visión artificial basado en técnicas de redes neuronales convolucionales (CNNs) para la detección...

Full description

Autores:
Jiménez Pérez, Stephen Manuel
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2024
Institución:
Universidad Cooperativa de Colombia
Repositorio:
Repositorio UCC
Idioma:
spa
OAI Identifier:
oai:repository.ucc.edu.co:20.500.12494/56419
Acceso en línea:
https://hdl.handle.net/20.500.12494/56419
Palabra clave:
620 - Ingeniería y operaciones afines
Automatización
Brazo robótico
CNNs
IA
Automation
Robotic arm
CNNs
AI
Rights
openAccess
License
https://creativecommons.org/licenses/by/4.0/
id COOPER2_17337753a0acc730f9d1ea76913f6f97
oai_identifier_str oai:repository.ucc.edu.co:20.500.12494/56419
network_acronym_str COOPER2
network_name_str Repositorio UCC
repository_id_str
dc.title.spa.fl_str_mv Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico
title Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico
spellingShingle Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico
620 - Ingeniería y operaciones afines
Automatización
Brazo robótico
CNNs
IA
Automation
Robotic arm
CNNs
AI
title_short Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico
title_full Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico
title_fullStr Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico
title_full_unstemmed Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico
title_sort Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico
dc.creator.fl_str_mv Jiménez Pérez, Stephen Manuel
dc.contributor.advisor.none.fl_str_mv Restrepo Leal, Diego Andrés
Noguera Polania, José Fernando
dc.contributor.author.none.fl_str_mv Jiménez Pérez, Stephen Manuel
dc.subject.ddc.none.fl_str_mv 620 - Ingeniería y operaciones afines
topic 620 - Ingeniería y operaciones afines
Automatización
Brazo robótico
CNNs
IA
Automation
Robotic arm
CNNs
AI
dc.subject.proposal.spa.fl_str_mv Automatización
Brazo robótico
CNNs
IA
dc.subject.proposal.eng.fl_str_mv Automation
Robotic arm
CNNs
AI
description El propósito de este trabajo de grado es abordar la carencia en la industria de automatización en Colombia en cuanto a la implementación de sistemas de inteligencia artificial. Se propone un sistema de visión artificial basado en técnicas de redes neuronales convolucionales (CNNs) para la detección de elementos, permitiendo su traslado a una trayectoria deseada mediante brazos robóticos. El sistema incluye un subsistema que maneja un brazo robótico con una trayectoria predefinida, estableciendo toda la comunicación a través del Framework ROS, y un subsistema de detección de visión artificial utilizando la técnica de CNNs. Los resultados evidencian la precisión del modelo de detección y la eficacia de la implementación de ROS, validando la ventaja del sistema diseñado con inteligencia artificial. Esto demuestra la capacidad del sistema para adaptarse a diversos problemas de detección en la industria, contribuyendo al aumento de la automatización y la disminución de fallas humanas.
publishDate 2024
dc.date.accessioned.none.fl_str_mv 2024-07-19T19:20:56Z
dc.date.available.none.fl_str_mv 2024-07-19T19:20:56Z
dc.date.issued.none.fl_str_mv 2024-06-24
dc.type.none.fl_str_mv Trabajo de grado - Pregrado
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.none.fl_str_mv Text
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.none.fl_str_mv http://purl.org/redcol/resource_type/TP
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
format http://purl.org/coar/resource_type/c_7a1f
status_str acceptedVersion
dc.identifier.citation.none.fl_str_mv Jiménez Pérez, S. M. (2024). Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico. [Tesis de pregrado, Universidad Cooperativa de Colombia]. Repositorio Institucional Universidad Cooperativa de Colombia.
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.12494/56419
identifier_str_mv Jiménez Pérez, S. M. (2024). Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico. [Tesis de pregrado, Universidad Cooperativa de Colombia]. Repositorio Institucional Universidad Cooperativa de Colombia.
url https://hdl.handle.net/20.500.12494/56419
dc.language.iso.none.fl_str_mv spa
language spa
dc.relation.references.none.fl_str_mv Abellán Sánchez, D. (2021). Estimación de poses de mano para control de brazo robot de bajo coste. http://rua.ua.es/dspace/handle/10045/115958
Amin, Y., Gianoglio, C., & Valle, M. (2023). Embedded real-time objects’ hardness classification for robotic grippers. Future Generation Computer Systems, 148, 211–224. https://doi.org/10.1016/J.FUTURE.2023.06.002
Bancolombia. (2024). Estos son los países líderes en inteligencia artificial. https://blog.bancolombia.com/innovacion/paises-lideres-inteligencia-artificial/
Camara, L. G., & Přeučil, L. (2020). Visual Place Recognition by spatial matching of high-level CNN features. Robotics and Autonomous Systems, 133, 103625. https://doi.org/10.1016/J.ROBOT.2020.103625
Costa, C. M., Sobreira, H. M., Sousa, A. J., & Veiga, G. M. (2016). Robust 3/6 DoF self-localization system with selective map update for mobile robot platforms. Robotics and Autonomous Systems, 76, 113–140. https://doi.org/10.1016/J.ROBOT.2015.09.030
De, E., Correa, H., & De La Hoz Franco, E. (2009). Linux ubuntu server. https://doi.org/10.1/JQUERY.MIN.JS
Dixit, S., & Soni, N. (2021). Object Detection in Image Using Components of Convolutional Neural Network and YOLO. 535–548. https://doi.org/10.1007/978-981-15-9873-9_42
DNP. (2019). Documentos CONPES. Departamento Nacional de Planeación. https://www.dnp.gov.co/LaEntidad_/subdireccion-general-prospectiva-desarrollo-nacional/direccion-desarrollo-digital/Paginas/Documentos-Conpes.aspx
Elvis, S. G. A. (2021). Sistema Para La Clasificación Automática De Peces Endémicos Del Ecuador Usando Técnicas De Aprendizaje Profundo. https://repositorio.puce.edu.ec/handle/123456789/38023
Fan, X., Chai, X., Zhou, J., & Sun, T. (2023). Deep learning based weed detection and target spraying robot system at seedling stage of cotton field. Computers and Electronics in Agriculture, 214, 108317. https://doi.org/10.1016/J.COMPAG.2023.108317
Gao, F., Fu, L., Zhang, X., Majeed, Y., Li, R., Karkee, M., & Zhang, Q. (2020). Multi-class fruit-on-plant detection for apple in SNAP system using Faster R-CNN. Computers and Electronics in Agriculture, 176, 105634. https://doi.org/10.1016/J.COMPAG.2020.105634
García Cazorla Director, A., & Luis Muñoz Lozano, J. (2013). ROS : Robot Operating System. https://repositorio.upct.es/handle/10317/3597
Gharakhani, H., Alex Thomasson, J., & Lu, Y. (2023). Integration and preliminary evaluation of a robotic cotton harvester prototype. Computers and Electronics in Agriculture, 211, 107943. https://doi.org/10.1016/J.COMPAG.2023.107943
Guío, A., Tamayo, E., & Gómez, P. (2021). Marco Ético para la inteligencia artificial en Colombia. Ministerio de Ciencia, Tecnología e Innovación.
Hasan, M., Vasker, N., Hossain, M. M., Bhuiyan, M. I., Biswas, J., & Ahmmad Rashid, M. R. (2024). Framework for fish freshness detection and rotten fish removal in Bangladesh using mask R–CNN method with robotic arm and fisheye analysis. Journal of Agriculture and Food Research, 16, 101139. https://doi.org/10.1016/J.JAFR.2024.101139
IBM. (n.d.). ¿Qué es la Industria 4.0 y cómo funciona? | IBM. International Business Machine. Retrieved May 20, 2024, from https://www.ibm.com/es-es/topics/industry-4-0
Jin, T., & Han, X. (2024). Robotic arms in precision agriculture: A comprehensive review of the technologies, applications, challenges, and future prospects. Computers and Electronics in Agriculture, 221, 108938. https://doi.org/10.1016/J.Compag.2024.108938
Kuo, C. C. J. (2016). Understanding Convolutional Neural Networks with A Mathematical Model. Journal of Visual Communication and Image Representation, 41, 406–413. https://doi.org/10.1016/j.jvcir.2016.11.003
LeCun, Y., Bottou, L., Bengio, Y., & Haffner, P. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278–2323. https://doi.org/10.1109/5.726791
Mazhitov, A., Syrymova, T., Kappassov, Z., & Rubagotti, M. (2023). Human–robot handover with prior-to-pass soft/rigid object classification via tactile glove. Robotics and Autonomous Systems, 159, 104311. https://doi.org/10.1016/J.ROBOT.2022.104311
McKinsey & Company. (2022). El estado de la IA en 2022 y el balance de media década | McKinsey. https://www.mckinsey.com/featured-insights/destacados/el-estado-de-la-ia-en-2022-y-el-balance-de-media-decada/es
Minciencias. (2024). Colombia ya cuenta con una Hoja de Ruta en Inteligencia Artificial | Minciencias. Ministerio de Ciencia, Tecnología e Innovación. https://minciencias.gov.co/sala_de_prensa/colombia-ya-cuenta-con-una-hoja-ruta-en-inteligencia-artificial
MinTIC. (2018). El 1,8% de las empresas en Colombia utiliza Inteligencia Artificial. Ministerio de Tecnologías de La Información y Las Comunicaciones. https://mintic.gov.co/portal/inicio/Sala-de-prensa/MinTIC-en-los-medios/79933:El-1-8-de-las-empresas-en-Colombia-utiliza-Inteligencia-Artificial
Moreno, R. J., Avilés, O., Ovalle, D. M., Del, I., & Resumen, A. (2018). Centro de Investigación de la Universidad Distrital Francisco José de Caldas. Visión Electrónica, 12(2), 208–214. https://doi.org/10.14483/22484728.13996
Noguera, J., García, O., & Robles, C. (2017). Modelado y control de un robot manipulador utilizando las técnicas de control estándar y H infinito. Revista Espacios, 38(58).
Noguera, J., Portillo, N., & Hernandez, L. (2014). Redes Neuronales, Bioinspiración para el Desarrollo de la Ingeniería. INGENIARE, 17, 117–131. https://www.unilibrebaq.edu.co/ojsinvestigacion/index.php/ingeniare/article/view/419
Oliveira, M., Castro, A., Madeira, T., Pedrosa, E., Dias, P., & Santos, V. (2020). A ROS framework for the extrinsic calibration of intelligent vehicles: A multi-sensor, multi-modal approach. Robotics and Autonomous Systems, 131, 103558. https://doi.org/10.1016/J.Robot.2020.103558
Oxford Insights. (2023). AI Readiness Index - Oxford Insights. https://oxfordinsights.com/ai-readiness/ai-readiness-index/
Park, J., Jun, M. B. G., & Yun, H. (2022). Development of robotic bin picking platform with cluttered objects using human guidance and convolutional neural network (CNN). Journal of Manufacturing Systems, 63, 539–549. https://doi.org/10.1016/J.JMSY.2022.05.011
Restrepo Leal, D. A., Viloria Porto, J. P., & Robles Algarín, C. A. (2021). El camino a las redes neuronales artificiales. Editorial Unimagdalena. https://doi.org/10.21676/9789587464290
Ribeiro, J., Lima, R., Eckhardt, T., & Paiva, S. (2021). Robotic Process Automation and Artificial Intelligence in Industry 4.0 – A Literature review. Procedia Computer Science, 181, 51–58. https://doi.org/10.1016/J.PROCS.2021.01.104
Robotis. (n.d.). Dynamixel SDK. Retrieved May 20, 2024, from https://emanual.robotis.com/docs/en/software/dynamixel/dynamixel_sdk/overview/#dynamixel-sdk
ROS. (2022). ROS/Tutorials - ROS Wiki. Robot Operation System. https://wiki.ros.org/ROS/Tutorials
Sandoval, J., Su, H., Vieyres, P., Poisson, G., Ferrigno, G., & De Momi, E. (2018). Collaborative framework for robot-assisted minimally invasive surgery using a 7-DoF anthropomorphic robot. Robotics and Autonomous Systems, 106, 95–106. https://doi.org/10.1016/J.Robot.2018.04.001
Scherer, D., Müller, A., & Behnke, S. (2010). Evaluation of Pooling Operations in Convolutional Architectures for Object Recognition. Lecture Notes in Computer Science (Including Subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 6354 LNCS(PART 3), 92–101. https://doi.org/10.1007/978-3-642-15825-4_10
Sharan, S., Nguyen, D. T., Nauth, P., Umansky, J., & Dominguez-Jimenez, J. J. (2023). Design and Development of a Robotic Arm for an Assistive Robot using ROS. Proceedings of IEEE International Conference on Modelling, Simulation and Intelligent Computing, MoSICom 2023, 197–202. https://doi.org/10.1109/Mosicom59118.2023.10458837
Sileo, M., Capece, N., Gruosso, M., Nigro, M., Bloisi, D. D., Pierri, F., & Erra, U. (2024). Vision-enhanced Peg-in-Hole for automotive body parts using semantic image segmentation and object detection. Engineering Applications of Artificial Intelligence, 128, 107486. https://doi.org/10.1016/J.ENGAPPAI.2023.107486
Song, P., Chen, K., Zhu, L., Yang, M., Ji, C., Xiao, A., Jia, H., Zhang, J., & Yang, W. (2022). An improved cascade R-CNN and RGB-D camera-based method for dynamic cotton top bud recognition and localization in the field. Computers and Electronics in Agriculture, 202, 107442. https://doi.org/10.1016/J.COMPAG.2022.107442
SuperDataScience. (2018). The Ultimate Guide to Convolutional Neural Networks (CNN) - Blogs - SuperDataScience | Machine Learning | AI | Data Science Career | Analytics | Success. https://www.superdatascience.com/blogs/the-ultimate-guide-to-convolutional-neural-networks-cnn
UN. (n.d.). Infraestructura - Desarrollo Sostenible. United Nations. Retrieved May 17, 2024, from https://www.un.org/sustainabledevelopment/es/infrastructure/
Wu, J. (2017). Introduction to Convolutional Neural Networks.
Wu, S., Wong, P. W., Tandoc, E. C., & Salmon, C. T. (2023). Reconfiguring human-machine relations in the automation age: An actor-network analysis on automation’s takeover of the advertising media planning industry. Journal of Business Research, 168, 114234. https://doi.org/10.1016/j.jbusres.2023.114234
Yu, Y., An, X., Lin, J., Li, S., & Chen, Y. (2024). A vision system based on CNN-LSTM for robotic citrus sorting. Information Processing in Agriculture, 11(1), 14–25. https://doi.org/10.1016/J.INPA.2022.06.002
Zhang, S., Yao, J., Wang, R., Liu, Z., Ma, C., Wang, Y., & Zhao, Y. (2022). Design of intelligent fire-fighting robot based on multi-sensor fusion and experimental study on fire scene patrol. Robotics and Autonomous Systems, 154, 104122. https://doi.org/10.1016/J.ROBOT.2022.104122
Zhong, M., Han, R., Liu, Y., Huang, B., Chai, X., & Liu, Y. (2024). Development, integration, and field evaluation of an autonomous Agaricus bisporus picking robot. Computers and Electronics in Agriculture, 220, 108871. https://doi.org/10.1016/J.COMPAG.2024.108871
dc.rights.uri.none.fl_str_mv https://creativecommons.org/licenses/by/4.0/
dc.rights.accessrights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.none.fl_str_mv Atribución 4.0 Internacional (CC BY 4.0)
dc.rights.coar.none.fl_str_mv http://purl.org/coar/access_right/c_abf2
rights_invalid_str_mv https://creativecommons.org/licenses/by/4.0/
Atribución 4.0 Internacional (CC BY 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.none.fl_str_mv 56 p.
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidad Cooperativa de Colombia, Facultad de Ingenierías, Ingeniería Electrónica, Santa Marta
dc.publisher.program.none.fl_str_mv Ingeniería Electrónica
dc.publisher.faculty.none.fl_str_mv Ingenierías
dc.publisher.place.none.fl_str_mv Santa Marta
dc.publisher.branch.none.fl_str_mv Santa Marta
publisher.none.fl_str_mv Universidad Cooperativa de Colombia, Facultad de Ingenierías, Ingeniería Electrónica, Santa Marta
institution Universidad Cooperativa de Colombia
bitstream.url.fl_str_mv https://repository.ucc.edu.co/bitstreams/ea081f9f-92f0-42be-a5ab-d583cd20e582/download
https://repository.ucc.edu.co/bitstreams/6d310f4f-4f09-4375-9fae-e8cbba6522b9/download
https://repository.ucc.edu.co/bitstreams/7f89bffd-bb0d-48be-906d-17549d9f51cf/download
https://repository.ucc.edu.co/bitstreams/8d2500cb-2809-4a3f-9f53-10a38c8870c4/download
https://repository.ucc.edu.co/bitstreams/dd1c7623-e7ec-4218-9e05-38d554bf40fe/download
https://repository.ucc.edu.co/bitstreams/3edc7110-c0a1-401d-9160-47df700073f3/download
https://repository.ucc.edu.co/bitstreams/ce158889-c07b-4354-995d-ee5b4c6868e1/download
https://repository.ucc.edu.co/bitstreams/3fb64c5f-cb5c-4a66-add4-cc6a22188b0c/download
https://repository.ucc.edu.co/bitstreams/cdd31753-5416-42fd-9340-bc951750750b/download
https://repository.ucc.edu.co/bitstreams/ccccb75c-eabb-4bbf-afd6-29e612e52696/download
bitstream.checksum.fl_str_mv f3e1bd65208c1fa1ada13f6cfb12d0b9
1f86b87ce4465eeaeac79d30b3148c1d
6c6d30709dedbea6fcfe82ec56523c98
3bce4f7ab09dfc588f126e1e36e98a45
4d5908c143a5f851c51c355bd082c2af
62743cd92f8a2906272d7ff3d6a28af8
70601facb26577df851e3f520f725dc5
f2537115dff254f1523834eb8cc997fd
4b5b8c34e8be9e16bb769296bcd9b03a
eb8db4ff0f02a502795f33418cfe7784
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional Universidad Cooperativa de Colombia
repository.mail.fl_str_mv bdigital@metabiblioteca.com
_version_ 1814246958105100288
spelling Restrepo Leal, Diego AndrésNoguera Polania, José FernandoJiménez Pérez, Stephen Manuel2024-07-19T19:20:56Z2024-07-19T19:20:56Z2024-06-24Jiménez Pérez, S. M. (2024). Inteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robótico. [Tesis de pregrado, Universidad Cooperativa de Colombia]. Repositorio Institucional Universidad Cooperativa de Colombia.https://hdl.handle.net/20.500.12494/56419El propósito de este trabajo de grado es abordar la carencia en la industria de automatización en Colombia en cuanto a la implementación de sistemas de inteligencia artificial. Se propone un sistema de visión artificial basado en técnicas de redes neuronales convolucionales (CNNs) para la detección de elementos, permitiendo su traslado a una trayectoria deseada mediante brazos robóticos. El sistema incluye un subsistema que maneja un brazo robótico con una trayectoria predefinida, estableciendo toda la comunicación a través del Framework ROS, y un subsistema de detección de visión artificial utilizando la técnica de CNNs. Los resultados evidencian la precisión del modelo de detección y la eficacia de la implementación de ROS, validando la ventaja del sistema diseñado con inteligencia artificial. Esto demuestra la capacidad del sistema para adaptarse a diversos problemas de detección en la industria, contribuyendo al aumento de la automatización y la disminución de fallas humanas.The purpose of this degree work is to address the lack of implementation of artificial intelligence systems in the automation industry in Colombia. An artificial vision system based on convolutional neural networks (CNNs) techniques is proposed for the detection of elements, allowing their transfer to a desired trajectory by means of robotic arms. The system includes a subsystem that manages a robotic arm with a predefined trajectory, establishing all the communication through the ROS Framework, and a machine vision detection subsystem using the CNNs technique. The results evidence the accuracy of the sensing model and the effectiveness of the ROS implementation, validating the advantage of the system designed with artificial intelligence. This demonstrates the ability of the system to adapt to various detection problems in the industry, contributing to increased automation and decreased human failures.Inteligencia artificial aplicada con el uso de redes neuronales de convolución (cnns) para la detección y traslado de objetos por medio de un brazo robótico. -- Inteligencia artificial aplicada con el uso de redes neuronales de convolución (cnns) para la detección y traslado de objetos por medio de un brazo robótico. -- Dedicatoria. -- Agradecimientos. -- Tabla de contenido. -- Resumen. -- Abstract. -- Capítulo i:. -- 1.1 Introducción. -- 1.2 Planteamiento del problema. -- 1.2.1 Descripción del problema. -- 1.2.2 Formulación del problema. -- 1.3 Objetivos. -- 1.3.1 Objetivo general. -- 1.3.2 Objetivos específicos. -- 1.3.2.1 Configurar un sistema que permita dar instrucciones precisas a un brazo robótico para realizar tareas de detección y traslado de objetos. -- 1.3.2.2 Seleccionar un modelo de inteligencia artificial adecuado para la visión artificial, enfocado en la clasificación precisa de objetos. -- 1.3.2.3 Entrenar el modelo seleccionado de visión artificial utilizando conjuntos de datos específicos para mejorar la precisión y la eficacia en la clasificación de objetos. -- 1.3.2.4 Integrar el sistema de actuadores para el brazo robótico con el sistema de visión artificial, asegurando una comunicación eficiente y una operación coordinada para la detección y traslado de objetos. -- 1.4 Justificación. -- 1.5 Marco referencial. -- 1.5.1 Linux ubuntu. -- 1.5.2 Robot operating system (ros). -- 1.5.2.1 Nodos. -- 1.5.2.2 Topics. -- 1.5.2.3 Roscore (master-node). -- 1.5.2.4 Nodo publisher y nodo subscriber. -- 1.5.3 Dynamixel sdk. -- 1.5.4 Modelo de una neurona. -- 1.5.4.1 Función de activación. -- 1.5.5 Redes neuronales de convolución (cnns). -- 1.5.5.1 Imagen de entrada. -- 1.5.5.2 Capa de convolución. -- 1.5.5.3 Capa de rectified linear unit (relu). -- 1.5.5.4 Capa de max pooling (mp). -- 1.5.5.5 Capa de flattening. -- 1.5.5.6 Capa de full connection. -- 1.6 Estado de arte. -- 1.6.1 Trabajos previos. -- 1.6.1.1 Framework for fish freshness detection and rotten fish removal in bangladesh using mask r–cnn method with robotic arm and fisheye análisis. -- 1.6.1.2 Robotic arms in precision agriculture: a comprehensive review of the technologies, applications, challenges, and future prospects. -- 1.6.1.3 Design and development of a robotic arm for an assistive robot using ros. -- 1.6.1.4 Redes neuronales de convolución, robótica y automatización. -- 1.6.2 Contribución. -- Capítulo ii:. -- 2.1 Metodología. -- 2.2 Tipo de estudio. -- 2.3 Fuentes de recolección de información. -- 2.3.1 Fuentes primarias. -- 2.3.2 Fuentes secundarias. -- 2.2 Preparación del entorno. -- 2.2.1 Configuración del entorno de trabajo. -- 2.2.1.1 Instalación de las librerías y paquetes utilizados. -- 2.2.1.2 Instalación de softwares. -- 2.2.2 Adquisición de los ángulos para la trayectoria deseada. -- 2.2.3 Algoritmo de movimiento. -- 2.3 Visión. -- 2.3.1 Selección del algoritmo de visión artificial. -- 2.3.2 Adquisición de imágenes. -- 2.3.3 Entrenamiento del algoritmo de visión artificial. -- 2.4 Integración de los sistemas. -- Capítulo iii:. -- 3.1 Resultados. -- Capítulo iv:. -- 4.1 Conclusiones. -- Referencias. -- Anexos. -- Enlaces. -- RecomendacionesPregradoIngeniero electrónico56 p.application/pdfspaUniversidad Cooperativa de Colombia, Facultad de Ingenierías, Ingeniería Electrónica, Santa MartaIngeniería ElectrónicaIngenieríasSanta MartaSanta Martahttps://creativecommons.org/licenses/by/4.0/info:eu-repo/semantics/openAccessAtribución 4.0 Internacional (CC BY 4.0)http://purl.org/coar/access_right/c_abf2620 - Ingeniería y operaciones afinesAutomatizaciónBrazo robóticoCNNsIAAutomationRobotic armCNNsAIInteligencia artificial aplicada con el uso de redes neuronales de convolución (CNNs) para la detección y traslado de objetos por medio de un brazo robóticoTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttp://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/acceptedVersionAbellán Sánchez, D. (2021). Estimación de poses de mano para control de brazo robot de bajo coste. http://rua.ua.es/dspace/handle/10045/115958Amin, Y., Gianoglio, C., & Valle, M. (2023). Embedded real-time objects’ hardness classification for robotic grippers. Future Generation Computer Systems, 148, 211–224. https://doi.org/10.1016/J.FUTURE.2023.06.002Bancolombia. (2024). Estos son los países líderes en inteligencia artificial. https://blog.bancolombia.com/innovacion/paises-lideres-inteligencia-artificial/Camara, L. G., & Přeučil, L. (2020). Visual Place Recognition by spatial matching of high-level CNN features. Robotics and Autonomous Systems, 133, 103625. https://doi.org/10.1016/J.ROBOT.2020.103625Costa, C. M., Sobreira, H. M., Sousa, A. J., & Veiga, G. M. (2016). Robust 3/6 DoF self-localization system with selective map update for mobile robot platforms. Robotics and Autonomous Systems, 76, 113–140. https://doi.org/10.1016/J.ROBOT.2015.09.030De, E., Correa, H., & De La Hoz Franco, E. (2009). Linux ubuntu server. https://doi.org/10.1/JQUERY.MIN.JSDixit, S., & Soni, N. (2021). Object Detection in Image Using Components of Convolutional Neural Network and YOLO. 535–548. https://doi.org/10.1007/978-981-15-9873-9_42DNP. (2019). Documentos CONPES. Departamento Nacional de Planeación. https://www.dnp.gov.co/LaEntidad_/subdireccion-general-prospectiva-desarrollo-nacional/direccion-desarrollo-digital/Paginas/Documentos-Conpes.aspxElvis, S. G. A. (2021). Sistema Para La Clasificación Automática De Peces Endémicos Del Ecuador Usando Técnicas De Aprendizaje Profundo. https://repositorio.puce.edu.ec/handle/123456789/38023Fan, X., Chai, X., Zhou, J., & Sun, T. (2023). Deep learning based weed detection and target spraying robot system at seedling stage of cotton field. Computers and Electronics in Agriculture, 214, 108317. https://doi.org/10.1016/J.COMPAG.2023.108317Gao, F., Fu, L., Zhang, X., Majeed, Y., Li, R., Karkee, M., & Zhang, Q. (2020). Multi-class fruit-on-plant detection for apple in SNAP system using Faster R-CNN. Computers and Electronics in Agriculture, 176, 105634. https://doi.org/10.1016/J.COMPAG.2020.105634García Cazorla Director, A., & Luis Muñoz Lozano, J. (2013). ROS : Robot Operating System. https://repositorio.upct.es/handle/10317/3597Gharakhani, H., Alex Thomasson, J., & Lu, Y. (2023). Integration and preliminary evaluation of a robotic cotton harvester prototype. Computers and Electronics in Agriculture, 211, 107943. https://doi.org/10.1016/J.COMPAG.2023.107943Guío, A., Tamayo, E., & Gómez, P. (2021). Marco Ético para la inteligencia artificial en Colombia. Ministerio de Ciencia, Tecnología e Innovación.Hasan, M., Vasker, N., Hossain, M. M., Bhuiyan, M. I., Biswas, J., & Ahmmad Rashid, M. R. (2024). Framework for fish freshness detection and rotten fish removal in Bangladesh using mask R–CNN method with robotic arm and fisheye analysis. Journal of Agriculture and Food Research, 16, 101139. https://doi.org/10.1016/J.JAFR.2024.101139IBM. (n.d.). ¿Qué es la Industria 4.0 y cómo funciona? | IBM. International Business Machine. Retrieved May 20, 2024, from https://www.ibm.com/es-es/topics/industry-4-0Jin, T., & Han, X. (2024). Robotic arms in precision agriculture: A comprehensive review of the technologies, applications, challenges, and future prospects. Computers and Electronics in Agriculture, 221, 108938. https://doi.org/10.1016/J.Compag.2024.108938Kuo, C. C. J. (2016). Understanding Convolutional Neural Networks with A Mathematical Model. Journal of Visual Communication and Image Representation, 41, 406–413. https://doi.org/10.1016/j.jvcir.2016.11.003LeCun, Y., Bottou, L., Bengio, Y., & Haffner, P. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278–2323. https://doi.org/10.1109/5.726791Mazhitov, A., Syrymova, T., Kappassov, Z., & Rubagotti, M. (2023). Human–robot handover with prior-to-pass soft/rigid object classification via tactile glove. Robotics and Autonomous Systems, 159, 104311. https://doi.org/10.1016/J.ROBOT.2022.104311McKinsey & Company. (2022). El estado de la IA en 2022 y el balance de media década | McKinsey. https://www.mckinsey.com/featured-insights/destacados/el-estado-de-la-ia-en-2022-y-el-balance-de-media-decada/esMinciencias. (2024). Colombia ya cuenta con una Hoja de Ruta en Inteligencia Artificial | Minciencias. Ministerio de Ciencia, Tecnología e Innovación. https://minciencias.gov.co/sala_de_prensa/colombia-ya-cuenta-con-una-hoja-ruta-en-inteligencia-artificialMinTIC. (2018). El 1,8% de las empresas en Colombia utiliza Inteligencia Artificial. Ministerio de Tecnologías de La Información y Las Comunicaciones. https://mintic.gov.co/portal/inicio/Sala-de-prensa/MinTIC-en-los-medios/79933:El-1-8-de-las-empresas-en-Colombia-utiliza-Inteligencia-ArtificialMoreno, R. J., Avilés, O., Ovalle, D. M., Del, I., & Resumen, A. (2018). Centro de Investigación de la Universidad Distrital Francisco José de Caldas. Visión Electrónica, 12(2), 208–214. https://doi.org/10.14483/22484728.13996Noguera, J., García, O., & Robles, C. (2017). Modelado y control de un robot manipulador utilizando las técnicas de control estándar y H infinito. Revista Espacios, 38(58).Noguera, J., Portillo, N., & Hernandez, L. (2014). Redes Neuronales, Bioinspiración para el Desarrollo de la Ingeniería. INGENIARE, 17, 117–131. https://www.unilibrebaq.edu.co/ojsinvestigacion/index.php/ingeniare/article/view/419Oliveira, M., Castro, A., Madeira, T., Pedrosa, E., Dias, P., & Santos, V. (2020). A ROS framework for the extrinsic calibration of intelligent vehicles: A multi-sensor, multi-modal approach. Robotics and Autonomous Systems, 131, 103558. https://doi.org/10.1016/J.Robot.2020.103558Oxford Insights. (2023). AI Readiness Index - Oxford Insights. https://oxfordinsights.com/ai-readiness/ai-readiness-index/Park, J., Jun, M. B. G., & Yun, H. (2022). Development of robotic bin picking platform with cluttered objects using human guidance and convolutional neural network (CNN). Journal of Manufacturing Systems, 63, 539–549. https://doi.org/10.1016/J.JMSY.2022.05.011Restrepo Leal, D. A., Viloria Porto, J. P., & Robles Algarín, C. A. (2021). El camino a las redes neuronales artificiales. Editorial Unimagdalena. https://doi.org/10.21676/9789587464290Ribeiro, J., Lima, R., Eckhardt, T., & Paiva, S. (2021). Robotic Process Automation and Artificial Intelligence in Industry 4.0 – A Literature review. Procedia Computer Science, 181, 51–58. https://doi.org/10.1016/J.PROCS.2021.01.104Robotis. (n.d.). Dynamixel SDK. Retrieved May 20, 2024, from https://emanual.robotis.com/docs/en/software/dynamixel/dynamixel_sdk/overview/#dynamixel-sdkROS. (2022). ROS/Tutorials - ROS Wiki. Robot Operation System. https://wiki.ros.org/ROS/TutorialsSandoval, J., Su, H., Vieyres, P., Poisson, G., Ferrigno, G., & De Momi, E. (2018). Collaborative framework for robot-assisted minimally invasive surgery using a 7-DoF anthropomorphic robot. Robotics and Autonomous Systems, 106, 95–106. https://doi.org/10.1016/J.Robot.2018.04.001Scherer, D., Müller, A., & Behnke, S. (2010). Evaluation of Pooling Operations in Convolutional Architectures for Object Recognition. Lecture Notes in Computer Science (Including Subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 6354 LNCS(PART 3), 92–101. https://doi.org/10.1007/978-3-642-15825-4_10Sharan, S., Nguyen, D. T., Nauth, P., Umansky, J., & Dominguez-Jimenez, J. J. (2023). Design and Development of a Robotic Arm for an Assistive Robot using ROS. Proceedings of IEEE International Conference on Modelling, Simulation and Intelligent Computing, MoSICom 2023, 197–202. https://doi.org/10.1109/Mosicom59118.2023.10458837Sileo, M., Capece, N., Gruosso, M., Nigro, M., Bloisi, D. D., Pierri, F., & Erra, U. (2024). Vision-enhanced Peg-in-Hole for automotive body parts using semantic image segmentation and object detection. Engineering Applications of Artificial Intelligence, 128, 107486. https://doi.org/10.1016/J.ENGAPPAI.2023.107486Song, P., Chen, K., Zhu, L., Yang, M., Ji, C., Xiao, A., Jia, H., Zhang, J., & Yang, W. (2022). An improved cascade R-CNN and RGB-D camera-based method for dynamic cotton top bud recognition and localization in the field. Computers and Electronics in Agriculture, 202, 107442. https://doi.org/10.1016/J.COMPAG.2022.107442SuperDataScience. (2018). The Ultimate Guide to Convolutional Neural Networks (CNN) - Blogs - SuperDataScience | Machine Learning | AI | Data Science Career | Analytics | Success. https://www.superdatascience.com/blogs/the-ultimate-guide-to-convolutional-neural-networks-cnnUN. (n.d.). Infraestructura - Desarrollo Sostenible. United Nations. Retrieved May 17, 2024, from https://www.un.org/sustainabledevelopment/es/infrastructure/Wu, J. (2017). Introduction to Convolutional Neural Networks.Wu, S., Wong, P. W., Tandoc, E. C., & Salmon, C. T. (2023). Reconfiguring human-machine relations in the automation age: An actor-network analysis on automation’s takeover of the advertising media planning industry. Journal of Business Research, 168, 114234. https://doi.org/10.1016/j.jbusres.2023.114234Yu, Y., An, X., Lin, J., Li, S., & Chen, Y. (2024). A vision system based on CNN-LSTM for robotic citrus sorting. Information Processing in Agriculture, 11(1), 14–25. https://doi.org/10.1016/J.INPA.2022.06.002Zhang, S., Yao, J., Wang, R., Liu, Z., Ma, C., Wang, Y., & Zhao, Y. (2022). Design of intelligent fire-fighting robot based on multi-sensor fusion and experimental study on fire scene patrol. Robotics and Autonomous Systems, 154, 104122. https://doi.org/10.1016/J.ROBOT.2022.104122Zhong, M., Han, R., Liu, Y., Huang, B., Chai, X., & Liu, Y. (2024). Development, integration, and field evaluation of an autonomous Agaricus bisporus picking robot. Computers and Electronics in Agriculture, 220, 108871. https://doi.org/10.1016/J.COMPAG.2024.108871PublicationORIGINAL2024_Trabajo_Grado.pdf2024_Trabajo_Grado.pdfapplication/pdf1839063https://repository.ucc.edu.co/bitstreams/ea081f9f-92f0-42be-a5ab-d583cd20e582/downloadf3e1bd65208c1fa1ada13f6cfb12d0b9MD552024_Licencia_Uso .pdf2024_Licencia_Uso .pdfapplication/pdf204986https://repository.ucc.edu.co/bitstreams/6d310f4f-4f09-4375-9fae-e8cbba6522b9/download1f86b87ce4465eeaeac79d30b3148c1dMD512024_Acta_Sustentacion.pdf2024_Acta_Sustentacion.pdfapplication/pdf283331https://repository.ucc.edu.co/bitstreams/7f89bffd-bb0d-48be-906d-17549d9f51cf/download6c6d30709dedbea6fcfe82ec56523c98MD54LICENSElicense.txtlicense.txttext/plain; charset=utf-84334https://repository.ucc.edu.co/bitstreams/8d2500cb-2809-4a3f-9f53-10a38c8870c4/download3bce4f7ab09dfc588f126e1e36e98a45MD53TEXT2024_Trabajo_Grado.pdf.txt2024_Trabajo_Grado.pdf.txtExtracted texttext/plain70111https://repository.ucc.edu.co/bitstreams/dd1c7623-e7ec-4218-9e05-38d554bf40fe/download4d5908c143a5f851c51c355bd082c2afMD562024_Licencia_Uso .pdf.txt2024_Licencia_Uso .pdf.txtExtracted texttext/plain5895https://repository.ucc.edu.co/bitstreams/3edc7110-c0a1-401d-9160-47df700073f3/download62743cd92f8a2906272d7ff3d6a28af8MD582024_Acta_Sustentacion.pdf.txt2024_Acta_Sustentacion.pdf.txtExtracted texttext/plain1879https://repository.ucc.edu.co/bitstreams/ce158889-c07b-4354-995d-ee5b4c6868e1/download70601facb26577df851e3f520f725dc5MD510THUMBNAIL2024_Trabajo_Grado.pdf.jpg2024_Trabajo_Grado.pdf.jpgGenerated Thumbnailimage/jpeg5965https://repository.ucc.edu.co/bitstreams/3fb64c5f-cb5c-4a66-add4-cc6a22188b0c/downloadf2537115dff254f1523834eb8cc997fdMD572024_Licencia_Uso .pdf.jpg2024_Licencia_Uso .pdf.jpgGenerated Thumbnailimage/jpeg12081https://repository.ucc.edu.co/bitstreams/cdd31753-5416-42fd-9340-bc951750750b/download4b5b8c34e8be9e16bb769296bcd9b03aMD592024_Acta_Sustentacion.pdf.jpg2024_Acta_Sustentacion.pdf.jpgGenerated Thumbnailimage/jpeg12012https://repository.ucc.edu.co/bitstreams/ccccb75c-eabb-4bbf-afd6-29e612e52696/downloadeb8db4ff0f02a502795f33418cfe7784MD51120.500.12494/56419oai:repository.ucc.edu.co:20.500.12494/564192024-07-20 03:06:10.554https://creativecommons.org/licenses/by/4.0/Atribución 4.0 Internacional (CC BY 4.0)open.accesshttps://repository.ucc.edu.coRepositorio Institucional Universidad Cooperativa de Colombiabdigital@metabiblioteca.comVU5JVkVSU0lEQUQgQ09PUEVSQVRJVkEgREUgQ09MT01CSUEKUkVQT1NJVE9SSU9TIElOU1RJVFVDSU9OQUxFUwpMSUNFTkNJQSBERSBVU08KClBvciBtZWRpbyBkZWwgcHJlc2VudGUgZG9jdW1lbnRvLCBlbCBBdXRvcihlcyksIG1heW9yIChlcykgZGUgZWRhZCwgcXVpZW4gZW4gYWRlbGFudGUgc2UgZGVub21pbmFyw6EgZWwgQVVUT1IsIGNvbmZpZXJlIGEgbGEgVU5JVkVSU0lEQUQgQ09PUEVSQVRJVkEgREUgQ09MT01CSUEsIGNvbiBOSVQuIDg2MC0wMjk5MjQtNywgdW5hIExJQ0VOQ0lBIERFIFVTTyBkZSBvYnJhLCBiYWpvIGxhcyBzaWd1aWVudGVzIGNvbmRpY2lvbmVzLgoKQ0zDgVVTVUxBUwoKUFJJTUVSQS4gT2JqZXRvLiBFTCBBVVRPUiBwb3IgZXN0ZSBhY3RvIGF1dG9yaXphIGxhIHV0aWxpemFjacOzbiBkZSBsYSBvYnJhLCBkZSBjb25mb3JtaWRhZCBjb24gbG8gZXN0aXB1bGFkbyBhIGNvbnRpbnVhY2nDs246IAoKKGEpIFBhcmEgZWZlY3RvcyBkZSBsYSBwcmVzZW50ZSBsaWNlbmNpYSBzZSBhdXRvcml6YSBsYSByZXByb2R1Y2Npw7NuIGRlIGxhIG9icmEgYW50ZXJpb3JtZW50ZSBjaXRhZGEsIGxhIGN1YWwgc2UgYWxvamFyw6EgZW4gZm9ybWF0byBkaWdpdGFsIGVuIGxhcyBwbGF0YWZvcm1hcyBvIHJlcG9zaXRvcmlvcyBhZG1pbmlzdHJhZG9zIHBvciBsYSBVTklWRVJTSURBRCBvIGVuIG90cm8gdGlwbyBkZSByZXBvc2l0b3Jpb3MgZXh0ZXJub3MgbyBww6FnaW5hcyB3ZWIgZXNjb2dpZG9zIHBvciBsYSBVTklWRVJTSURBRCwgcGFyYSBmaW5lcyBkZSBkaWZ1c2nDs24geSBkaXZ1bGdhY2nDs24uIEFkaWNpb25hbG1lbnRlLCBzZSBhdXRvcml6YSBhIHF1ZSBsb3MgdXN1YXJpb3MgaW50ZXJub3MgeSBleHRlcm5vcyBkZSBkaWNoYXMgcGxhdGFmb3JtYXMgbyByZXBvc2l0b3Jpb3MgcmVwcm9kdXpjYW4gbyBkZXNjYXJndWVuIGxhIG9icmEsIHNpbiDDoW5pbW8gZGUgbHVjcm8sIHBhcmEgZmluZXMgcHJpdmFkb3MsIGVkdWNhdGl2b3MgbyBhY2Fkw6ltaWNvczsgc2llbXByZSB5IGN1YW5kbyBubyBzZSB2aW9sZW4gYWN1ZXJkb3MgY29uIGVkaXRvcmVzLCBwZXJpb2RvcyBkZSBlbWJhcmdvIG8gYWN1ZXJkb3MgZGUgY29uZmlkZW5jaWFsaWRhZCBxdWUgYXBsaXF1ZW4uCgooYikgU2UgYXV0b3JpemEgbGEgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGxhIHB1ZXN0YSBhIGRpc3Bvc2ljacOzbiBkZSBsYSBvYnJhIG1lbmNpb25hZGEsIGVuIGFjY2VzbyBhYmllcnRvLCBwYXJhIHN1IHV0aWxpemFjacOzbiBlbiBsYXMgcGxhdGFmb3JtYXMgbyByZXBvc2l0b3Jpb3MgYWRtaW5pc3RyYWRvcyBwb3IgbGEgVU5JVkVSU0lEQUQuCgooYykgTG8gYW50ZXJpb3IgZXN0YXLDoSBzdWpldG8gYSBsYXMgZGVmaW5pY2lvbmVzIGNvbnRlbmlkYXMgZW4gbGEgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5MyB5IGxhIExleSAyMyBkZSAxOTgyLgoKClNFR1VOREEuIE9yaWdpbmFsaWRhZCB5IHJlY2xhbWFjaW9uZXMuIEVsIEFVVE9SIGRlY2xhcmEgcXVlIGxhIE9CUkEgZXMgb3JpZ2luYWwgeSBxdWUgZXMgZGUgc3UgY3JlYWNpw7NuIGV4Y2x1c2l2YSwgbm8gZXhpc3RpZW5kbyBpbXBlZGltZW50byBkZSBjdWFscXVpZXIgbmF0dXJhbGV6YSAoZW1iYXJnb3MsIHVzbyBkZSBtYXRlcmlhbCBwcm90ZWdpZG8gcG9yIGRlcmVjaG9zIGRlIGF1dG9yKSBwYXJhIGxhIGNvbmNlc2nDs24gZGUgbG9zIGRlcmVjaG9zIHByZXZpc3RvcyBlbiBlc3RlIGFjdWVyZG8uIEVsIEFVVE9SIHJlc3BvbmRlcsOhIHBvciBjdWFscXVpZXIgYWNjacOzbiBkZSByZWl2aW5kaWNhY2nDs24sIHBsYWdpbyB1IG90cmEgY2xhc2UgZGUgcmVjbGFtYWNpw7NuIHF1ZSBhbCByZXNwZWN0byBwdWRpZXJhIHNvYnJldmVuaXIuCgpURVJDRVJBLiBDb250cmFwcmVzdGFjacOzbi4gRWwgQVVUT1IgYXV0b3JpemEgYSBxdWUgc3Ugb2JyYSBzZWEgdXRpbGl6YWRhIGRlIGNvbmZvcm1pZGFkIGNvbiBsYSBjbMOhdXN1bGEgUFJJTUVSQSBkZSBmb3JtYSBncmF0dWl0YSwgZXMgZGVjaXIsIHF1ZSBsYSB1dGlsaXphY2nDs24gZGUgbGEgbWlzbWEgbm8gZ2VuZXJhIG5pbmfDum4gcGFnbyBvIHJlZ2Fsw61hcyBlbiBmYXZvciBkZSBlc3RlLgoKQ1VBUlRBLiBUaXR1bGFyaWRhZCBkZSBkZXJlY2hvcy4gRWwgcHJlc2VudGUgY29udHJhdG8gbm8gdHJhbnNmaWVyZSBsYSB0aXR1bGFyaWRhZCBkZSBsb3MgZGVyZWNob3MgcGF0cmltb25pYWxlcyBzb2JyZSBsYXMgb2JyYXMgYW50ZXJpb3JtZW50ZSBtZW5jaW9uYWRhcyBhIGxhIFVOSVZFUlNJREFELiDDmm5pY2FtZW50ZSBoYWNlIHJlbGFjacOzbiBhIHVuYSBsaWNlbmNpYSBubyBleGNsdXNpdmEgZW4gbG9zIHTDqXJtaW5vcyB5IGNvbmRpY2lvbmVzIGFudGVyaW9ybWVudGUgcGFjdGFkb3MuCgpRVUlOVEEuIENyw6lkaXRvcy4gTGEgVU5JVkVSU0lEQUQgc2UgY29tcHJvbWV0ZSBhIGRhciBhbCBBVVRPUiwgZWwgcmVjb25vY2ltaWVudG8gZGVudHJvIGNhZGEgZm9ybWEgZGUgdXRpbGl6YWNpw7NuIGVuIGxhIG9icmEuIExvcyBjcsOpZGl0b3MgZGViZW4gZmlndXJhciBlbiBjYWRhIHVubyBkZSBsb3MgZm9ybWF0b3MgbyByZWdpc3Ryb3MgZGUgcHVibGljYWNpw7NuLiBObyBjb25zdGl0dWlyw6EgdW5hIHZpb2xhY2nDs24gYSBsb3MgZGVyZWNob3MgbW9yYWxlcyBkZWwgYXV0b3IgbGEgbm8gcmVwcm9kdWNjacOzbiwgY29tdW5pY2FjacOzbiBvIGRlbcOhcyB1dGlsaXphY2lvbmVzIGRlIGxhIG9icmEuIExhIHV0aWxpemFjacOzbiBvIG5vIGRlIGxhIG9icmEsIGFzw60gY29tbyBzdSBmb3JtYSBkZSB1dGlsaXphY2nDs24gc2Vyw6EgZmFjdWx0YWQgZXhjbHVzaXZhIGRlIGxhIFVOSVZFUlNJREFELgogClNFWFRBLiBEdXJhY2nDs24geSB0ZXJyaXRvcmlvLiBMYSBwcmVzZW50ZSBsaWNlbmNpYSBkZSB1c28gcXVlIHNlIG90b3JnYSBhIGZhdm9yIGRlIGxhIFVOSVZFUlNJREFEIHRlbmRyw6EgdW5hIGR1cmFjacOzbiBlcXVpdmFsZW50ZSBhbCB0w6lybWlubyBkZSBwcm90ZWNjacOzbiBsZWdhbCBkZSBsYSBvYnJhIHkgcGFyYSB0b2RvcyBsb3MgcGHDrXNlcyBkZWwgbXVuZG8uCgpTw4lQVElNQS4gVXNvIGRlIENyZWF0aXZlIENvbW1vbnMuIEVsIEFVVE9SIGF1dG9yaXphcsOhIGxhIGRpZnVzacOzbiBkZSBzdSBjb250ZW5pZG8gYmFqbyB1bmEgbGljZW5jaWEgQ3JlYXRpdmUgQ29tbW9ucyBhdHJpYnVjacOzbiA0LjAgaW50ZXJuYWNpb25hbCwgcXVlIGRlYmVyw6EgaW5jbHVpcnNlIGVuIGVsIGNvbnRlbmlkby4gCgpPQ1RBVkEuIERlcmVjaG8gZGUgZXhjbHVzacOzbi4gQ2FkYSBhdXRvciBwdWVkZSBpbmRpY2FyIGVuIGVsIG1vbWVudG8gZGUgZGVww7NzaXRvIGRlbCBjb250ZW5pZG8gcXVlIGVsIHRleHRvIGNvbXBsZXRvIGRlIGxhIHByb2R1Y2Npw7NuIGFjYWTDqW1pY2EgbyBjaWVudMOtZmljYSBubyBlc3RlIGNvbiBhY2Nlc28gYWJpZXJ0byBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIHBvciBtb3Rpdm9zIGRlIGNvbmZpZGVuY2lhbGlkYWQsIHBvcnF1ZSBzZSBlbmN1ZW50cmUgZW4gdsOtYXMgZGUgb2J0ZW5lciB1biBkZXJlY2hvIGRlIHByb3BpZWRhZCBpbmR1c3RyaWFsIG8gZXhpc3RpciBhY3VlcmRvcyBwcmV2aW9zIGNvbiB0ZXJjZXJvcyAoZWRpdG9yaWFsZXMsIHJldmlzdGFzIGNpZW50w61maWNhcywgb3RyYXMgaW5zdGl0dWNpb25lcykuIEVsIGF1dG9yIHNlIGNvbXByb21ldGUgYSBkZXBvc2l0YXIgbG9zIG1ldGFkYXRvcyBlIGluZm9ybWFyIGVsIHRpZW1wbyBkZSBlbWJhcmdvIGR1cmFudGUgZWwgY3VhbCBlbCB0ZXh0byBjb21wbGV0byB0ZW5kcsOhIGFjY2VzbyByZXN0cmluZ2lkby4gCgpOT1ZFTkEuIEVsIEFVVE9SIGFsIGFjZXB0YXIgZXN0YSBsaWNlbmNpYSBhZHVjZSBxdWUgZXN0YSBwcm9kdWNjacOzbiBzZSBkZXNhcnJvbGzDsyBlbiBlbCBwZXJpb2RvIGVuIHF1ZSBzZSBlbmN1ZW50cmEgY29uIHbDrW5jdWxvcyBjb24gTGEgVW5pdmVyc2lkYWQuCgpEw4lDSU1BLiBOb3JtYXMgYXBsaWNhYmxlcy4gUGFyYSBsYSBpbnRlcnByZXRhY2nDs24geSBjdW1wbGltaWVudG8gZGVsIHByZXNlbnRlIGFjdWVyZG8gbGFzIHBhcnRlcyBzZSBzb21ldGVuIGEgbGEgRGVjaXNpw7NuIEFuZGluYSAzNTEgZGUgMTk5MywgbGEgTGV5IDIzIGRlIDE5ODIgeSBkZW3DoXMgbm9ybWFzIGFwbGljYWJsZXMgZGUgQ29sb21iaWEuIEFkZW3DoXMsIGEgbGFzIG5vcm1hcyBJbnN0aXR1Y2lvbmFsZXMgcXVlIGFwbGlxdWVuLgoKTGEgcHJlc2VudGUgbGljZW5jaWEgc2UgYXV0b3JpemEgZW4gbGEgZmVjaGEgZGUgcHVibGljYWNpw7NuIGVuIGxvcyByZXBvc2l0b3Jpb3MgaW5zdGl0dWNpb25hbGVzLgo=