Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables

Este es un proyecto de investigación desarrollado en colaboración con los semilleros de investigación IMACUNA y Lún, del grupo de investigación D+TEC de la Universidad de Ibagué. El objetivo principal es crear un sistema de reconocimiento de plantas utilizando el robot paralelo accionado por cables...

Full description

Autores:
Durán Valencia, Andrés Juan
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2024
Institución:
Universidad de Ibagué
Repositorio:
Repositorio Universidad de Ibagué
Idioma:
spa
OAI Identifier:
oai:repositorio.unibague.edu.co:20.500.12313/4464
Acceso en línea:
https://hdl.handle.net/20.500.12313/4464
Palabra clave:
Detección hortalizas - Robot paralelo
Detección aromática - Robot paralelo
Detección maleza - Robot paralelo
Agricultura de precisión
Visión artificial
Segmentación de imágenes
Aprendizaje profundo
Cultivos agricola
Precision agriculture
Artificial vision
Image segmentation
Deep learning
Agricultural crops
Rights
openAccess
License
http://purl.org/coar/access_right/c_abf2
id UNIBAGUE2_a82d4933948f3214ba14cc1a17be7baf
oai_identifier_str oai:repositorio.unibague.edu.co:20.500.12313/4464
network_acronym_str UNIBAGUE2
network_name_str Repositorio Universidad de Ibagué
repository_id_str
dc.title.spa.fl_str_mv Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables
title Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables
spellingShingle Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables
Detección hortalizas - Robot paralelo
Detección aromática - Robot paralelo
Detección maleza - Robot paralelo
Agricultura de precisión
Visión artificial
Segmentación de imágenes
Aprendizaje profundo
Cultivos agricola
Precision agriculture
Artificial vision
Image segmentation
Deep learning
Agricultural crops
title_short Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables
title_full Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables
title_fullStr Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables
title_full_unstemmed Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables
title_sort Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables
dc.creator.fl_str_mv Durán Valencia, Andrés Juan
dc.contributor.advisor.none.fl_str_mv García Vanegas, Jorge Andrés
Forero Vargas, Manuel Guillermo
dc.contributor.author.none.fl_str_mv Durán Valencia, Andrés Juan
dc.contributor.jury.none.fl_str_mv Fernandez Gallego, José Armando
dc.subject.armarc.none.fl_str_mv Detección hortalizas - Robot paralelo
Detección aromática - Robot paralelo
Detección maleza - Robot paralelo
topic Detección hortalizas - Robot paralelo
Detección aromática - Robot paralelo
Detección maleza - Robot paralelo
Agricultura de precisión
Visión artificial
Segmentación de imágenes
Aprendizaje profundo
Cultivos agricola
Precision agriculture
Artificial vision
Image segmentation
Deep learning
Agricultural crops
dc.subject.proposal.spa.fl_str_mv Agricultura de precisión
Visión artificial
Segmentación de imágenes
Aprendizaje profundo
Cultivos agricola
dc.subject.proposal.eng.fl_str_mv Precision agriculture
Artificial vision
Image segmentation
Deep learning
Agricultural crops
description Este es un proyecto de investigación desarrollado en colaboración con los semilleros de investigación IMACUNA y Lún, del grupo de investigación D+TEC de la Universidad de Ibagué. El objetivo principal es crear un sistema de reconocimiento de plantas utilizando el robot paralelo accionado por cables AgroCableBot y técnicas de visión artificial. Los objetivos específicos incluyen diseñar modelos de reconocimiento de hortalizas, aromáticas y malezas, implementar una interfaz gráfica para visualizar las detecciones y validar el sistema mediante pruebas experimentales. El enfoque del proyecto se centra en el diseño y desarrollo de un modelo de visión artificial que pueda identificar correctamente las diferentes categorías de plantas en imágenes capturadas en entornos agrícolas, mejorando así la gestión de los cultivos. El desarrollo del sistema incluyó la adquisición y preparación de datos necesarios para el entrenamiento y pruebas del modelo, así como la creación de una interfaz visual intuitiva que facilita la interacción del usuario con el sistema. Las pruebas experimentales realizadas con el AgroCableBot confirmaron la efectividad del sistema en términos de precisión y capacidad de generalización. Los resultados destacaron la robustez del modelo y la utilidad de la interfaz en aplicaciones prácticas. El documento concluye con una reflexión crítica sobre los resultados, subrayando las fortalezas y limitaciones del sistema y proponiendo recomendaciones para futuros desarrollos, incluyendo la incorporación de nuevas especies y la implementación de técnicas avanzadas de visión artificial.
publishDate 2024
dc.date.accessioned.none.fl_str_mv 2024-09-23T14:51:52Z
dc.date.available.none.fl_str_mv 2024-09-23T14:51:52Z
dc.date.issued.none.fl_str_mv 2024
dc.type.none.fl_str_mv Trabajo de grado - Pregrado
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.none.fl_str_mv Text
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.none.fl_str_mv http://purl.org/redcol/resource_type/TP
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
format http://purl.org/coar/resource_type/c_7a1f
status_str acceptedVersion
dc.identifier.citation.none.fl_str_mv Durán Valencia, A. J. (2024). Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables. [Trabajo de grado, Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/4464
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.12313/4464
identifier_str_mv Durán Valencia, A. J. (2024). Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables. [Trabajo de grado, Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/4464
url https://hdl.handle.net/20.500.12313/4464
dc.language.iso.none.fl_str_mv spa
language spa
dc.relation.references.none.fl_str_mv Agarap, A. F. (2018). Deep learning using rectified linear units (relu). arXiv preprint arXiv:1803.08375
Ahmed, M., Hashmi, K. A., Pagani, A., Liwicki, M., Stricker, D., and Afzal, M. Z. (2021). Survey and performance analysis of deep learning based object detection in challenging environments. Sensors, 21(15).
Albert, S., Wichtmann, B. D., Zhao, W., Maurer, A., Hesser, J., Attenberger, U. I., Schad, L. R., and Zöllner, F. G. (2023). Comparison of image normalization methods for multi-site deep learning. Applied Sciences, 13(15).
Awad, M. and Khanna, R. (2015). Deep Neural Networks, pages 127-147. Apress, Berkeley, CA.
Caldas, J. V. d. S., da Silva, A. G., Braz, G. B. P., Procópio, S. d. O., Teixeira, I. R., Souza, M. d. F., and Reginaldo, L. T. R. T. (2023). Weed competition on soybean varieties from different relative maturity groups. Agriculture, 13(3).
Carmencita (s.f.). Cilantro. https://carmencita.com/shop/img/cms/00944[Fotografía].
Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., and Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. IEEE transactions on pattern analysis and machine intelligence, 40(4):834-848.
Chen, L. C., Zhu, Y., Papandreou, G., Schroff, F., and Adam, H. (2018). Encoder-decoder with atrous separable convolution for semantic image segmentation. In Ferrari, V., Hebert, M., Sminchisescu, C., and Weiss, Y., editors, Computer Vision - ECCV 2018, pages 833-851, Cham. Springer International Publishing.
Choi, R. Y., Coyner, A. S., Kalpathy-Cramer, J., Chiang, M. F., and Campbell, J. P. (2020). Introduction to Machine Learning, Neural Networks, and Deep Learning. Translational Vision Science & Technology, 9(2):14.
Chum, L., Subramanian, A., Balasubramanian, V. N., and Jawahar, C. V. (2019). Beyond supervised learning: A computer vision perspective. Journal of the Indian Institute of Science, 99:177-199.
Dignum, V. (2019). What Is Artificial Intelligence?, pages 9-34. Springer International Publishing, Cham.
Finn, C., Yu, T., Fu, J., Abbeel, P., and Levine, S. (2016). Generalizing skills with semi-supervised reinforcement learning. arXiv preprint arXiv:1612.00429.
Gao, H., Yuan, H., Wang, Z., and Ji, S. (2019). Pixel transposed convolutional networks. IEEE transactions on pattern analysis and machine intelligence, 42(5):1218-1227.
Garcia Garcia, A., Orts Escolano, S., Oprea, S., Villena Martinez, V., ad Garcia Rodriguez, J. (2017). A review on deep learning techniques applied to semantic segmentation.
García Vanegas, A., García Bonilla. M. J., Forero, M. G., Castillo García, F. J., and Gonzalez Rodriguez, A. (2023). Agrocablebot: Reconfigurable cabledriven parallel robot for greenhouse or urban automation. Robotics, 12(6).
Hao, S., Zhou, Y., and Guo, Y. (2020). A brief survey on semantic segmentation with deep learning. Neurocomputing, 406:302-321.
He, K., Zhang, X., Ren, S., and Sun, J. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 770-778.
Hossain, M. A. and Sajib, M. S. A. (2019). Classification of image using convolutional neural network (cnn). Global Journal of Computer Science and Technology, 19(2):13-14.
Hu, J., Shen, L., and Sun, G. (2018). Squeeze-and-excitation networks. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 7132-7141.
Ioffe, S. and Szegedy, C. (2015). Batch normalization: Accelerating deep network training by reducing internal covariate shift. In International conference on machine learning, pages 448-456. pmlr.
Janiesch, C., Zschech, P., and Heinrich, K. (2021). Machine learning and deep learning. Electronic Markets, 31(3):685-695.
Jha, D., Smedsrud, P. H., Riegler, M. A., Johansen, D., Lange, T. D., Halvorsen, P., and D. Johansen, H. (2019). Resunet++: An advanced architecture for medical image segmentation. In 2019 IEEE International Symposium on Multimedia (ISM).
John Deere (2022). See & spray technology. Accessed: 2024-05-14.
Khan, A. A., Laghari, A. A., and Awan, S. A. (2021). Machine learning in computer vision: A review. EAI Endorsed Transactions on Scalable Information Systems, 8(32).
Kingma, P. D. and Ba, J. (2015). Adam: A method for stochastic optimization. In International Conference on Learning Representations (ICLR), San Diego, CA, USA.
Koresh, H. J. D. (2024). Impact of the preprocessing steps in deep learning-based image classifications. National Academy Science Letters.
Luo, L., Tang, Y., Zou, X., Ye, M., Feng, W., and Li, G. (2016). Vision-based extraction of spatial information in grape clusters for harvesting robots. Biosystems Engineering, 151:90-104.
Mahleyuddin, N. N., Moshawih, S., Ming, L. C., Zulkifly, H. H., Kifli, N., Loy, M. J., Sarker, M. M. R., Al-Worafi, Y. M., Goh, B. H., Thuraisingam, S., and Goh, H. P. (2022). Coriandrum sativum l.: A review on ethnopharmacology, phytochemistry, and cardiovascular benefits. Molecules, 27(1).
Manakitsa, N., Maraslidis, G. S., Moysis, L., and Fragulis, G. F. (2024). A review of machine learning and deep learning for object detection, semantic segmentation, and human action recognition in machine and robotic vision. Technologies, 12(2).
O'shea, K. and Nash, R. (2015). An introduction to convolutional neural networks. arXiv preprint arXiv:1511.08458.
Park, J. Seo, Y., Shin, J., Lee, H., Abbeel, P., and Lee, K. (2022). Surf: Semisupervised reward learning with data augmentation for feedback-efficient preference-based reinforcement learning. arXiv preprint arXiv:2203.10050.
Parreira, M., Peñaherrera Colina, L., Alves, P. L., and Pereira, F. (2013). Weeds influence in ve
Pretto, A., Aravecchia, S., Burgard, W., Chebrolu, N., Dornhege, C., Falck, T., Fleckenstein, F., Fontenla, A., Imperoli, M., Khanna, R., Liebish, F., Lottes, P., Milioto, A., Nardi, D., Nardi, S., Pfeifer, J., Popovic, M., Potena, C., Pradalier, C., Rothacker-Feder, E., Sa, I., Schaefer, A., Siegwart, R., Stachniss, C., Walter, A., Winterhater, W., Wu, X., and Nieto, J. (2021). Building an aerial-ground robotics system for precision farming: An adaptable solution. IEEE Robotics & Automation Magazine, 28(3):29-49.
Ronneberger, O., Fisher, P., and Brox, T. (2015).U-net: Convolutional networks for biomedical image segmentation. In Navab, N., Hornegger, J., Wells, W. M., and Frangi, A. F., editors, Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015, pages 234-241. Springer International Plublising.
Roodschild, M., Gotay Sardiñas, J., and Will, A. (2020). A new approach for the vanishing gradient problem on sigmoid activation. Progress in Artificial Intelligence, 9(4):351-360.
Russel, S. J., Norvig. P., and Davis, E. (2016). Artificial intelligence: A modern approach. Upper Saddle River, NJ. Prentice Hall.
Rüdell, E. C., Petrolli, I. D. S., dos Santos, F. M., Frandaloso, D., and da Silva, D. R. O. (2021). Weed interference capacity on soybean yield. Revista Facultad Nacional de Agronomía Medellín, 74(2):9541-9547.
Santos, T. T., de Souza, L. L., dos Santos, A. A., and Avila, S. (2020). Grape detection, segmentation, and tracking using deep neural networks and three-dimensional association. Computers and Electronics in Agriculture, 170:105247.
Saponara, S. and Elhanashi, A. (2022). Impact of image resizing on deep learning detectors for training time and model performance. In Saponara, S. and De Gloria, A., editors, Applications in Electronics Pervading Industry, Environment and Society, pages 10-17.
Saputra, M. R. U., Markham, A., and Trigoni, N. (2018). Visual slam and structure from motion in dynamic environments: A survey. ACM Computing Surveys (CSUR), 51(2):1-36.
Saqib, S., Ullah, F., Naeem, M., Younas, M., Ayaz, A., Ali, S., and Zaman, W. (2022). Mentha: Nutritional and health attributes to treat various aliments including cardiovascular diseases. Molecules, 27(19).
Scandar, S., Zadra, C., and Marcotullio, M. C. (2023). Coriander (coriandrum sativum) polyphenols and their nutraceutical value against obesity and metabolic syndrome. Molecules, 28(10).
SGA-Semillas (s.f.). Menta piperita. {https://d2j6dbq0eux0bg.cloudfront.net/ images/77148007/3338200099.jpg. [Fotografía].]
Shanmuganathan, S. (2016). Artificial Neural Network Modelling: An Introduction, pages 1-14. Springer International Publishing, Cham.
Sheikh, H., Prins, C., and Schrijvers, E. (2023). Artificial Intelligence: Definition and Background, pages 15-41. Springer International Publishing, Cham.
Shrestha, A. and Mahmood, A. (2019). Review of deep learning algorithms and architectures. IEEE Access, 7:53040-53065.
Sun, C., Shrivastava, A., Singh, S., and Gupta, A. (2017). Revisiting unreasonable effectiveness of data in deep learning era. In 2017 IEEE International Conference on Computer Vision (ICCV), pages 843-852.
Sun, Y., Zhang, D., Guo, X., and Yang, H. (2023). Lightweight algorithm for apple detection based on an improved yolov5 model. Plants, 12(17).
Szeliski, R. (2022). Computer vision: algorithms and applications. Springer Nature.
Vijayalakshmi, V. and Venkatachalapathy, K. (2019). Deep neural network for multi-class prediction of student performance in educational data. International Journal of Recent Technology and Engineering, 8(2):5073-5081.
Wani, S., Naik, H. R., Wagay, J., Ganie, N., Mulla, M., and Dar, B. (2022). Mentha: A review on its bioactive compounds and potential health benefits. Quality Assurance and Safety of Crops & Foods, 14:154-168.
You, J., Liu, W., and Lee, J. (2020). A dnn-based semantic segmentation for detecting weed and crop. Computers and Electronics in Agriculture, 178:105750.
Zhang, C., Liu, J., Chen, W., Shi, J., Yao, M., Yan, X., Xu, N., and Chen, D. (2021). Unsupervised anomaly detection based on deep autoencoding and clustering. Security and Communication Networks, pages 1-8.
Zhou, Z., Rahman Siddiquee, M. M., Tajbakhsh, N., and Liang, J. (2018). Unet++: A nested u-net architecture for medical image segmentation. In Stoyanov, D., Taylor, Z., Carneiro, G., Syeda-Mahmood, T., Marter, A., Maeir-Hein, L., Tavares, J. M. R., Bradley, A., Papa, J. P., Belagiannis, V., Nascimento, J. C., Lu, Z., Conjeti, S., Moradi, M., Greenspan, H., and Madabhushi, A., editors, Deep Learning in Medical Image Analysis and Multimodal Leaning for Clinical Decision Support, pages 3-11, Cham. Springer International Publishing
dc.rights.accessrights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.coar.none.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.license.none.fl_str_mv Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)
dc.rights.uri.none.fl_str_mv https://creativecommons.org/licenses/by-nc/4.0/
eu_rights_str_mv openAccess
rights_invalid_str_mv http://purl.org/coar/access_right/c_abf2
Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)
https://creativecommons.org/licenses/by-nc/4.0/
dc.format.extent.none.fl_str_mv 93 páginas
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidad de Ibagué
dc.publisher.faculty.none.fl_str_mv Ingeniería
dc.publisher.place.none.fl_str_mv Ibagué
dc.publisher.program.none.fl_str_mv Ingeniería Electrónica
publisher.none.fl_str_mv Universidad de Ibagué
institution Universidad de Ibagué
bitstream.url.fl_str_mv https://repositorio.unibague.edu.co/bitstreams/a46c6126-3525-40a5-b6c8-ee39affd1ee3/download
https://repositorio.unibague.edu.co/bitstreams/9529c2ff-2fb8-463a-87a8-b55df9e12658/download
https://repositorio.unibague.edu.co/bitstreams/a850a32e-0ead-487b-b346-c987ac2a207c/download
https://repositorio.unibague.edu.co/bitstreams/1d85a4c6-80b5-4d0e-aa4a-8b8a6f2c6627/download
https://repositorio.unibague.edu.co/bitstreams/49996c20-ff9a-4293-b084-7c9ce9897966/download
https://repositorio.unibague.edu.co/bitstreams/18e096e9-70ba-469a-9ef2-2ae54aea005b/download
https://repositorio.unibague.edu.co/bitstreams/2aa4079d-3656-4ae7-ace4-0954aec2ad6b/download
bitstream.checksum.fl_str_mv ee97d80811c04ec169f069b4c818d903
6c070aed99844af8abfeac5856086ff7
2fa3e590786b9c0f3ceba1b9656b7ac3
1abacfb0b6fee4ba5c39ee09cfd7be39
bd6ea19ce170cd0eff9f414eeac7d726
c610f22f507a54df356560678d9ef053
8f4a9eb690d79851f1155ad7a1478205
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional Universidad de Ibagué
repository.mail.fl_str_mv bdigital@metabiblioteca.com
_version_ 1812132149200945152
spelling García Vanegas, Jorge Andrés7124e278-a934-4877-a0af-bc160f5fa627-1Forero Vargas, Manuel Guillermo187e7d0d-8326-49bc-8824-d0c7660437b7-1Durán Valencia, Andrés Juanc4c01b29-3c38-47f0-837e-1c211589ed59-1Fernandez Gallego, José Armando17a4f88f-b10e-46b6-9b2e-0b5354299f90-12024-09-23T14:51:52Z2024-09-23T14:51:52Z2024Este es un proyecto de investigación desarrollado en colaboración con los semilleros de investigación IMACUNA y Lún, del grupo de investigación D+TEC de la Universidad de Ibagué. El objetivo principal es crear un sistema de reconocimiento de plantas utilizando el robot paralelo accionado por cables AgroCableBot y técnicas de visión artificial. Los objetivos específicos incluyen diseñar modelos de reconocimiento de hortalizas, aromáticas y malezas, implementar una interfaz gráfica para visualizar las detecciones y validar el sistema mediante pruebas experimentales. El enfoque del proyecto se centra en el diseño y desarrollo de un modelo de visión artificial que pueda identificar correctamente las diferentes categorías de plantas en imágenes capturadas en entornos agrícolas, mejorando así la gestión de los cultivos. El desarrollo del sistema incluyó la adquisición y preparación de datos necesarios para el entrenamiento y pruebas del modelo, así como la creación de una interfaz visual intuitiva que facilita la interacción del usuario con el sistema. Las pruebas experimentales realizadas con el AgroCableBot confirmaron la efectividad del sistema en términos de precisión y capacidad de generalización. Los resultados destacaron la robustez del modelo y la utilidad de la interfaz en aplicaciones prácticas. El documento concluye con una reflexión crítica sobre los resultados, subrayando las fortalezas y limitaciones del sistema y proponiendo recomendaciones para futuros desarrollos, incluyendo la incorporación de nuevas especies y la implementación de técnicas avanzadas de visión artificial.This is a research project developed in collaboration with the IMACUNA and Lún research seedlings of the D+TEC research group of the University of Ibagué. The main objective is to create a plant recognition system using the cable-driven parallel robot AgroCableBot and artificial vision techniques. Specific objectives include designing recognition models for vegetables, aromatic plants and weeds, implementing a graphic interface to visualize the detections, and validating the system through experimental tests. The focus of the project is on the design and development of a machine vision model that can correctly identify different categories of plants in images captured in agricultural environments, thus improving crop management. The development of the system included the acquisition and preparation of data necessary for training and testing the model, as well as the creation of an intuitive visual interface that facilitates user interaction with the system. Experimental tests conducted with the AgroCableBot confirmed the effectiveness of the system in terms of accuracy and generalizability. The results highlighted the robustness of the model and the usefulness of the interface in practical applications. The paper concludes with a critical reflection on the results, highlighting the strengths and limitations of the system and proposing recommendations for future developments, including the incorporation of new species and the implementation of advanced computer vision techniques.PregradoIngeniero Electrónico1. Introducción...1 1.1. Antecedentes...1 1.2. Planteamiento del problema y justificación del estudio...3 1.3. Objetivos...5 1.3.1. Objetivo general...5 1.3.2. Objetivos específicos...5 1.4. Estructura del documento...5 2. Fundamentos y estado del arte...7 2.1. Visión artificial...9 2.1.1. Aprendizaje automático...11 2.1.2. Aplicaciones...21 3. Diseño del sistema...25 3.1. Descripción del sistema de detección...25 3.2 Tipos de cultivos y proceso de siembra...26 3.3. Adquisición de datos...30 3.4. Pre-procesamiento de imágenes...33 3.5. Redes de segmentación...44 3.6. Post-procesamiento...55 3.7. Interfaz gráfica de usuario...55 4. Pruebas y resultados experimentales...62 4.1. Desempeño general de las redes de segmentación...62 4.2. Resultados por categoría...64 4.3. Análisis comparativo de las redes de segmentación...72 4.4. Interfaz gráfica de usuario...73 4.5. Limitaciones del estudio...75 5. Conclusiones y trabajos futuros...76 5.1. Conclusiones...76 5.2. Trabajos futuros...7793 páginasapplication/pdfDurán Valencia, A. J. (2024). Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables. [Trabajo de grado, Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/4464https://hdl.handle.net/20.500.12313/4464spaUniversidad de IbaguéIngenieríaIbaguéIngeniería ElectrónicaAgarap, A. F. (2018). Deep learning using rectified linear units (relu). arXiv preprint arXiv:1803.08375Ahmed, M., Hashmi, K. A., Pagani, A., Liwicki, M., Stricker, D., and Afzal, M. Z. (2021). Survey and performance analysis of deep learning based object detection in challenging environments. Sensors, 21(15).Albert, S., Wichtmann, B. D., Zhao, W., Maurer, A., Hesser, J., Attenberger, U. I., Schad, L. R., and Zöllner, F. G. (2023). Comparison of image normalization methods for multi-site deep learning. Applied Sciences, 13(15).Awad, M. and Khanna, R. (2015). Deep Neural Networks, pages 127-147. Apress, Berkeley, CA.Caldas, J. V. d. S., da Silva, A. G., Braz, G. B. P., Procópio, S. d. O., Teixeira, I. R., Souza, M. d. F., and Reginaldo, L. T. R. T. (2023). Weed competition on soybean varieties from different relative maturity groups. Agriculture, 13(3).Carmencita (s.f.). Cilantro. https://carmencita.com/shop/img/cms/00944[Fotografía].Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., and Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. IEEE transactions on pattern analysis and machine intelligence, 40(4):834-848.Chen, L. C., Zhu, Y., Papandreou, G., Schroff, F., and Adam, H. (2018). Encoder-decoder with atrous separable convolution for semantic image segmentation. In Ferrari, V., Hebert, M., Sminchisescu, C., and Weiss, Y., editors, Computer Vision - ECCV 2018, pages 833-851, Cham. Springer International Publishing.Choi, R. Y., Coyner, A. S., Kalpathy-Cramer, J., Chiang, M. F., and Campbell, J. P. (2020). Introduction to Machine Learning, Neural Networks, and Deep Learning. Translational Vision Science & Technology, 9(2):14.Chum, L., Subramanian, A., Balasubramanian, V. N., and Jawahar, C. V. (2019). Beyond supervised learning: A computer vision perspective. Journal of the Indian Institute of Science, 99:177-199.Dignum, V. (2019). What Is Artificial Intelligence?, pages 9-34. Springer International Publishing, Cham.Finn, C., Yu, T., Fu, J., Abbeel, P., and Levine, S. (2016). Generalizing skills with semi-supervised reinforcement learning. arXiv preprint arXiv:1612.00429.Gao, H., Yuan, H., Wang, Z., and Ji, S. (2019). Pixel transposed convolutional networks. IEEE transactions on pattern analysis and machine intelligence, 42(5):1218-1227.Garcia Garcia, A., Orts Escolano, S., Oprea, S., Villena Martinez, V., ad Garcia Rodriguez, J. (2017). A review on deep learning techniques applied to semantic segmentation.García Vanegas, A., García Bonilla. M. J., Forero, M. G., Castillo García, F. J., and Gonzalez Rodriguez, A. (2023). Agrocablebot: Reconfigurable cabledriven parallel robot for greenhouse or urban automation. Robotics, 12(6).Hao, S., Zhou, Y., and Guo, Y. (2020). A brief survey on semantic segmentation with deep learning. Neurocomputing, 406:302-321.He, K., Zhang, X., Ren, S., and Sun, J. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 770-778.Hossain, M. A. and Sajib, M. S. A. (2019). Classification of image using convolutional neural network (cnn). Global Journal of Computer Science and Technology, 19(2):13-14.Hu, J., Shen, L., and Sun, G. (2018). Squeeze-and-excitation networks. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 7132-7141.Ioffe, S. and Szegedy, C. (2015). Batch normalization: Accelerating deep network training by reducing internal covariate shift. In International conference on machine learning, pages 448-456. pmlr.Janiesch, C., Zschech, P., and Heinrich, K. (2021). Machine learning and deep learning. Electronic Markets, 31(3):685-695.Jha, D., Smedsrud, P. H., Riegler, M. A., Johansen, D., Lange, T. D., Halvorsen, P., and D. Johansen, H. (2019). Resunet++: An advanced architecture for medical image segmentation. In 2019 IEEE International Symposium on Multimedia (ISM).John Deere (2022). See & spray technology. Accessed: 2024-05-14.Khan, A. A., Laghari, A. A., and Awan, S. A. (2021). Machine learning in computer vision: A review. EAI Endorsed Transactions on Scalable Information Systems, 8(32).Kingma, P. D. and Ba, J. (2015). Adam: A method for stochastic optimization. In International Conference on Learning Representations (ICLR), San Diego, CA, USA.Koresh, H. J. D. (2024). Impact of the preprocessing steps in deep learning-based image classifications. National Academy Science Letters.Luo, L., Tang, Y., Zou, X., Ye, M., Feng, W., and Li, G. (2016). Vision-based extraction of spatial information in grape clusters for harvesting robots. Biosystems Engineering, 151:90-104.Mahleyuddin, N. N., Moshawih, S., Ming, L. C., Zulkifly, H. H., Kifli, N., Loy, M. J., Sarker, M. M. R., Al-Worafi, Y. M., Goh, B. H., Thuraisingam, S., and Goh, H. P. (2022). Coriandrum sativum l.: A review on ethnopharmacology, phytochemistry, and cardiovascular benefits. Molecules, 27(1).Manakitsa, N., Maraslidis, G. S., Moysis, L., and Fragulis, G. F. (2024). A review of machine learning and deep learning for object detection, semantic segmentation, and human action recognition in machine and robotic vision. Technologies, 12(2).O'shea, K. and Nash, R. (2015). An introduction to convolutional neural networks. arXiv preprint arXiv:1511.08458.Park, J. Seo, Y., Shin, J., Lee, H., Abbeel, P., and Lee, K. (2022). Surf: Semisupervised reward learning with data augmentation for feedback-efficient preference-based reinforcement learning. arXiv preprint arXiv:2203.10050.Parreira, M., Peñaherrera Colina, L., Alves, P. L., and Pereira, F. (2013). Weeds influence in vePretto, A., Aravecchia, S., Burgard, W., Chebrolu, N., Dornhege, C., Falck, T., Fleckenstein, F., Fontenla, A., Imperoli, M., Khanna, R., Liebish, F., Lottes, P., Milioto, A., Nardi, D., Nardi, S., Pfeifer, J., Popovic, M., Potena, C., Pradalier, C., Rothacker-Feder, E., Sa, I., Schaefer, A., Siegwart, R., Stachniss, C., Walter, A., Winterhater, W., Wu, X., and Nieto, J. (2021). Building an aerial-ground robotics system for precision farming: An adaptable solution. IEEE Robotics & Automation Magazine, 28(3):29-49.Ronneberger, O., Fisher, P., and Brox, T. (2015).U-net: Convolutional networks for biomedical image segmentation. In Navab, N., Hornegger, J., Wells, W. M., and Frangi, A. F., editors, Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015, pages 234-241. Springer International Plublising.Roodschild, M., Gotay Sardiñas, J., and Will, A. (2020). A new approach for the vanishing gradient problem on sigmoid activation. Progress in Artificial Intelligence, 9(4):351-360.Russel, S. J., Norvig. P., and Davis, E. (2016). Artificial intelligence: A modern approach. Upper Saddle River, NJ. Prentice Hall.Rüdell, E. C., Petrolli, I. D. S., dos Santos, F. M., Frandaloso, D., and da Silva, D. R. O. (2021). Weed interference capacity on soybean yield. Revista Facultad Nacional de Agronomía Medellín, 74(2):9541-9547.Santos, T. T., de Souza, L. L., dos Santos, A. A., and Avila, S. (2020). Grape detection, segmentation, and tracking using deep neural networks and three-dimensional association. Computers and Electronics in Agriculture, 170:105247.Saponara, S. and Elhanashi, A. (2022). Impact of image resizing on deep learning detectors for training time and model performance. In Saponara, S. and De Gloria, A., editors, Applications in Electronics Pervading Industry, Environment and Society, pages 10-17.Saputra, M. R. U., Markham, A., and Trigoni, N. (2018). Visual slam and structure from motion in dynamic environments: A survey. ACM Computing Surveys (CSUR), 51(2):1-36.Saqib, S., Ullah, F., Naeem, M., Younas, M., Ayaz, A., Ali, S., and Zaman, W. (2022). Mentha: Nutritional and health attributes to treat various aliments including cardiovascular diseases. Molecules, 27(19).Scandar, S., Zadra, C., and Marcotullio, M. C. (2023). Coriander (coriandrum sativum) polyphenols and their nutraceutical value against obesity and metabolic syndrome. Molecules, 28(10).SGA-Semillas (s.f.). Menta piperita. {https://d2j6dbq0eux0bg.cloudfront.net/ images/77148007/3338200099.jpg. [Fotografía].]Shanmuganathan, S. (2016). Artificial Neural Network Modelling: An Introduction, pages 1-14. Springer International Publishing, Cham.Sheikh, H., Prins, C., and Schrijvers, E. (2023). Artificial Intelligence: Definition and Background, pages 15-41. Springer International Publishing, Cham.Shrestha, A. and Mahmood, A. (2019). Review of deep learning algorithms and architectures. IEEE Access, 7:53040-53065.Sun, C., Shrivastava, A., Singh, S., and Gupta, A. (2017). Revisiting unreasonable effectiveness of data in deep learning era. In 2017 IEEE International Conference on Computer Vision (ICCV), pages 843-852.Sun, Y., Zhang, D., Guo, X., and Yang, H. (2023). Lightweight algorithm for apple detection based on an improved yolov5 model. Plants, 12(17).Szeliski, R. (2022). Computer vision: algorithms and applications. Springer Nature.Vijayalakshmi, V. and Venkatachalapathy, K. (2019). Deep neural network for multi-class prediction of student performance in educational data. International Journal of Recent Technology and Engineering, 8(2):5073-5081.Wani, S., Naik, H. R., Wagay, J., Ganie, N., Mulla, M., and Dar, B. (2022). Mentha: A review on its bioactive compounds and potential health benefits. Quality Assurance and Safety of Crops & Foods, 14:154-168.You, J., Liu, W., and Lee, J. (2020). A dnn-based semantic segmentation for detecting weed and crop. Computers and Electronics in Agriculture, 178:105750.Zhang, C., Liu, J., Chen, W., Shi, J., Yao, M., Yan, X., Xu, N., and Chen, D. (2021). Unsupervised anomaly detection based on deep autoencoding and clustering. Security and Communication Networks, pages 1-8.Zhou, Z., Rahman Siddiquee, M. M., Tajbakhsh, N., and Liang, J. (2018). Unet++: A nested u-net architecture for medical image segmentation. In Stoyanov, D., Taylor, Z., Carneiro, G., Syeda-Mahmood, T., Marter, A., Maeir-Hein, L., Tavares, J. M. R., Bradley, A., Papa, J. P., Belagiannis, V., Nascimento, J. C., Lu, Z., Conjeti, S., Moradi, M., Greenspan, H., and Madabhushi, A., editors, Deep Learning in Medical Image Analysis and Multimodal Leaning for Clinical Decision Support, pages 3-11, Cham. Springer International Publishinginfo:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)https://creativecommons.org/licenses/by-nc/4.0/Detección hortalizas - Robot paraleloDetección aromática - Robot paraleloDetección maleza - Robot paraleloAgricultura de precisiónVisión artificialSegmentación de imágenesAprendizaje profundoCultivos agricolaPrecision agricultureArtificial visionImage segmentationDeep learningAgricultural cropsSistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cablesTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttp://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/acceptedVersionPublicationORIGINALTrabajo de grado.pdfTrabajo de grado.pdfapplication/pdf36742817https://repositorio.unibague.edu.co/bitstreams/a46c6126-3525-40a5-b6c8-ee39affd1ee3/downloadee97d80811c04ec169f069b4c818d903MD51Formato de autorización.pdfFormato de autorización.pdfapplication/pdf149391https://repositorio.unibague.edu.co/bitstreams/9529c2ff-2fb8-463a-87a8-b55df9e12658/download6c070aed99844af8abfeac5856086ff7MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-8134https://repositorio.unibague.edu.co/bitstreams/a850a32e-0ead-487b-b346-c987ac2a207c/download2fa3e590786b9c0f3ceba1b9656b7ac3MD53TEXTTrabajo de grado.pdf.txtTrabajo de grado.pdf.txtExtracted texttext/plain102265https://repositorio.unibague.edu.co/bitstreams/1d85a4c6-80b5-4d0e-aa4a-8b8a6f2c6627/download1abacfb0b6fee4ba5c39ee09cfd7be39MD54Formato de autorización.pdf.txtFormato de autorización.pdf.txtExtracted texttext/plain3781https://repositorio.unibague.edu.co/bitstreams/49996c20-ff9a-4293-b084-7c9ce9897966/downloadbd6ea19ce170cd0eff9f414eeac7d726MD56THUMBNAILTrabajo de grado.pdf.jpgTrabajo de grado.pdf.jpgGenerated Thumbnailimage/jpeg5855https://repositorio.unibague.edu.co/bitstreams/18e096e9-70ba-469a-9ef2-2ae54aea005b/downloadc610f22f507a54df356560678d9ef053MD55Formato de autorización.pdf.jpgFormato de autorización.pdf.jpgGenerated Thumbnailimage/jpeg13889https://repositorio.unibague.edu.co/bitstreams/2aa4079d-3656-4ae7-ace4-0954aec2ad6b/download8f4a9eb690d79851f1155ad7a1478205MD5720.500.12313/4464oai:repositorio.unibague.edu.co:20.500.12313/44642024-09-24 03:00:45.746https://creativecommons.org/licenses/by-nc/4.0/https://repositorio.unibague.edu.coRepositorio Institucional Universidad de Ibaguébdigital@metabiblioteca.comQ3JlYXRpdmUgQ29tbW9ucyBBdHRyaWJ1dGlvbi1Ob25Db21tZXJjaWFsLU5vRGVyaXZhdGl2ZXMgNC4wIEludGVybmF0aW9uYWwgTGljZW5zZQ0KaHR0cHM6Ly9jcmVhdGl2ZWNvbW1vbnMub3JnL2xpY2Vuc2VzL2J5LW5jLW5kLzQuMC8=