Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables
Este es un proyecto de investigación desarrollado en colaboración con los semilleros de investigación IMACUNA y Lún, del grupo de investigación D+TEC de la Universidad de Ibagué. El objetivo principal es crear un sistema de reconocimiento de plantas utilizando el robot paralelo accionado por cables...
- Autores:
-
Durán Valencia, Andrés Juan
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2024
- Institución:
- Universidad de Ibagué
- Repositorio:
- Repositorio Universidad de Ibagué
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.unibague.edu.co:20.500.12313/4464
- Acceso en línea:
- https://hdl.handle.net/20.500.12313/4464
- Palabra clave:
- Detección hortalizas - Robot paralelo
Detección aromática - Robot paralelo
Detección maleza - Robot paralelo
Agricultura de precisión
Visión artificial
Segmentación de imágenes
Aprendizaje profundo
Cultivos agricola
Precision agriculture
Artificial vision
Image segmentation
Deep learning
Agricultural crops
- Rights
- openAccess
- License
- http://purl.org/coar/access_right/c_abf2
id |
UNIBAGUE2_a82d4933948f3214ba14cc1a17be7baf |
---|---|
oai_identifier_str |
oai:repositorio.unibague.edu.co:20.500.12313/4464 |
network_acronym_str |
UNIBAGUE2 |
network_name_str |
Repositorio Universidad de Ibagué |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables |
title |
Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables |
spellingShingle |
Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables Detección hortalizas - Robot paralelo Detección aromática - Robot paralelo Detección maleza - Robot paralelo Agricultura de precisión Visión artificial Segmentación de imágenes Aprendizaje profundo Cultivos agricola Precision agriculture Artificial vision Image segmentation Deep learning Agricultural crops |
title_short |
Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables |
title_full |
Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables |
title_fullStr |
Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables |
title_full_unstemmed |
Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables |
title_sort |
Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables |
dc.creator.fl_str_mv |
Durán Valencia, Andrés Juan |
dc.contributor.advisor.none.fl_str_mv |
García Vanegas, Jorge Andrés Forero Vargas, Manuel Guillermo |
dc.contributor.author.none.fl_str_mv |
Durán Valencia, Andrés Juan |
dc.contributor.jury.none.fl_str_mv |
Fernandez Gallego, José Armando |
dc.subject.armarc.none.fl_str_mv |
Detección hortalizas - Robot paralelo Detección aromática - Robot paralelo Detección maleza - Robot paralelo |
topic |
Detección hortalizas - Robot paralelo Detección aromática - Robot paralelo Detección maleza - Robot paralelo Agricultura de precisión Visión artificial Segmentación de imágenes Aprendizaje profundo Cultivos agricola Precision agriculture Artificial vision Image segmentation Deep learning Agricultural crops |
dc.subject.proposal.spa.fl_str_mv |
Agricultura de precisión Visión artificial Segmentación de imágenes Aprendizaje profundo Cultivos agricola |
dc.subject.proposal.eng.fl_str_mv |
Precision agriculture Artificial vision Image segmentation Deep learning Agricultural crops |
description |
Este es un proyecto de investigación desarrollado en colaboración con los semilleros de investigación IMACUNA y Lún, del grupo de investigación D+TEC de la Universidad de Ibagué. El objetivo principal es crear un sistema de reconocimiento de plantas utilizando el robot paralelo accionado por cables AgroCableBot y técnicas de visión artificial. Los objetivos específicos incluyen diseñar modelos de reconocimiento de hortalizas, aromáticas y malezas, implementar una interfaz gráfica para visualizar las detecciones y validar el sistema mediante pruebas experimentales. El enfoque del proyecto se centra en el diseño y desarrollo de un modelo de visión artificial que pueda identificar correctamente las diferentes categorías de plantas en imágenes capturadas en entornos agrícolas, mejorando así la gestión de los cultivos. El desarrollo del sistema incluyó la adquisición y preparación de datos necesarios para el entrenamiento y pruebas del modelo, así como la creación de una interfaz visual intuitiva que facilita la interacción del usuario con el sistema. Las pruebas experimentales realizadas con el AgroCableBot confirmaron la efectividad del sistema en términos de precisión y capacidad de generalización. Los resultados destacaron la robustez del modelo y la utilidad de la interfaz en aplicaciones prácticas. El documento concluye con una reflexión crítica sobre los resultados, subrayando las fortalezas y limitaciones del sistema y proponiendo recomendaciones para futuros desarrollos, incluyendo la incorporación de nuevas especies y la implementación de técnicas avanzadas de visión artificial. |
publishDate |
2024 |
dc.date.accessioned.none.fl_str_mv |
2024-09-23T14:51:52Z |
dc.date.available.none.fl_str_mv |
2024-09-23T14:51:52Z |
dc.date.issued.none.fl_str_mv |
2024 |
dc.type.none.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.none.fl_str_mv |
Text |
dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.redcol.none.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.citation.none.fl_str_mv |
Durán Valencia, A. J. (2024). Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables. [Trabajo de grado, Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/4464 |
dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/20.500.12313/4464 |
identifier_str_mv |
Durán Valencia, A. J. (2024). Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables. [Trabajo de grado, Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/4464 |
url |
https://hdl.handle.net/20.500.12313/4464 |
dc.language.iso.none.fl_str_mv |
spa |
language |
spa |
dc.relation.references.none.fl_str_mv |
Agarap, A. F. (2018). Deep learning using rectified linear units (relu). arXiv preprint arXiv:1803.08375 Ahmed, M., Hashmi, K. A., Pagani, A., Liwicki, M., Stricker, D., and Afzal, M. Z. (2021). Survey and performance analysis of deep learning based object detection in challenging environments. Sensors, 21(15). Albert, S., Wichtmann, B. D., Zhao, W., Maurer, A., Hesser, J., Attenberger, U. I., Schad, L. R., and Zöllner, F. G. (2023). Comparison of image normalization methods for multi-site deep learning. Applied Sciences, 13(15). Awad, M. and Khanna, R. (2015). Deep Neural Networks, pages 127-147. Apress, Berkeley, CA. Caldas, J. V. d. S., da Silva, A. G., Braz, G. B. P., Procópio, S. d. O., Teixeira, I. R., Souza, M. d. F., and Reginaldo, L. T. R. T. (2023). Weed competition on soybean varieties from different relative maturity groups. Agriculture, 13(3). Carmencita (s.f.). Cilantro. https://carmencita.com/shop/img/cms/00944[Fotografía]. Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., and Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. IEEE transactions on pattern analysis and machine intelligence, 40(4):834-848. Chen, L. C., Zhu, Y., Papandreou, G., Schroff, F., and Adam, H. (2018). Encoder-decoder with atrous separable convolution for semantic image segmentation. In Ferrari, V., Hebert, M., Sminchisescu, C., and Weiss, Y., editors, Computer Vision - ECCV 2018, pages 833-851, Cham. Springer International Publishing. Choi, R. Y., Coyner, A. S., Kalpathy-Cramer, J., Chiang, M. F., and Campbell, J. P. (2020). Introduction to Machine Learning, Neural Networks, and Deep Learning. Translational Vision Science & Technology, 9(2):14. Chum, L., Subramanian, A., Balasubramanian, V. N., and Jawahar, C. V. (2019). Beyond supervised learning: A computer vision perspective. Journal of the Indian Institute of Science, 99:177-199. Dignum, V. (2019). What Is Artificial Intelligence?, pages 9-34. Springer International Publishing, Cham. Finn, C., Yu, T., Fu, J., Abbeel, P., and Levine, S. (2016). Generalizing skills with semi-supervised reinforcement learning. arXiv preprint arXiv:1612.00429. Gao, H., Yuan, H., Wang, Z., and Ji, S. (2019). Pixel transposed convolutional networks. IEEE transactions on pattern analysis and machine intelligence, 42(5):1218-1227. Garcia Garcia, A., Orts Escolano, S., Oprea, S., Villena Martinez, V., ad Garcia Rodriguez, J. (2017). A review on deep learning techniques applied to semantic segmentation. García Vanegas, A., García Bonilla. M. J., Forero, M. G., Castillo García, F. J., and Gonzalez Rodriguez, A. (2023). Agrocablebot: Reconfigurable cabledriven parallel robot for greenhouse or urban automation. Robotics, 12(6). Hao, S., Zhou, Y., and Guo, Y. (2020). A brief survey on semantic segmentation with deep learning. Neurocomputing, 406:302-321. He, K., Zhang, X., Ren, S., and Sun, J. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 770-778. Hossain, M. A. and Sajib, M. S. A. (2019). Classification of image using convolutional neural network (cnn). Global Journal of Computer Science and Technology, 19(2):13-14. Hu, J., Shen, L., and Sun, G. (2018). Squeeze-and-excitation networks. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 7132-7141. Ioffe, S. and Szegedy, C. (2015). Batch normalization: Accelerating deep network training by reducing internal covariate shift. In International conference on machine learning, pages 448-456. pmlr. Janiesch, C., Zschech, P., and Heinrich, K. (2021). Machine learning and deep learning. Electronic Markets, 31(3):685-695. Jha, D., Smedsrud, P. H., Riegler, M. A., Johansen, D., Lange, T. D., Halvorsen, P., and D. Johansen, H. (2019). Resunet++: An advanced architecture for medical image segmentation. In 2019 IEEE International Symposium on Multimedia (ISM). John Deere (2022). See & spray technology. Accessed: 2024-05-14. Khan, A. A., Laghari, A. A., and Awan, S. A. (2021). Machine learning in computer vision: A review. EAI Endorsed Transactions on Scalable Information Systems, 8(32). Kingma, P. D. and Ba, J. (2015). Adam: A method for stochastic optimization. In International Conference on Learning Representations (ICLR), San Diego, CA, USA. Koresh, H. J. D. (2024). Impact of the preprocessing steps in deep learning-based image classifications. National Academy Science Letters. Luo, L., Tang, Y., Zou, X., Ye, M., Feng, W., and Li, G. (2016). Vision-based extraction of spatial information in grape clusters for harvesting robots. Biosystems Engineering, 151:90-104. Mahleyuddin, N. N., Moshawih, S., Ming, L. C., Zulkifly, H. H., Kifli, N., Loy, M. J., Sarker, M. M. R., Al-Worafi, Y. M., Goh, B. H., Thuraisingam, S., and Goh, H. P. (2022). Coriandrum sativum l.: A review on ethnopharmacology, phytochemistry, and cardiovascular benefits. Molecules, 27(1). Manakitsa, N., Maraslidis, G. S., Moysis, L., and Fragulis, G. F. (2024). A review of machine learning and deep learning for object detection, semantic segmentation, and human action recognition in machine and robotic vision. Technologies, 12(2). O'shea, K. and Nash, R. (2015). An introduction to convolutional neural networks. arXiv preprint arXiv:1511.08458. Park, J. Seo, Y., Shin, J., Lee, H., Abbeel, P., and Lee, K. (2022). Surf: Semisupervised reward learning with data augmentation for feedback-efficient preference-based reinforcement learning. arXiv preprint arXiv:2203.10050. Parreira, M., Peñaherrera Colina, L., Alves, P. L., and Pereira, F. (2013). Weeds influence in ve Pretto, A., Aravecchia, S., Burgard, W., Chebrolu, N., Dornhege, C., Falck, T., Fleckenstein, F., Fontenla, A., Imperoli, M., Khanna, R., Liebish, F., Lottes, P., Milioto, A., Nardi, D., Nardi, S., Pfeifer, J., Popovic, M., Potena, C., Pradalier, C., Rothacker-Feder, E., Sa, I., Schaefer, A., Siegwart, R., Stachniss, C., Walter, A., Winterhater, W., Wu, X., and Nieto, J. (2021). Building an aerial-ground robotics system for precision farming: An adaptable solution. IEEE Robotics & Automation Magazine, 28(3):29-49. Ronneberger, O., Fisher, P., and Brox, T. (2015).U-net: Convolutional networks for biomedical image segmentation. In Navab, N., Hornegger, J., Wells, W. M., and Frangi, A. F., editors, Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015, pages 234-241. Springer International Plublising. Roodschild, M., Gotay Sardiñas, J., and Will, A. (2020). A new approach for the vanishing gradient problem on sigmoid activation. Progress in Artificial Intelligence, 9(4):351-360. Russel, S. J., Norvig. P., and Davis, E. (2016). Artificial intelligence: A modern approach. Upper Saddle River, NJ. Prentice Hall. Rüdell, E. C., Petrolli, I. D. S., dos Santos, F. M., Frandaloso, D., and da Silva, D. R. O. (2021). Weed interference capacity on soybean yield. Revista Facultad Nacional de Agronomía Medellín, 74(2):9541-9547. Santos, T. T., de Souza, L. L., dos Santos, A. A., and Avila, S. (2020). Grape detection, segmentation, and tracking using deep neural networks and three-dimensional association. Computers and Electronics in Agriculture, 170:105247. Saponara, S. and Elhanashi, A. (2022). Impact of image resizing on deep learning detectors for training time and model performance. In Saponara, S. and De Gloria, A., editors, Applications in Electronics Pervading Industry, Environment and Society, pages 10-17. Saputra, M. R. U., Markham, A., and Trigoni, N. (2018). Visual slam and structure from motion in dynamic environments: A survey. ACM Computing Surveys (CSUR), 51(2):1-36. Saqib, S., Ullah, F., Naeem, M., Younas, M., Ayaz, A., Ali, S., and Zaman, W. (2022). Mentha: Nutritional and health attributes to treat various aliments including cardiovascular diseases. Molecules, 27(19). Scandar, S., Zadra, C., and Marcotullio, M. C. (2023). Coriander (coriandrum sativum) polyphenols and their nutraceutical value against obesity and metabolic syndrome. Molecules, 28(10). SGA-Semillas (s.f.). Menta piperita. {https://d2j6dbq0eux0bg.cloudfront.net/ images/77148007/3338200099.jpg. [Fotografía].] Shanmuganathan, S. (2016). Artificial Neural Network Modelling: An Introduction, pages 1-14. Springer International Publishing, Cham. Sheikh, H., Prins, C., and Schrijvers, E. (2023). Artificial Intelligence: Definition and Background, pages 15-41. Springer International Publishing, Cham. Shrestha, A. and Mahmood, A. (2019). Review of deep learning algorithms and architectures. IEEE Access, 7:53040-53065. Sun, C., Shrivastava, A., Singh, S., and Gupta, A. (2017). Revisiting unreasonable effectiveness of data in deep learning era. In 2017 IEEE International Conference on Computer Vision (ICCV), pages 843-852. Sun, Y., Zhang, D., Guo, X., and Yang, H. (2023). Lightweight algorithm for apple detection based on an improved yolov5 model. Plants, 12(17). Szeliski, R. (2022). Computer vision: algorithms and applications. Springer Nature. Vijayalakshmi, V. and Venkatachalapathy, K. (2019). Deep neural network for multi-class prediction of student performance in educational data. International Journal of Recent Technology and Engineering, 8(2):5073-5081. Wani, S., Naik, H. R., Wagay, J., Ganie, N., Mulla, M., and Dar, B. (2022). Mentha: A review on its bioactive compounds and potential health benefits. Quality Assurance and Safety of Crops & Foods, 14:154-168. You, J., Liu, W., and Lee, J. (2020). A dnn-based semantic segmentation for detecting weed and crop. Computers and Electronics in Agriculture, 178:105750. Zhang, C., Liu, J., Chen, W., Shi, J., Yao, M., Yan, X., Xu, N., and Chen, D. (2021). Unsupervised anomaly detection based on deep autoencoding and clustering. Security and Communication Networks, pages 1-8. Zhou, Z., Rahman Siddiquee, M. M., Tajbakhsh, N., and Liang, J. (2018). Unet++: A nested u-net architecture for medical image segmentation. In Stoyanov, D., Taylor, Z., Carneiro, G., Syeda-Mahmood, T., Marter, A., Maeir-Hein, L., Tavares, J. M. R., Bradley, A., Papa, J. P., Belagiannis, V., Nascimento, J. C., Lu, Z., Conjeti, S., Moradi, M., Greenspan, H., and Madabhushi, A., editors, Deep Learning in Medical Image Analysis and Multimodal Leaning for Clinical Decision Support, pages 3-11, Cham. Springer International Publishing |
dc.rights.accessrights.none.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.none.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.license.none.fl_str_mv |
Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0) |
dc.rights.uri.none.fl_str_mv |
https://creativecommons.org/licenses/by-nc/4.0/ |
eu_rights_str_mv |
openAccess |
rights_invalid_str_mv |
http://purl.org/coar/access_right/c_abf2 Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0) https://creativecommons.org/licenses/by-nc/4.0/ |
dc.format.extent.none.fl_str_mv |
93 páginas |
dc.format.mimetype.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidad de Ibagué |
dc.publisher.faculty.none.fl_str_mv |
Ingeniería |
dc.publisher.place.none.fl_str_mv |
Ibagué |
dc.publisher.program.none.fl_str_mv |
Ingeniería Electrónica |
publisher.none.fl_str_mv |
Universidad de Ibagué |
institution |
Universidad de Ibagué |
bitstream.url.fl_str_mv |
https://repositorio.unibague.edu.co/bitstreams/a46c6126-3525-40a5-b6c8-ee39affd1ee3/download https://repositorio.unibague.edu.co/bitstreams/9529c2ff-2fb8-463a-87a8-b55df9e12658/download https://repositorio.unibague.edu.co/bitstreams/a850a32e-0ead-487b-b346-c987ac2a207c/download https://repositorio.unibague.edu.co/bitstreams/1d85a4c6-80b5-4d0e-aa4a-8b8a6f2c6627/download https://repositorio.unibague.edu.co/bitstreams/49996c20-ff9a-4293-b084-7c9ce9897966/download https://repositorio.unibague.edu.co/bitstreams/18e096e9-70ba-469a-9ef2-2ae54aea005b/download https://repositorio.unibague.edu.co/bitstreams/2aa4079d-3656-4ae7-ace4-0954aec2ad6b/download |
bitstream.checksum.fl_str_mv |
ee97d80811c04ec169f069b4c818d903 6c070aed99844af8abfeac5856086ff7 2fa3e590786b9c0f3ceba1b9656b7ac3 1abacfb0b6fee4ba5c39ee09cfd7be39 bd6ea19ce170cd0eff9f414eeac7d726 c610f22f507a54df356560678d9ef053 8f4a9eb690d79851f1155ad7a1478205 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Institucional Universidad de Ibagué |
repository.mail.fl_str_mv |
bdigital@metabiblioteca.com |
_version_ |
1814204074570022912 |
spelling |
García Vanegas, Jorge Andrés7124e278-a934-4877-a0af-bc160f5fa627-1Forero Vargas, Manuel Guillermo187e7d0d-8326-49bc-8824-d0c7660437b7-1Durán Valencia, Andrés Juanc4c01b29-3c38-47f0-837e-1c211589ed59-1Fernandez Gallego, José Armando17a4f88f-b10e-46b6-9b2e-0b5354299f90-12024-09-23T14:51:52Z2024-09-23T14:51:52Z2024Este es un proyecto de investigación desarrollado en colaboración con los semilleros de investigación IMACUNA y Lún, del grupo de investigación D+TEC de la Universidad de Ibagué. El objetivo principal es crear un sistema de reconocimiento de plantas utilizando el robot paralelo accionado por cables AgroCableBot y técnicas de visión artificial. Los objetivos específicos incluyen diseñar modelos de reconocimiento de hortalizas, aromáticas y malezas, implementar una interfaz gráfica para visualizar las detecciones y validar el sistema mediante pruebas experimentales. El enfoque del proyecto se centra en el diseño y desarrollo de un modelo de visión artificial que pueda identificar correctamente las diferentes categorías de plantas en imágenes capturadas en entornos agrícolas, mejorando así la gestión de los cultivos. El desarrollo del sistema incluyó la adquisición y preparación de datos necesarios para el entrenamiento y pruebas del modelo, así como la creación de una interfaz visual intuitiva que facilita la interacción del usuario con el sistema. Las pruebas experimentales realizadas con el AgroCableBot confirmaron la efectividad del sistema en términos de precisión y capacidad de generalización. Los resultados destacaron la robustez del modelo y la utilidad de la interfaz en aplicaciones prácticas. El documento concluye con una reflexión crítica sobre los resultados, subrayando las fortalezas y limitaciones del sistema y proponiendo recomendaciones para futuros desarrollos, incluyendo la incorporación de nuevas especies y la implementación de técnicas avanzadas de visión artificial.This is a research project developed in collaboration with the IMACUNA and Lún research seedlings of the D+TEC research group of the University of Ibagué. The main objective is to create a plant recognition system using the cable-driven parallel robot AgroCableBot and artificial vision techniques. Specific objectives include designing recognition models for vegetables, aromatic plants and weeds, implementing a graphic interface to visualize the detections, and validating the system through experimental tests. The focus of the project is on the design and development of a machine vision model that can correctly identify different categories of plants in images captured in agricultural environments, thus improving crop management. The development of the system included the acquisition and preparation of data necessary for training and testing the model, as well as the creation of an intuitive visual interface that facilitates user interaction with the system. Experimental tests conducted with the AgroCableBot confirmed the effectiveness of the system in terms of accuracy and generalizability. The results highlighted the robustness of the model and the usefulness of the interface in practical applications. The paper concludes with a critical reflection on the results, highlighting the strengths and limitations of the system and proposing recommendations for future developments, including the incorporation of new species and the implementation of advanced computer vision techniques.PregradoIngeniero Electrónico1. Introducción...1 1.1. Antecedentes...1 1.2. Planteamiento del problema y justificación del estudio...3 1.3. Objetivos...5 1.3.1. Objetivo general...5 1.3.2. Objetivos específicos...5 1.4. Estructura del documento...5 2. Fundamentos y estado del arte...7 2.1. Visión artificial...9 2.1.1. Aprendizaje automático...11 2.1.2. Aplicaciones...21 3. Diseño del sistema...25 3.1. Descripción del sistema de detección...25 3.2 Tipos de cultivos y proceso de siembra...26 3.3. Adquisición de datos...30 3.4. Pre-procesamiento de imágenes...33 3.5. Redes de segmentación...44 3.6. Post-procesamiento...55 3.7. Interfaz gráfica de usuario...55 4. Pruebas y resultados experimentales...62 4.1. Desempeño general de las redes de segmentación...62 4.2. Resultados por categoría...64 4.3. Análisis comparativo de las redes de segmentación...72 4.4. Interfaz gráfica de usuario...73 4.5. Limitaciones del estudio...75 5. Conclusiones y trabajos futuros...76 5.1. Conclusiones...76 5.2. Trabajos futuros...7793 páginasapplication/pdfDurán Valencia, A. J. (2024). Sistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cables. [Trabajo de grado, Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/4464https://hdl.handle.net/20.500.12313/4464spaUniversidad de IbaguéIngenieríaIbaguéIngeniería ElectrónicaAgarap, A. F. (2018). Deep learning using rectified linear units (relu). arXiv preprint arXiv:1803.08375Ahmed, M., Hashmi, K. A., Pagani, A., Liwicki, M., Stricker, D., and Afzal, M. Z. (2021). Survey and performance analysis of deep learning based object detection in challenging environments. Sensors, 21(15).Albert, S., Wichtmann, B. D., Zhao, W., Maurer, A., Hesser, J., Attenberger, U. I., Schad, L. R., and Zöllner, F. G. (2023). Comparison of image normalization methods for multi-site deep learning. Applied Sciences, 13(15).Awad, M. and Khanna, R. (2015). Deep Neural Networks, pages 127-147. Apress, Berkeley, CA.Caldas, J. V. d. S., da Silva, A. G., Braz, G. B. P., Procópio, S. d. O., Teixeira, I. R., Souza, M. d. F., and Reginaldo, L. T. R. T. (2023). Weed competition on soybean varieties from different relative maturity groups. Agriculture, 13(3).Carmencita (s.f.). Cilantro. https://carmencita.com/shop/img/cms/00944[Fotografía].Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., and Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. IEEE transactions on pattern analysis and machine intelligence, 40(4):834-848.Chen, L. C., Zhu, Y., Papandreou, G., Schroff, F., and Adam, H. (2018). Encoder-decoder with atrous separable convolution for semantic image segmentation. In Ferrari, V., Hebert, M., Sminchisescu, C., and Weiss, Y., editors, Computer Vision - ECCV 2018, pages 833-851, Cham. Springer International Publishing.Choi, R. Y., Coyner, A. S., Kalpathy-Cramer, J., Chiang, M. F., and Campbell, J. P. (2020). Introduction to Machine Learning, Neural Networks, and Deep Learning. Translational Vision Science & Technology, 9(2):14.Chum, L., Subramanian, A., Balasubramanian, V. N., and Jawahar, C. V. (2019). Beyond supervised learning: A computer vision perspective. Journal of the Indian Institute of Science, 99:177-199.Dignum, V. (2019). What Is Artificial Intelligence?, pages 9-34. Springer International Publishing, Cham.Finn, C., Yu, T., Fu, J., Abbeel, P., and Levine, S. (2016). Generalizing skills with semi-supervised reinforcement learning. arXiv preprint arXiv:1612.00429.Gao, H., Yuan, H., Wang, Z., and Ji, S. (2019). Pixel transposed convolutional networks. IEEE transactions on pattern analysis and machine intelligence, 42(5):1218-1227.Garcia Garcia, A., Orts Escolano, S., Oprea, S., Villena Martinez, V., ad Garcia Rodriguez, J. (2017). A review on deep learning techniques applied to semantic segmentation.García Vanegas, A., García Bonilla. M. J., Forero, M. G., Castillo García, F. J., and Gonzalez Rodriguez, A. (2023). Agrocablebot: Reconfigurable cabledriven parallel robot for greenhouse or urban automation. Robotics, 12(6).Hao, S., Zhou, Y., and Guo, Y. (2020). A brief survey on semantic segmentation with deep learning. Neurocomputing, 406:302-321.He, K., Zhang, X., Ren, S., and Sun, J. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 770-778.Hossain, M. A. and Sajib, M. S. A. (2019). Classification of image using convolutional neural network (cnn). Global Journal of Computer Science and Technology, 19(2):13-14.Hu, J., Shen, L., and Sun, G. (2018). Squeeze-and-excitation networks. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 7132-7141.Ioffe, S. and Szegedy, C. (2015). Batch normalization: Accelerating deep network training by reducing internal covariate shift. In International conference on machine learning, pages 448-456. pmlr.Janiesch, C., Zschech, P., and Heinrich, K. (2021). Machine learning and deep learning. Electronic Markets, 31(3):685-695.Jha, D., Smedsrud, P. H., Riegler, M. A., Johansen, D., Lange, T. D., Halvorsen, P., and D. Johansen, H. (2019). Resunet++: An advanced architecture for medical image segmentation. In 2019 IEEE International Symposium on Multimedia (ISM).John Deere (2022). See & spray technology. Accessed: 2024-05-14.Khan, A. A., Laghari, A. A., and Awan, S. A. (2021). Machine learning in computer vision: A review. EAI Endorsed Transactions on Scalable Information Systems, 8(32).Kingma, P. D. and Ba, J. (2015). Adam: A method for stochastic optimization. In International Conference on Learning Representations (ICLR), San Diego, CA, USA.Koresh, H. J. D. (2024). Impact of the preprocessing steps in deep learning-based image classifications. National Academy Science Letters.Luo, L., Tang, Y., Zou, X., Ye, M., Feng, W., and Li, G. (2016). Vision-based extraction of spatial information in grape clusters for harvesting robots. Biosystems Engineering, 151:90-104.Mahleyuddin, N. N., Moshawih, S., Ming, L. C., Zulkifly, H. H., Kifli, N., Loy, M. J., Sarker, M. M. R., Al-Worafi, Y. M., Goh, B. H., Thuraisingam, S., and Goh, H. P. (2022). Coriandrum sativum l.: A review on ethnopharmacology, phytochemistry, and cardiovascular benefits. Molecules, 27(1).Manakitsa, N., Maraslidis, G. S., Moysis, L., and Fragulis, G. F. (2024). A review of machine learning and deep learning for object detection, semantic segmentation, and human action recognition in machine and robotic vision. Technologies, 12(2).O'shea, K. and Nash, R. (2015). An introduction to convolutional neural networks. arXiv preprint arXiv:1511.08458.Park, J. Seo, Y., Shin, J., Lee, H., Abbeel, P., and Lee, K. (2022). Surf: Semisupervised reward learning with data augmentation for feedback-efficient preference-based reinforcement learning. arXiv preprint arXiv:2203.10050.Parreira, M., Peñaherrera Colina, L., Alves, P. L., and Pereira, F. (2013). Weeds influence in vePretto, A., Aravecchia, S., Burgard, W., Chebrolu, N., Dornhege, C., Falck, T., Fleckenstein, F., Fontenla, A., Imperoli, M., Khanna, R., Liebish, F., Lottes, P., Milioto, A., Nardi, D., Nardi, S., Pfeifer, J., Popovic, M., Potena, C., Pradalier, C., Rothacker-Feder, E., Sa, I., Schaefer, A., Siegwart, R., Stachniss, C., Walter, A., Winterhater, W., Wu, X., and Nieto, J. (2021). Building an aerial-ground robotics system for precision farming: An adaptable solution. IEEE Robotics & Automation Magazine, 28(3):29-49.Ronneberger, O., Fisher, P., and Brox, T. (2015).U-net: Convolutional networks for biomedical image segmentation. In Navab, N., Hornegger, J., Wells, W. M., and Frangi, A. F., editors, Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015, pages 234-241. Springer International Plublising.Roodschild, M., Gotay Sardiñas, J., and Will, A. (2020). A new approach for the vanishing gradient problem on sigmoid activation. Progress in Artificial Intelligence, 9(4):351-360.Russel, S. J., Norvig. P., and Davis, E. (2016). Artificial intelligence: A modern approach. Upper Saddle River, NJ. Prentice Hall.Rüdell, E. C., Petrolli, I. D. S., dos Santos, F. M., Frandaloso, D., and da Silva, D. R. O. (2021). Weed interference capacity on soybean yield. Revista Facultad Nacional de Agronomía Medellín, 74(2):9541-9547.Santos, T. T., de Souza, L. L., dos Santos, A. A., and Avila, S. (2020). Grape detection, segmentation, and tracking using deep neural networks and three-dimensional association. Computers and Electronics in Agriculture, 170:105247.Saponara, S. and Elhanashi, A. (2022). Impact of image resizing on deep learning detectors for training time and model performance. In Saponara, S. and De Gloria, A., editors, Applications in Electronics Pervading Industry, Environment and Society, pages 10-17.Saputra, M. R. U., Markham, A., and Trigoni, N. (2018). Visual slam and structure from motion in dynamic environments: A survey. ACM Computing Surveys (CSUR), 51(2):1-36.Saqib, S., Ullah, F., Naeem, M., Younas, M., Ayaz, A., Ali, S., and Zaman, W. (2022). Mentha: Nutritional and health attributes to treat various aliments including cardiovascular diseases. Molecules, 27(19).Scandar, S., Zadra, C., and Marcotullio, M. C. (2023). Coriander (coriandrum sativum) polyphenols and their nutraceutical value against obesity and metabolic syndrome. Molecules, 28(10).SGA-Semillas (s.f.). Menta piperita. {https://d2j6dbq0eux0bg.cloudfront.net/ images/77148007/3338200099.jpg. [Fotografía].]Shanmuganathan, S. (2016). Artificial Neural Network Modelling: An Introduction, pages 1-14. Springer International Publishing, Cham.Sheikh, H., Prins, C., and Schrijvers, E. (2023). Artificial Intelligence: Definition and Background, pages 15-41. Springer International Publishing, Cham.Shrestha, A. and Mahmood, A. (2019). Review of deep learning algorithms and architectures. IEEE Access, 7:53040-53065.Sun, C., Shrivastava, A., Singh, S., and Gupta, A. (2017). Revisiting unreasonable effectiveness of data in deep learning era. In 2017 IEEE International Conference on Computer Vision (ICCV), pages 843-852.Sun, Y., Zhang, D., Guo, X., and Yang, H. (2023). Lightweight algorithm for apple detection based on an improved yolov5 model. Plants, 12(17).Szeliski, R. (2022). Computer vision: algorithms and applications. Springer Nature.Vijayalakshmi, V. and Venkatachalapathy, K. (2019). Deep neural network for multi-class prediction of student performance in educational data. International Journal of Recent Technology and Engineering, 8(2):5073-5081.Wani, S., Naik, H. R., Wagay, J., Ganie, N., Mulla, M., and Dar, B. (2022). Mentha: A review on its bioactive compounds and potential health benefits. Quality Assurance and Safety of Crops & Foods, 14:154-168.You, J., Liu, W., and Lee, J. (2020). A dnn-based semantic segmentation for detecting weed and crop. Computers and Electronics in Agriculture, 178:105750.Zhang, C., Liu, J., Chen, W., Shi, J., Yao, M., Yan, X., Xu, N., and Chen, D. (2021). Unsupervised anomaly detection based on deep autoencoding and clustering. Security and Communication Networks, pages 1-8.Zhou, Z., Rahman Siddiquee, M. M., Tajbakhsh, N., and Liang, J. (2018). Unet++: A nested u-net architecture for medical image segmentation. In Stoyanov, D., Taylor, Z., Carneiro, G., Syeda-Mahmood, T., Marter, A., Maeir-Hein, L., Tavares, J. M. R., Bradley, A., Papa, J. P., Belagiannis, V., Nascimento, J. C., Lu, Z., Conjeti, S., Moradi, M., Greenspan, H., and Madabhushi, A., editors, Deep Learning in Medical Image Analysis and Multimodal Leaning for Clinical Decision Support, pages 3-11, Cham. Springer International Publishinginfo:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)https://creativecommons.org/licenses/by-nc/4.0/Detección hortalizas - Robot paraleloDetección aromática - Robot paraleloDetección maleza - Robot paraleloAgricultura de precisiónVisión artificialSegmentación de imágenesAprendizaje profundoCultivos agricolaPrecision agricultureArtificial visionImage segmentationDeep learningAgricultural cropsSistema para la detección de hortalizas, aromáticas y malezas con un robot paralelo accionado por cablesTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttp://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/acceptedVersionPublicationORIGINALTrabajo de grado.pdfTrabajo de grado.pdfapplication/pdf36742817https://repositorio.unibague.edu.co/bitstreams/a46c6126-3525-40a5-b6c8-ee39affd1ee3/downloadee97d80811c04ec169f069b4c818d903MD51Formato de autorización.pdfFormato de autorización.pdfapplication/pdf149391https://repositorio.unibague.edu.co/bitstreams/9529c2ff-2fb8-463a-87a8-b55df9e12658/download6c070aed99844af8abfeac5856086ff7MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-8134https://repositorio.unibague.edu.co/bitstreams/a850a32e-0ead-487b-b346-c987ac2a207c/download2fa3e590786b9c0f3ceba1b9656b7ac3MD53TEXTTrabajo de grado.pdf.txtTrabajo de grado.pdf.txtExtracted texttext/plain102265https://repositorio.unibague.edu.co/bitstreams/1d85a4c6-80b5-4d0e-aa4a-8b8a6f2c6627/download1abacfb0b6fee4ba5c39ee09cfd7be39MD54Formato de autorización.pdf.txtFormato de autorización.pdf.txtExtracted texttext/plain3781https://repositorio.unibague.edu.co/bitstreams/49996c20-ff9a-4293-b084-7c9ce9897966/downloadbd6ea19ce170cd0eff9f414eeac7d726MD56THUMBNAILTrabajo de grado.pdf.jpgTrabajo de grado.pdf.jpgGenerated Thumbnailimage/jpeg5855https://repositorio.unibague.edu.co/bitstreams/18e096e9-70ba-469a-9ef2-2ae54aea005b/downloadc610f22f507a54df356560678d9ef053MD55Formato de autorización.pdf.jpgFormato de autorización.pdf.jpgGenerated Thumbnailimage/jpeg13889https://repositorio.unibague.edu.co/bitstreams/2aa4079d-3656-4ae7-ace4-0954aec2ad6b/download8f4a9eb690d79851f1155ad7a1478205MD5720.500.12313/4464oai:repositorio.unibague.edu.co:20.500.12313/44642024-09-24 03:00:45.746https://creativecommons.org/licenses/by-nc/4.0/https://repositorio.unibague.edu.coRepositorio Institucional Universidad de Ibaguébdigital@metabiblioteca.comQ3JlYXRpdmUgQ29tbW9ucyBBdHRyaWJ1dGlvbi1Ob25Db21tZXJjaWFsLU5vRGVyaXZhdGl2ZXMgNC4wIEludGVybmF0aW9uYWwgTGljZW5zZQ0KaHR0cHM6Ly9jcmVhdGl2ZWNvbW1vbnMub3JnL2xpY2Vuc2VzL2J5LW5jLW5kLzQuMC8= |