Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial

La industria agrícola necesita de un control riguroso en sus cultivos para asegurar un estándar adecuado en la calidad en su producto final, y para cumplir con esa necesidad se usan diversas técnicas y herramientas para tratar con esas necesidades. Por esa razón, el objetivo de este trabajo es elabo...

Full description

Autores:
Cala Suárez, José Daniel
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2024
Institución:
Universidad Autónoma de Bucaramanga - UNAB
Repositorio:
Repositorio UNAB
Idioma:
spa
OAI Identifier:
oai:repository.unab.edu.co:20.500.12749/27540
Acceso en línea:
http://hdl.handle.net/20.500.12749/27540
Palabra clave:
Mechatronic
Diseases
Crop
Deep learning
Computer vision
Convolutional neural networks (CNNs)
Semantic segmentation
Transfer learning
Graphical interface
Natural computing
Artificial intelligence
Algorithm
Deep learning (Machine learning)
Machine theory
Mecatrónica
Computación natural
Inteligencia artificial
Algoritmo
Aprendizaje profundo (Aprendizaje automático)
Teoría de las máquinas
Enfermedades
Cultivo
Cannabis
Aprendizaje profundo
Visión artificial
Redes neuronales convolucionales (CNNs)
Segmentación semántica
U-Net
Aprendizaje por transferencia
Interfaz gráfica
Rights
License
http://creativecommons.org/licenses/by-nc-nd/2.5/co/
id UNAB2_1e425894c4711d74e7ad71c802d6ed26
oai_identifier_str oai:repository.unab.edu.co:20.500.12749/27540
network_acronym_str UNAB2
network_name_str Repositorio UNAB
repository_id_str
dc.title.spa.fl_str_mv Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial
dc.title.translated.spa.fl_str_mv System for monitoring the growth of cannabis crops using computer vision techniques
title Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial
spellingShingle Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial
Mechatronic
Diseases
Crop
Deep learning
Computer vision
Convolutional neural networks (CNNs)
Semantic segmentation
Transfer learning
Graphical interface
Natural computing
Artificial intelligence
Algorithm
Deep learning (Machine learning)
Machine theory
Mecatrónica
Computación natural
Inteligencia artificial
Algoritmo
Aprendizaje profundo (Aprendizaje automático)
Teoría de las máquinas
Enfermedades
Cultivo
Cannabis
Aprendizaje profundo
Visión artificial
Redes neuronales convolucionales (CNNs)
Segmentación semántica
U-Net
Aprendizaje por transferencia
Interfaz gráfica
title_short Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial
title_full Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial
title_fullStr Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial
title_full_unstemmed Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial
title_sort Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial
dc.creator.fl_str_mv Cala Suárez, José Daniel
dc.contributor.advisor.none.fl_str_mv González Acevedo, Hernando
dc.contributor.author.none.fl_str_mv Cala Suárez, José Daniel
dc.contributor.cvlac.spa.fl_str_mv González Acevedo, Hernando [544655]
dc.contributor.googlescholar.spa.fl_str_mv González Acevedo, Hernando [V8tga0cAAAAJ]
dc.contributor.orcid.spa.fl_str_mv González Acevedo, Hernando [0000-0001-6242-3939]
dc.contributor.scopus.spa.fl_str_mv González Acevedo, Hernando [55821231500]
dc.contributor.researchgate.spa.fl_str_mv González Acevedo, Hernando [Hernando_Gonzalez3]
dc.contributor.researchgroup.spa.fl_str_mv Grupo de Investigación Control y Mecatrónica - GICYM
dc.contributor.apolounab.spa.fl_str_mv González Acevedo, Hernando [hernando-gonzalez-acevedo]
dc.subject.keywords.spa.fl_str_mv Mechatronic
Diseases
Crop
Deep learning
Computer vision
Convolutional neural networks (CNNs)
Semantic segmentation
Transfer learning
Graphical interface
Natural computing
Artificial intelligence
Algorithm
Deep learning (Machine learning)
Machine theory
topic Mechatronic
Diseases
Crop
Deep learning
Computer vision
Convolutional neural networks (CNNs)
Semantic segmentation
Transfer learning
Graphical interface
Natural computing
Artificial intelligence
Algorithm
Deep learning (Machine learning)
Machine theory
Mecatrónica
Computación natural
Inteligencia artificial
Algoritmo
Aprendizaje profundo (Aprendizaje automático)
Teoría de las máquinas
Enfermedades
Cultivo
Cannabis
Aprendizaje profundo
Visión artificial
Redes neuronales convolucionales (CNNs)
Segmentación semántica
U-Net
Aprendizaje por transferencia
Interfaz gráfica
dc.subject.lemb.spa.fl_str_mv Mecatrónica
Computación natural
Inteligencia artificial
Algoritmo
Aprendizaje profundo (Aprendizaje automático)
Teoría de las máquinas
dc.subject.proposal.spa.fl_str_mv Enfermedades
Cultivo
Cannabis
Aprendizaje profundo
Visión artificial
Redes neuronales convolucionales (CNNs)
Segmentación semántica
U-Net
Aprendizaje por transferencia
Interfaz gráfica
description La industria agrícola necesita de un control riguroso en sus cultivos para asegurar un estándar adecuado en la calidad en su producto final, y para cumplir con esa necesidad se usan diversas técnicas y herramientas para tratar con esas necesidades. Por esa razón, el objetivo de este trabajo es elaborar una metodología para obtención de una base de datos y construir un programa de entrenamiento con Redes Neuronales Convolucionales (CNN) capaz de detectar enfermedades en plantas de cannabis, tales como Botritis en tapa inicial, intermedia y avanzada, y deficiencias nutricionales provocadas por falta de potasio y magnesio). En adición, se busca crear una interfaz gráfica que permita la carga de imágenes nuevas del cultivo, realice predicciones basadas en el entrenamiento y facilite la toma de decisiones por parte del usuario final acerca de los correctivos para la salud del cultivo.
publishDate 2024
dc.date.accessioned.none.fl_str_mv 2024-11-26T14:23:17Z
dc.date.available.none.fl_str_mv 2024-11-26T14:23:17Z
dc.date.issued.none.fl_str_mv 2024-11-25
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.local.spa.fl_str_mv Trabajo de Grado
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.hasversion.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
dc.type.redcol.none.fl_str_mv http://purl.org/redcol/resource_type/TP
format http://purl.org/coar/resource_type/c_7a1f
status_str acceptedVersion
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/20.500.12749/27540
dc.identifier.instname.spa.fl_str_mv instname:Universidad Autónoma de Bucaramanga - UNAB
dc.identifier.reponame.spa.fl_str_mv reponame:Repositorio Institucional UNAB
dc.identifier.repourl.spa.fl_str_mv repourl:https://repository.unab.edu.co
url http://hdl.handle.net/20.500.12749/27540
identifier_str_mv instname:Universidad Autónoma de Bucaramanga - UNAB
reponame:Repositorio Institucional UNAB
repourl:https://repository.unab.edu.co
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.spa.fl_str_mv [1] J. A. Ramirez Ramos, J. C. Sotelo, and E. B. Gualdron, “Detección y clasificación de anomalías en hojas de cannabis haciendo uso de visión computarizada,” 2020 IX International Congress of Mechatronics Engineering and Automation (CIIMA), pp. 1–4, Nov. 2020, doi: 10.1109/ciima50553.2020.9290319.
[2] A. V. Panchal, S. C. Patel, K. Bagyalakshmi, P. Kumar, I. R. Khan, and M. Soni, “Image-based Plant Diseases Detection using Deep Learning,” Materials Today: Proceedings, vol. 80, pp. 3500–3506, 2023, doi: 10.1016/j.matpr.2021.07.281.
[3] R. Rattan and J. O. Shiney, “Comparison and Analysis of CNN Based Algorithms for Plant Disease Identification,” 2023 Advanced Computing and Communication Technologies for High Performance Applications (ACCTHPA), vol. 893, pp. 1–6, Jan. 2023, doi: 10.1109/accthpa57160.2023.10083342.
[4] O. Mzoughi and I. Yahiaoui, “Deep learning-based segmentation for disease identification,” Ecological Informatics, vol. 75, p. 102000, Jul. 2023, doi: 10.1016/j.ecoinf.2023.102000.
[5] M. Shoaib et al., “Deep learning-based segmentation and classification of leaf images for detection of tomato plant disease,” Frontiers in Plant Science, vol. 13, Oct. 2022, doi: 10.3389/fpls.2022.1031748.
[6] M. Shoaib et al., “A deep learning-based model for plant lesion segmentation, subtype identification, and survival probability estimation,” Frontiers in Plant Science, vol. 13, Dec. 2022, doi: 10.3389/fpls.2022.1095547.
[7] L. Lei, Z. Wang, R. Wang, T. Shen, Q. Yang, and L. Yang, “Improved Deeplabv3+ Method for the Panax Notoginseng Disease Segmentation,” 2023 11th International Conference on Information Systems and Computing Technology (ISCTech), pp. 285–289, Jul. 2023, doi: 10.1109/isctech60480.2023.00058.
[8] S. Abinaya, K. U. Kumar, and A. S. Alphonse, “Cascading Autoencoder With Attention Residual U-Net for Multi-Class Plant Leaf Disease Segmentation and Classification,” IEEE Access, vol. 11, pp. 98153–98170, 2023, doi: 10.1109/access.2023.3312718.
[9] O. Ronneberger, P. Fischer, and T. Brox, “U-NET: Convolutional Networks for Biomedical Image Segmentation,” arXiv (Cornell University), Jan. 2015, doi: 10.48550/arxiv.1505.04597.
[10] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” arXiv (Cornell University), Jan. 2015, doi: 10.48550/arxiv.1512.03385.
[11] T.-Y. Lin et al., “Microsoft COCO: Common Objects in context,” arXiv (Cornell University), Jan. 2014, doi: 10.48550/arxiv.1405.0312.
[12] S. Li, L. Song, X. Wu, Z. Hu, Y.-M. Cheung, and X. Yao, “Multi-Class imbalance classification based on data distribution and adaptive weights,” IEEE Transactions on Knowledge and Data Engineering, vol. 36, no. 10, pp. 5265–5279, Apr. 2024, doi: 10.1109/tkde.2024.3384961.
[13] D. C. Liyanage, R. Hudjakov, and M. Tamre, “Hyperspectral Imaging Methods Improve RGB Image Semantic Segmentation of Unstructured Terrains,” 2020 International Conference Mechatronic Systems and Materials (MSM), Jul. 2020, doi: 10.1109/msm49833.2020.9201738.
[14] Gunawan, M. F. Fadillah, E. Prakasa, B. Sugiarto, T. N. Suharsono, and R. N. Sukmana, “Road Segmentation with U-Net Architecture Using Jetson AGX Xavier For Autonomous Vehicle,” 2022 16th International Conference on Telecommunication Systems, Services, and Applications (TSSA), vol. 8, pp. 1–5, Oct. 2022, doi: 10.1109/tssa56819.2022.10063891.
[15] C. A. R. Goyzueta, J. E. C. De la Cruz, and W. A. M. Machaca, “Integration of U-Net, ResU-Net and DeepLab Architectures with Intersection Over Union metric for Cells Nuclei Image Segmentation,” 2021 IEEE Engineering International Research Conference (EIRCON), pp. 1–4, Oct. 2021, doi: 10.1109/eircon52903.2021.9613150.
dc.relation.uriapolo.spa.fl_str_mv https://apolo.unab.edu.co/en/persons/hernando-gonzalez-acevedo
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/2.5/co/
dc.rights.local.spa.fl_str_mv Abierto (Texto Completo)
dc.rights.creativecommons.*.fl_str_mv Atribución-NoComercial-SinDerivadas 2.5 Colombia
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-nd/2.5/co/
Abierto (Texto Completo)
Atribución-NoComercial-SinDerivadas 2.5 Colombia
http://purl.org/coar/access_right/c_abf2
dc.format.mimetype.spa.fl_str_mv application/pdf
dc.coverage.spatial.spa.fl_str_mv Siachoque (Boyacá, Colombia)
dc.coverage.temporal.spa.fl_str_mv Septiembre 2022
dc.coverage.campus.spa.fl_str_mv UNAB Campus Bucaramanga
dc.publisher.grantor.spa.fl_str_mv Universidad Autónoma de Bucaramanga UNAB
dc.publisher.faculty.spa.fl_str_mv Facultad Ingeniería
dc.publisher.program.spa.fl_str_mv Pregrado Ingeniería Mecatrónica
dc.publisher.programid.none.fl_str_mv IMK-1789
institution Universidad Autónoma de Bucaramanga - UNAB
bitstream.url.fl_str_mv https://repository.unab.edu.co/bitstream/20.500.12749/27540/3/Tesis.pdf
https://repository.unab.edu.co/bitstream/20.500.12749/27540/4/Licencia.pdf
https://repository.unab.edu.co/bitstream/20.500.12749/27540/5/Tesis.pdf.jpg
https://repository.unab.edu.co/bitstream/20.500.12749/27540/6/Licencia.pdf.jpg
https://repository.unab.edu.co/bitstream/20.500.12749/27540/2/license.txt
bitstream.checksum.fl_str_mv 77eeb363e38d2c7eff283d344a42aaa2
73682fedb3bd78cf6b57d25583d27924
fc8b21d57ceca6473a47858a18c9ba56
1f61860aefd2e072bccd2d5729e530f5
3755c0cfdb77e29f2b9125d7a45dd316
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional | Universidad Autónoma de Bucaramanga - UNAB
repository.mail.fl_str_mv repositorio@unab.edu.co
_version_ 1828219952528621568
spelling González Acevedo, Hernando8ab7545f-7922-452f-ad0f-bf79d275a5f6Cala Suárez, José Danielb35d0c76-3000-44a1-8070-3764ef08d40fGonzález Acevedo, Hernando [544655]González Acevedo, Hernando [V8tga0cAAAAJ]González Acevedo, Hernando [0000-0001-6242-3939]González Acevedo, Hernando [55821231500]González Acevedo, Hernando [Hernando_Gonzalez3]Grupo de Investigación Control y Mecatrónica - GICYMGonzález Acevedo, Hernando [hernando-gonzalez-acevedo]Siachoque (Boyacá, Colombia)Septiembre 2022UNAB Campus Bucaramanga2024-11-26T14:23:17Z2024-11-26T14:23:17Z2024-11-25http://hdl.handle.net/20.500.12749/27540instname:Universidad Autónoma de Bucaramanga - UNABreponame:Repositorio Institucional UNABrepourl:https://repository.unab.edu.coLa industria agrícola necesita de un control riguroso en sus cultivos para asegurar un estándar adecuado en la calidad en su producto final, y para cumplir con esa necesidad se usan diversas técnicas y herramientas para tratar con esas necesidades. Por esa razón, el objetivo de este trabajo es elaborar una metodología para obtención de una base de datos y construir un programa de entrenamiento con Redes Neuronales Convolucionales (CNN) capaz de detectar enfermedades en plantas de cannabis, tales como Botritis en tapa inicial, intermedia y avanzada, y deficiencias nutricionales provocadas por falta de potasio y magnesio). En adición, se busca crear una interfaz gráfica que permita la carga de imágenes nuevas del cultivo, realice predicciones basadas en el entrenamiento y facilite la toma de decisiones por parte del usuario final acerca de los correctivos para la salud del cultivo.1 INTRODUCCIÓN ........................................................................................................ 6 1.1 OBJETIVOS ....................................................................................................... 7 1.1.1 OBJETIVO GENERAL .................................................................................... 7 1.1.2 OBJETIVOS ESPECÍFICOS .......................................................................... 7 2 ESTADO DEL ARTE .................................................................................................. 8 3 CONSTRUCCIÓN DE LA BASE DE DATOS ............................................................ 11 3.1 METODOLOGÍA DE TOMA DE IMÁGENES PARA LA CONSTRUCCIÓN DE LA BASE DE DATOS ........................................................................................................ 12 3.1.1 APLICACIÓN DE LA METODOLOGÍA ......................................................... 14 3.1.2 ADQUISICIÓN DE IMÁGENES Y DETERMINACIÓN DE CLASES Y DESCRIPTORES ..................................................................................................... 15 4 DESARROLLO DEL SISTEMA DE CLASIFICACIÓN ............................................... 18 4.1 ETIQUETADO .................................................................................................. 18 4.2 MODELOS DE REDES NEURONALES ........................................................... 20 4.2.1 UNET ........................................................................................................... 20 4.2.2 RESNET 101 ................................................................................................ 22 4.3 COCO DATASET ............................................................................................. 22 4.4 DESARROLLO DEL MODELO DE ENTRENAMIENTO ................................... 23 4.4.1 CARGADOR DE DATOS .............................................................................. 23 4.4.2 CREACIÓN DEL OBJETO DATASET Y DATALOADER .............................. 30 4.4.3 COMPROBACIÓN DE LOS BATCHES ........................................................ 34 4.4.4 CREACIÓN DEL MODELO Y APRENDIZAJE POR TRANSFERENCIA ...... 37 4.4.5 BUCLE DE ENTRENAMIENTO .................................................................... 39 4.4.6 INFERENCIA ................................................................................................ 50 5 VALIDACIÓN DEL SISTEMA DE CLASIFICACIÓN .................................................. 52 5.1 ENTORNO VIRTUAL ....................................................................................... 53 5.2 INTERFAZ ........................................................................................................ 54 5.3 VALIDACIÓN Y DISCUSIÓN............................................................................ 66 5.3.1 RESULTADOS EN LAS MÉTRICAS ............................................................ 67 5.3.2 RESULTADOS EN PREDICCIÓN VISUAL................................................... 70 6 CONCLUSIONES ..................................................................................................... 80 7 BIBLIOGRAFÍA ......................................................................................................... 82 8 ANEXOS .................................................................................................................. 84 8.1 DATOS DEL ESPECIALISTA ........................................................................... 84 8.2 PYTORCH Y CUDA ......................................................................................... 85 8.3 IMÁGENES DE LA BASE DE DATOS .............................................................. 86 8.3.1. IMÁGENES DE ENTRENAMIENTO ............................................................... 86 8.3.2. IMÁGENES DE VALIDACIÓN......................................................................... 90 8.3.3. IMÁGENES DE TESTEO ................................................................................ 92 8.4 REQUERIMIENTOS ............................................................................................. 112PregradoThe agricultural industry needs rigorous control of its crops to ensure an adequate standard of quality in its final product, and to meet this need, several techniques and tools are used. For this reason, the objective of this project is to develop a methodology to obtain a database and build a training program with Convolutional Neural Networks (CNN) capable of detecting diseases in cannabis plants, such as Botrytis in early, intermediate and advanced stages, and nutritional deficiencies caused by lack of potassium and magnesium. In addition, this research seeks to create a graphical interface that allows the loading of new images of the crop, make predictions based on training and facilitate decision-making by the end user about corrective measures for the health of the crop.Modalidad Presencialapplication/pdfspahttp://creativecommons.org/licenses/by-nc-nd/2.5/co/Abierto (Texto Completo)Atribución-NoComercial-SinDerivadas 2.5 Colombiahttp://purl.org/coar/access_right/c_abf2Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificialSystem for monitoring the growth of cannabis crops using computer vision techniquesIngeniero MecatrónicoUniversidad Autónoma de Bucaramanga UNABFacultad IngenieríaPregrado Ingeniería MecatrónicaIMK-1789info:eu-repo/semantics/bachelorThesisTrabajo de Gradohttp://purl.org/coar/resource_type/c_7a1finfo:eu-repo/semantics/acceptedVersionhttp://purl.org/redcol/resource_type/TPMechatronicDiseasesCropDeep learningComputer visionConvolutional neural networks (CNNs)Semantic segmentationTransfer learningGraphical interfaceNatural computingArtificial intelligenceAlgorithmDeep learning (Machine learning)Machine theoryMecatrónicaComputación naturalInteligencia artificialAlgoritmoAprendizaje profundo (Aprendizaje automático)Teoría de las máquinasEnfermedadesCultivoCannabisAprendizaje profundoVisión artificialRedes neuronales convolucionales (CNNs)Segmentación semánticaU-NetAprendizaje por transferenciaInterfaz gráfica[1] J. A. Ramirez Ramos, J. C. Sotelo, and E. B. Gualdron, “Detección y clasificación de anomalías en hojas de cannabis haciendo uso de visión computarizada,” 2020 IX International Congress of Mechatronics Engineering and Automation (CIIMA), pp. 1–4, Nov. 2020, doi: 10.1109/ciima50553.2020.9290319.[2] A. V. Panchal, S. C. Patel, K. Bagyalakshmi, P. Kumar, I. R. Khan, and M. Soni, “Image-based Plant Diseases Detection using Deep Learning,” Materials Today: Proceedings, vol. 80, pp. 3500–3506, 2023, doi: 10.1016/j.matpr.2021.07.281.[3] R. Rattan and J. O. Shiney, “Comparison and Analysis of CNN Based Algorithms for Plant Disease Identification,” 2023 Advanced Computing and Communication Technologies for High Performance Applications (ACCTHPA), vol. 893, pp. 1–6, Jan. 2023, doi: 10.1109/accthpa57160.2023.10083342.[4] O. Mzoughi and I. Yahiaoui, “Deep learning-based segmentation for disease identification,” Ecological Informatics, vol. 75, p. 102000, Jul. 2023, doi: 10.1016/j.ecoinf.2023.102000.[5] M. Shoaib et al., “Deep learning-based segmentation and classification of leaf images for detection of tomato plant disease,” Frontiers in Plant Science, vol. 13, Oct. 2022, doi: 10.3389/fpls.2022.1031748.[6] M. Shoaib et al., “A deep learning-based model for plant lesion segmentation, subtype identification, and survival probability estimation,” Frontiers in Plant Science, vol. 13, Dec. 2022, doi: 10.3389/fpls.2022.1095547.[7] L. Lei, Z. Wang, R. Wang, T. Shen, Q. Yang, and L. Yang, “Improved Deeplabv3+ Method for the Panax Notoginseng Disease Segmentation,” 2023 11th International Conference on Information Systems and Computing Technology (ISCTech), pp. 285–289, Jul. 2023, doi: 10.1109/isctech60480.2023.00058.[8] S. Abinaya, K. U. Kumar, and A. S. Alphonse, “Cascading Autoencoder With Attention Residual U-Net for Multi-Class Plant Leaf Disease Segmentation and Classification,” IEEE Access, vol. 11, pp. 98153–98170, 2023, doi: 10.1109/access.2023.3312718.[9] O. Ronneberger, P. Fischer, and T. Brox, “U-NET: Convolutional Networks for Biomedical Image Segmentation,” arXiv (Cornell University), Jan. 2015, doi: 10.48550/arxiv.1505.04597.[10] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” arXiv (Cornell University), Jan. 2015, doi: 10.48550/arxiv.1512.03385.[11] T.-Y. Lin et al., “Microsoft COCO: Common Objects in context,” arXiv (Cornell University), Jan. 2014, doi: 10.48550/arxiv.1405.0312.[12] S. Li, L. Song, X. Wu, Z. Hu, Y.-M. Cheung, and X. Yao, “Multi-Class imbalance classification based on data distribution and adaptive weights,” IEEE Transactions on Knowledge and Data Engineering, vol. 36, no. 10, pp. 5265–5279, Apr. 2024, doi: 10.1109/tkde.2024.3384961.[13] D. C. Liyanage, R. Hudjakov, and M. Tamre, “Hyperspectral Imaging Methods Improve RGB Image Semantic Segmentation of Unstructured Terrains,” 2020 International Conference Mechatronic Systems and Materials (MSM), Jul. 2020, doi: 10.1109/msm49833.2020.9201738.[14] Gunawan, M. F. Fadillah, E. Prakasa, B. Sugiarto, T. N. Suharsono, and R. N. Sukmana, “Road Segmentation with U-Net Architecture Using Jetson AGX Xavier For Autonomous Vehicle,” 2022 16th International Conference on Telecommunication Systems, Services, and Applications (TSSA), vol. 8, pp. 1–5, Oct. 2022, doi: 10.1109/tssa56819.2022.10063891.[15] C. A. R. Goyzueta, J. E. C. De la Cruz, and W. A. M. Machaca, “Integration of U-Net, ResU-Net and DeepLab Architectures with Intersection Over Union metric for Cells Nuclei Image Segmentation,” 2021 IEEE Engineering International Research Conference (EIRCON), pp. 1–4, Oct. 2021, doi: 10.1109/eircon52903.2021.9613150.https://apolo.unab.edu.co/en/persons/hernando-gonzalez-acevedoORIGINALTesis.pdfTesis.pdfTesisapplication/pdf12142262https://repository.unab.edu.co/bitstream/20.500.12749/27540/3/Tesis.pdf77eeb363e38d2c7eff283d344a42aaa2MD53open accessLicencia.pdfLicencia.pdfLicenciaapplication/pdf469797https://repository.unab.edu.co/bitstream/20.500.12749/27540/4/Licencia.pdf73682fedb3bd78cf6b57d25583d27924MD54metadata only accessTHUMBNAILTesis.pdf.jpgTesis.pdf.jpgIM Thumbnailimage/jpeg4258https://repository.unab.edu.co/bitstream/20.500.12749/27540/5/Tesis.pdf.jpgfc8b21d57ceca6473a47858a18c9ba56MD55open accessLicencia.pdf.jpgLicencia.pdf.jpgIM Thumbnailimage/jpeg12906https://repository.unab.edu.co/bitstream/20.500.12749/27540/6/Licencia.pdf.jpg1f61860aefd2e072bccd2d5729e530f5MD56metadata only accessLICENSElicense.txtlicense.txttext/plain; charset=utf-8829https://repository.unab.edu.co/bitstream/20.500.12749/27540/2/license.txt3755c0cfdb77e29f2b9125d7a45dd316MD52open access20.500.12749/27540oai:repository.unab.edu.co:20.500.12749/275402024-11-26 22:01:26.78open accessRepositorio Institucional | Universidad Autónoma de Bucaramanga - UNABrepositorio@unab.edu.coRUwoTE9TKSBBVVRPUihFUyksIG1hbmlmaWVzdGEobWFuaWZlc3RhbW9zKSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8sIGxhIG9icmEgZXMgZGUgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgbGEgbWlzbWEuCgpFbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbi4gRWwgQVVUT1IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVTkFCIGFjdMO6YSBjb21vIHVuIHRlcmNlcm8gZGUgYnVlbmEgZmUuCgpFbCBBVVRPUiBhdXRvcml6YSBhIGxhIFVuaXZlcnNpZGFkIEF1dMOzbm9tYSBkZSBCdWNhcmFtYW5nYSBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBBbmRpbmEgMzUxIGRlIDE5OTMgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCB1dGlsaWNlIGxhIG9icmEgb2JqZXRvIGRlIGxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24uCg==