Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial
La industria agrícola necesita de un control riguroso en sus cultivos para asegurar un estándar adecuado en la calidad en su producto final, y para cumplir con esa necesidad se usan diversas técnicas y herramientas para tratar con esas necesidades. Por esa razón, el objetivo de este trabajo es elabo...
- Autores:
-
Cala Suárez, José Daniel
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2024
- Institución:
- Universidad Autónoma de Bucaramanga - UNAB
- Repositorio:
- Repositorio UNAB
- Idioma:
- spa
- OAI Identifier:
- oai:repository.unab.edu.co:20.500.12749/27540
- Acceso en línea:
- http://hdl.handle.net/20.500.12749/27540
- Palabra clave:
- Mechatronic
Diseases
Crop
Deep learning
Computer vision
Convolutional neural networks (CNNs)
Semantic segmentation
Transfer learning
Graphical interface
Natural computing
Artificial intelligence
Algorithm
Deep learning (Machine learning)
Machine theory
Mecatrónica
Computación natural
Inteligencia artificial
Algoritmo
Aprendizaje profundo (Aprendizaje automático)
Teoría de las máquinas
Enfermedades
Cultivo
Cannabis
Aprendizaje profundo
Visión artificial
Redes neuronales convolucionales (CNNs)
Segmentación semántica
U-Net
Aprendizaje por transferencia
Interfaz gráfica
- Rights
- License
- http://creativecommons.org/licenses/by-nc-nd/2.5/co/
id |
UNAB2_1e425894c4711d74e7ad71c802d6ed26 |
---|---|
oai_identifier_str |
oai:repository.unab.edu.co:20.500.12749/27540 |
network_acronym_str |
UNAB2 |
network_name_str |
Repositorio UNAB |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial |
dc.title.translated.spa.fl_str_mv |
System for monitoring the growth of cannabis crops using computer vision techniques |
title |
Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial |
spellingShingle |
Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial Mechatronic Diseases Crop Deep learning Computer vision Convolutional neural networks (CNNs) Semantic segmentation Transfer learning Graphical interface Natural computing Artificial intelligence Algorithm Deep learning (Machine learning) Machine theory Mecatrónica Computación natural Inteligencia artificial Algoritmo Aprendizaje profundo (Aprendizaje automático) Teoría de las máquinas Enfermedades Cultivo Cannabis Aprendizaje profundo Visión artificial Redes neuronales convolucionales (CNNs) Segmentación semántica U-Net Aprendizaje por transferencia Interfaz gráfica |
title_short |
Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial |
title_full |
Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial |
title_fullStr |
Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial |
title_full_unstemmed |
Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial |
title_sort |
Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificial |
dc.creator.fl_str_mv |
Cala Suárez, José Daniel |
dc.contributor.advisor.none.fl_str_mv |
González Acevedo, Hernando |
dc.contributor.author.none.fl_str_mv |
Cala Suárez, José Daniel |
dc.contributor.cvlac.spa.fl_str_mv |
González Acevedo, Hernando [544655] |
dc.contributor.googlescholar.spa.fl_str_mv |
González Acevedo, Hernando [V8tga0cAAAAJ] |
dc.contributor.orcid.spa.fl_str_mv |
González Acevedo, Hernando [0000-0001-6242-3939] |
dc.contributor.scopus.spa.fl_str_mv |
González Acevedo, Hernando [55821231500] |
dc.contributor.researchgate.spa.fl_str_mv |
González Acevedo, Hernando [Hernando_Gonzalez3] |
dc.contributor.researchgroup.spa.fl_str_mv |
Grupo de Investigación Control y Mecatrónica - GICYM |
dc.contributor.apolounab.spa.fl_str_mv |
González Acevedo, Hernando [hernando-gonzalez-acevedo] |
dc.subject.keywords.spa.fl_str_mv |
Mechatronic Diseases Crop Deep learning Computer vision Convolutional neural networks (CNNs) Semantic segmentation Transfer learning Graphical interface Natural computing Artificial intelligence Algorithm Deep learning (Machine learning) Machine theory |
topic |
Mechatronic Diseases Crop Deep learning Computer vision Convolutional neural networks (CNNs) Semantic segmentation Transfer learning Graphical interface Natural computing Artificial intelligence Algorithm Deep learning (Machine learning) Machine theory Mecatrónica Computación natural Inteligencia artificial Algoritmo Aprendizaje profundo (Aprendizaje automático) Teoría de las máquinas Enfermedades Cultivo Cannabis Aprendizaje profundo Visión artificial Redes neuronales convolucionales (CNNs) Segmentación semántica U-Net Aprendizaje por transferencia Interfaz gráfica |
dc.subject.lemb.spa.fl_str_mv |
Mecatrónica Computación natural Inteligencia artificial Algoritmo Aprendizaje profundo (Aprendizaje automático) Teoría de las máquinas |
dc.subject.proposal.spa.fl_str_mv |
Enfermedades Cultivo Cannabis Aprendizaje profundo Visión artificial Redes neuronales convolucionales (CNNs) Segmentación semántica U-Net Aprendizaje por transferencia Interfaz gráfica |
description |
La industria agrícola necesita de un control riguroso en sus cultivos para asegurar un estándar adecuado en la calidad en su producto final, y para cumplir con esa necesidad se usan diversas técnicas y herramientas para tratar con esas necesidades. Por esa razón, el objetivo de este trabajo es elaborar una metodología para obtención de una base de datos y construir un programa de entrenamiento con Redes Neuronales Convolucionales (CNN) capaz de detectar enfermedades en plantas de cannabis, tales como Botritis en tapa inicial, intermedia y avanzada, y deficiencias nutricionales provocadas por falta de potasio y magnesio). En adición, se busca crear una interfaz gráfica que permita la carga de imágenes nuevas del cultivo, realice predicciones basadas en el entrenamiento y facilite la toma de decisiones por parte del usuario final acerca de los correctivos para la salud del cultivo. |
publishDate |
2024 |
dc.date.accessioned.none.fl_str_mv |
2024-11-26T14:23:17Z |
dc.date.available.none.fl_str_mv |
2024-11-26T14:23:17Z |
dc.date.issued.none.fl_str_mv |
2024-11-25 |
dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.local.spa.fl_str_mv |
Trabajo de Grado |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.hasversion.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
dc.type.redcol.none.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/20.500.12749/27540 |
dc.identifier.instname.spa.fl_str_mv |
instname:Universidad Autónoma de Bucaramanga - UNAB |
dc.identifier.reponame.spa.fl_str_mv |
reponame:Repositorio Institucional UNAB |
dc.identifier.repourl.spa.fl_str_mv |
repourl:https://repository.unab.edu.co |
url |
http://hdl.handle.net/20.500.12749/27540 |
identifier_str_mv |
instname:Universidad Autónoma de Bucaramanga - UNAB reponame:Repositorio Institucional UNAB repourl:https://repository.unab.edu.co |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.references.spa.fl_str_mv |
[1] J. A. Ramirez Ramos, J. C. Sotelo, and E. B. Gualdron, “Detección y clasificación de anomalías en hojas de cannabis haciendo uso de visión computarizada,” 2020 IX International Congress of Mechatronics Engineering and Automation (CIIMA), pp. 1–4, Nov. 2020, doi: 10.1109/ciima50553.2020.9290319. [2] A. V. Panchal, S. C. Patel, K. Bagyalakshmi, P. Kumar, I. R. Khan, and M. Soni, “Image-based Plant Diseases Detection using Deep Learning,” Materials Today: Proceedings, vol. 80, pp. 3500–3506, 2023, doi: 10.1016/j.matpr.2021.07.281. [3] R. Rattan and J. O. Shiney, “Comparison and Analysis of CNN Based Algorithms for Plant Disease Identification,” 2023 Advanced Computing and Communication Technologies for High Performance Applications (ACCTHPA), vol. 893, pp. 1–6, Jan. 2023, doi: 10.1109/accthpa57160.2023.10083342. [4] O. Mzoughi and I. Yahiaoui, “Deep learning-based segmentation for disease identification,” Ecological Informatics, vol. 75, p. 102000, Jul. 2023, doi: 10.1016/j.ecoinf.2023.102000. [5] M. Shoaib et al., “Deep learning-based segmentation and classification of leaf images for detection of tomato plant disease,” Frontiers in Plant Science, vol. 13, Oct. 2022, doi: 10.3389/fpls.2022.1031748. [6] M. Shoaib et al., “A deep learning-based model for plant lesion segmentation, subtype identification, and survival probability estimation,” Frontiers in Plant Science, vol. 13, Dec. 2022, doi: 10.3389/fpls.2022.1095547. [7] L. Lei, Z. Wang, R. Wang, T. Shen, Q. Yang, and L. Yang, “Improved Deeplabv3+ Method for the Panax Notoginseng Disease Segmentation,” 2023 11th International Conference on Information Systems and Computing Technology (ISCTech), pp. 285–289, Jul. 2023, doi: 10.1109/isctech60480.2023.00058. [8] S. Abinaya, K. U. Kumar, and A. S. Alphonse, “Cascading Autoencoder With Attention Residual U-Net for Multi-Class Plant Leaf Disease Segmentation and Classification,” IEEE Access, vol. 11, pp. 98153–98170, 2023, doi: 10.1109/access.2023.3312718. [9] O. Ronneberger, P. Fischer, and T. Brox, “U-NET: Convolutional Networks for Biomedical Image Segmentation,” arXiv (Cornell University), Jan. 2015, doi: 10.48550/arxiv.1505.04597. [10] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” arXiv (Cornell University), Jan. 2015, doi: 10.48550/arxiv.1512.03385. [11] T.-Y. Lin et al., “Microsoft COCO: Common Objects in context,” arXiv (Cornell University), Jan. 2014, doi: 10.48550/arxiv.1405.0312. [12] S. Li, L. Song, X. Wu, Z. Hu, Y.-M. Cheung, and X. Yao, “Multi-Class imbalance classification based on data distribution and adaptive weights,” IEEE Transactions on Knowledge and Data Engineering, vol. 36, no. 10, pp. 5265–5279, Apr. 2024, doi: 10.1109/tkde.2024.3384961. [13] D. C. Liyanage, R. Hudjakov, and M. Tamre, “Hyperspectral Imaging Methods Improve RGB Image Semantic Segmentation of Unstructured Terrains,” 2020 International Conference Mechatronic Systems and Materials (MSM), Jul. 2020, doi: 10.1109/msm49833.2020.9201738. [14] Gunawan, M. F. Fadillah, E. Prakasa, B. Sugiarto, T. N. Suharsono, and R. N. Sukmana, “Road Segmentation with U-Net Architecture Using Jetson AGX Xavier For Autonomous Vehicle,” 2022 16th International Conference on Telecommunication Systems, Services, and Applications (TSSA), vol. 8, pp. 1–5, Oct. 2022, doi: 10.1109/tssa56819.2022.10063891. [15] C. A. R. Goyzueta, J. E. C. De la Cruz, and W. A. M. Machaca, “Integration of U-Net, ResU-Net and DeepLab Architectures with Intersection Over Union metric for Cells Nuclei Image Segmentation,” 2021 IEEE Engineering International Research Conference (EIRCON), pp. 1–4, Oct. 2021, doi: 10.1109/eircon52903.2021.9613150. |
dc.relation.uriapolo.spa.fl_str_mv |
https://apolo.unab.edu.co/en/persons/hernando-gonzalez-acevedo |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/2.5/co/ |
dc.rights.local.spa.fl_str_mv |
Abierto (Texto Completo) |
dc.rights.creativecommons.*.fl_str_mv |
Atribución-NoComercial-SinDerivadas 2.5 Colombia |
rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-nd/2.5/co/ Abierto (Texto Completo) Atribución-NoComercial-SinDerivadas 2.5 Colombia http://purl.org/coar/access_right/c_abf2 |
dc.format.mimetype.spa.fl_str_mv |
application/pdf |
dc.coverage.spatial.spa.fl_str_mv |
Siachoque (Boyacá, Colombia) |
dc.coverage.temporal.spa.fl_str_mv |
Septiembre 2022 |
dc.coverage.campus.spa.fl_str_mv |
UNAB Campus Bucaramanga |
dc.publisher.grantor.spa.fl_str_mv |
Universidad Autónoma de Bucaramanga UNAB |
dc.publisher.faculty.spa.fl_str_mv |
Facultad Ingeniería |
dc.publisher.program.spa.fl_str_mv |
Pregrado Ingeniería Mecatrónica |
dc.publisher.programid.none.fl_str_mv |
IMK-1789 |
institution |
Universidad Autónoma de Bucaramanga - UNAB |
bitstream.url.fl_str_mv |
https://repository.unab.edu.co/bitstream/20.500.12749/27540/3/Tesis.pdf https://repository.unab.edu.co/bitstream/20.500.12749/27540/4/Licencia.pdf https://repository.unab.edu.co/bitstream/20.500.12749/27540/5/Tesis.pdf.jpg https://repository.unab.edu.co/bitstream/20.500.12749/27540/6/Licencia.pdf.jpg https://repository.unab.edu.co/bitstream/20.500.12749/27540/2/license.txt |
bitstream.checksum.fl_str_mv |
77eeb363e38d2c7eff283d344a42aaa2 73682fedb3bd78cf6b57d25583d27924 fc8b21d57ceca6473a47858a18c9ba56 1f61860aefd2e072bccd2d5729e530f5 3755c0cfdb77e29f2b9125d7a45dd316 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Institucional | Universidad Autónoma de Bucaramanga - UNAB |
repository.mail.fl_str_mv |
repositorio@unab.edu.co |
_version_ |
1828219952528621568 |
spelling |
González Acevedo, Hernando8ab7545f-7922-452f-ad0f-bf79d275a5f6Cala Suárez, José Danielb35d0c76-3000-44a1-8070-3764ef08d40fGonzález Acevedo, Hernando [544655]González Acevedo, Hernando [V8tga0cAAAAJ]González Acevedo, Hernando [0000-0001-6242-3939]González Acevedo, Hernando [55821231500]González Acevedo, Hernando [Hernando_Gonzalez3]Grupo de Investigación Control y Mecatrónica - GICYMGonzález Acevedo, Hernando [hernando-gonzalez-acevedo]Siachoque (Boyacá, Colombia)Septiembre 2022UNAB Campus Bucaramanga2024-11-26T14:23:17Z2024-11-26T14:23:17Z2024-11-25http://hdl.handle.net/20.500.12749/27540instname:Universidad Autónoma de Bucaramanga - UNABreponame:Repositorio Institucional UNABrepourl:https://repository.unab.edu.coLa industria agrícola necesita de un control riguroso en sus cultivos para asegurar un estándar adecuado en la calidad en su producto final, y para cumplir con esa necesidad se usan diversas técnicas y herramientas para tratar con esas necesidades. Por esa razón, el objetivo de este trabajo es elaborar una metodología para obtención de una base de datos y construir un programa de entrenamiento con Redes Neuronales Convolucionales (CNN) capaz de detectar enfermedades en plantas de cannabis, tales como Botritis en tapa inicial, intermedia y avanzada, y deficiencias nutricionales provocadas por falta de potasio y magnesio). En adición, se busca crear una interfaz gráfica que permita la carga de imágenes nuevas del cultivo, realice predicciones basadas en el entrenamiento y facilite la toma de decisiones por parte del usuario final acerca de los correctivos para la salud del cultivo.1 INTRODUCCIÓN ........................................................................................................ 6 1.1 OBJETIVOS ....................................................................................................... 7 1.1.1 OBJETIVO GENERAL .................................................................................... 7 1.1.2 OBJETIVOS ESPECÍFICOS .......................................................................... 7 2 ESTADO DEL ARTE .................................................................................................. 8 3 CONSTRUCCIÓN DE LA BASE DE DATOS ............................................................ 11 3.1 METODOLOGÍA DE TOMA DE IMÁGENES PARA LA CONSTRUCCIÓN DE LA BASE DE DATOS ........................................................................................................ 12 3.1.1 APLICACIÓN DE LA METODOLOGÍA ......................................................... 14 3.1.2 ADQUISICIÓN DE IMÁGENES Y DETERMINACIÓN DE CLASES Y DESCRIPTORES ..................................................................................................... 15 4 DESARROLLO DEL SISTEMA DE CLASIFICACIÓN ............................................... 18 4.1 ETIQUETADO .................................................................................................. 18 4.2 MODELOS DE REDES NEURONALES ........................................................... 20 4.2.1 UNET ........................................................................................................... 20 4.2.2 RESNET 101 ................................................................................................ 22 4.3 COCO DATASET ............................................................................................. 22 4.4 DESARROLLO DEL MODELO DE ENTRENAMIENTO ................................... 23 4.4.1 CARGADOR DE DATOS .............................................................................. 23 4.4.2 CREACIÓN DEL OBJETO DATASET Y DATALOADER .............................. 30 4.4.3 COMPROBACIÓN DE LOS BATCHES ........................................................ 34 4.4.4 CREACIÓN DEL MODELO Y APRENDIZAJE POR TRANSFERENCIA ...... 37 4.4.5 BUCLE DE ENTRENAMIENTO .................................................................... 39 4.4.6 INFERENCIA ................................................................................................ 50 5 VALIDACIÓN DEL SISTEMA DE CLASIFICACIÓN .................................................. 52 5.1 ENTORNO VIRTUAL ....................................................................................... 53 5.2 INTERFAZ ........................................................................................................ 54 5.3 VALIDACIÓN Y DISCUSIÓN............................................................................ 66 5.3.1 RESULTADOS EN LAS MÉTRICAS ............................................................ 67 5.3.2 RESULTADOS EN PREDICCIÓN VISUAL................................................... 70 6 CONCLUSIONES ..................................................................................................... 80 7 BIBLIOGRAFÍA ......................................................................................................... 82 8 ANEXOS .................................................................................................................. 84 8.1 DATOS DEL ESPECIALISTA ........................................................................... 84 8.2 PYTORCH Y CUDA ......................................................................................... 85 8.3 IMÁGENES DE LA BASE DE DATOS .............................................................. 86 8.3.1. IMÁGENES DE ENTRENAMIENTO ............................................................... 86 8.3.2. IMÁGENES DE VALIDACIÓN......................................................................... 90 8.3.3. IMÁGENES DE TESTEO ................................................................................ 92 8.4 REQUERIMIENTOS ............................................................................................. 112PregradoThe agricultural industry needs rigorous control of its crops to ensure an adequate standard of quality in its final product, and to meet this need, several techniques and tools are used. For this reason, the objective of this project is to develop a methodology to obtain a database and build a training program with Convolutional Neural Networks (CNN) capable of detecting diseases in cannabis plants, such as Botrytis in early, intermediate and advanced stages, and nutritional deficiencies caused by lack of potassium and magnesium. In addition, this research seeks to create a graphical interface that allows the loading of new images of the crop, make predictions based on training and facilitate decision-making by the end user about corrective measures for the health of the crop.Modalidad Presencialapplication/pdfspahttp://creativecommons.org/licenses/by-nc-nd/2.5/co/Abierto (Texto Completo)Atribución-NoComercial-SinDerivadas 2.5 Colombiahttp://purl.org/coar/access_right/c_abf2Sistema de seguimiento de crecimiento de cultivo de cannabis utilizando técnicas de visión artificialSystem for monitoring the growth of cannabis crops using computer vision techniquesIngeniero MecatrónicoUniversidad Autónoma de Bucaramanga UNABFacultad IngenieríaPregrado Ingeniería MecatrónicaIMK-1789info:eu-repo/semantics/bachelorThesisTrabajo de Gradohttp://purl.org/coar/resource_type/c_7a1finfo:eu-repo/semantics/acceptedVersionhttp://purl.org/redcol/resource_type/TPMechatronicDiseasesCropDeep learningComputer visionConvolutional neural networks (CNNs)Semantic segmentationTransfer learningGraphical interfaceNatural computingArtificial intelligenceAlgorithmDeep learning (Machine learning)Machine theoryMecatrónicaComputación naturalInteligencia artificialAlgoritmoAprendizaje profundo (Aprendizaje automático)Teoría de las máquinasEnfermedadesCultivoCannabisAprendizaje profundoVisión artificialRedes neuronales convolucionales (CNNs)Segmentación semánticaU-NetAprendizaje por transferenciaInterfaz gráfica[1] J. A. Ramirez Ramos, J. C. Sotelo, and E. B. Gualdron, “Detección y clasificación de anomalías en hojas de cannabis haciendo uso de visión computarizada,” 2020 IX International Congress of Mechatronics Engineering and Automation (CIIMA), pp. 1–4, Nov. 2020, doi: 10.1109/ciima50553.2020.9290319.[2] A. V. Panchal, S. C. Patel, K. Bagyalakshmi, P. Kumar, I. R. Khan, and M. Soni, “Image-based Plant Diseases Detection using Deep Learning,” Materials Today: Proceedings, vol. 80, pp. 3500–3506, 2023, doi: 10.1016/j.matpr.2021.07.281.[3] R. Rattan and J. O. Shiney, “Comparison and Analysis of CNN Based Algorithms for Plant Disease Identification,” 2023 Advanced Computing and Communication Technologies for High Performance Applications (ACCTHPA), vol. 893, pp. 1–6, Jan. 2023, doi: 10.1109/accthpa57160.2023.10083342.[4] O. Mzoughi and I. Yahiaoui, “Deep learning-based segmentation for disease identification,” Ecological Informatics, vol. 75, p. 102000, Jul. 2023, doi: 10.1016/j.ecoinf.2023.102000.[5] M. Shoaib et al., “Deep learning-based segmentation and classification of leaf images for detection of tomato plant disease,” Frontiers in Plant Science, vol. 13, Oct. 2022, doi: 10.3389/fpls.2022.1031748.[6] M. Shoaib et al., “A deep learning-based model for plant lesion segmentation, subtype identification, and survival probability estimation,” Frontiers in Plant Science, vol. 13, Dec. 2022, doi: 10.3389/fpls.2022.1095547.[7] L. Lei, Z. Wang, R. Wang, T. Shen, Q. Yang, and L. Yang, “Improved Deeplabv3+ Method for the Panax Notoginseng Disease Segmentation,” 2023 11th International Conference on Information Systems and Computing Technology (ISCTech), pp. 285–289, Jul. 2023, doi: 10.1109/isctech60480.2023.00058.[8] S. Abinaya, K. U. Kumar, and A. S. Alphonse, “Cascading Autoencoder With Attention Residual U-Net for Multi-Class Plant Leaf Disease Segmentation and Classification,” IEEE Access, vol. 11, pp. 98153–98170, 2023, doi: 10.1109/access.2023.3312718.[9] O. Ronneberger, P. Fischer, and T. Brox, “U-NET: Convolutional Networks for Biomedical Image Segmentation,” arXiv (Cornell University), Jan. 2015, doi: 10.48550/arxiv.1505.04597.[10] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” arXiv (Cornell University), Jan. 2015, doi: 10.48550/arxiv.1512.03385.[11] T.-Y. Lin et al., “Microsoft COCO: Common Objects in context,” arXiv (Cornell University), Jan. 2014, doi: 10.48550/arxiv.1405.0312.[12] S. Li, L. Song, X. Wu, Z. Hu, Y.-M. Cheung, and X. Yao, “Multi-Class imbalance classification based on data distribution and adaptive weights,” IEEE Transactions on Knowledge and Data Engineering, vol. 36, no. 10, pp. 5265–5279, Apr. 2024, doi: 10.1109/tkde.2024.3384961.[13] D. C. Liyanage, R. Hudjakov, and M. Tamre, “Hyperspectral Imaging Methods Improve RGB Image Semantic Segmentation of Unstructured Terrains,” 2020 International Conference Mechatronic Systems and Materials (MSM), Jul. 2020, doi: 10.1109/msm49833.2020.9201738.[14] Gunawan, M. F. Fadillah, E. Prakasa, B. Sugiarto, T. N. Suharsono, and R. N. Sukmana, “Road Segmentation with U-Net Architecture Using Jetson AGX Xavier For Autonomous Vehicle,” 2022 16th International Conference on Telecommunication Systems, Services, and Applications (TSSA), vol. 8, pp. 1–5, Oct. 2022, doi: 10.1109/tssa56819.2022.10063891.[15] C. A. R. Goyzueta, J. E. C. De la Cruz, and W. A. M. Machaca, “Integration of U-Net, ResU-Net and DeepLab Architectures with Intersection Over Union metric for Cells Nuclei Image Segmentation,” 2021 IEEE Engineering International Research Conference (EIRCON), pp. 1–4, Oct. 2021, doi: 10.1109/eircon52903.2021.9613150.https://apolo.unab.edu.co/en/persons/hernando-gonzalez-acevedoORIGINALTesis.pdfTesis.pdfTesisapplication/pdf12142262https://repository.unab.edu.co/bitstream/20.500.12749/27540/3/Tesis.pdf77eeb363e38d2c7eff283d344a42aaa2MD53open accessLicencia.pdfLicencia.pdfLicenciaapplication/pdf469797https://repository.unab.edu.co/bitstream/20.500.12749/27540/4/Licencia.pdf73682fedb3bd78cf6b57d25583d27924MD54metadata only accessTHUMBNAILTesis.pdf.jpgTesis.pdf.jpgIM Thumbnailimage/jpeg4258https://repository.unab.edu.co/bitstream/20.500.12749/27540/5/Tesis.pdf.jpgfc8b21d57ceca6473a47858a18c9ba56MD55open accessLicencia.pdf.jpgLicencia.pdf.jpgIM Thumbnailimage/jpeg12906https://repository.unab.edu.co/bitstream/20.500.12749/27540/6/Licencia.pdf.jpg1f61860aefd2e072bccd2d5729e530f5MD56metadata only accessLICENSElicense.txtlicense.txttext/plain; charset=utf-8829https://repository.unab.edu.co/bitstream/20.500.12749/27540/2/license.txt3755c0cfdb77e29f2b9125d7a45dd316MD52open access20.500.12749/27540oai:repository.unab.edu.co:20.500.12749/275402024-11-26 22:01:26.78open accessRepositorio Institucional | Universidad Autónoma de Bucaramanga - UNABrepositorio@unab.edu.coRUwoTE9TKSBBVVRPUihFUyksIG1hbmlmaWVzdGEobWFuaWZlc3RhbW9zKSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8sIGxhIG9icmEgZXMgZGUgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgbGEgbWlzbWEuCgpFbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbi4gRWwgQVVUT1IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVTkFCIGFjdMO6YSBjb21vIHVuIHRlcmNlcm8gZGUgYnVlbmEgZmUuCgpFbCBBVVRPUiBhdXRvcml6YSBhIGxhIFVuaXZlcnNpZGFkIEF1dMOzbm9tYSBkZSBCdWNhcmFtYW5nYSBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBBbmRpbmEgMzUxIGRlIDE5OTMgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCB1dGlsaWNlIGxhIG9icmEgb2JqZXRvIGRlIGxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24uCg== |