Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral

El proceso de entrenamiento y validación de modelos de aprendizaje automático sigue un ciclo iterativo compuesto por tres actividades principales: alistamiento de los insumos, optimización del modelo y análisis de resultados. El alistamiento incluye la selección y preparación de datos, mientras que...

Full description

Autores:
Villamil Garro, Kelly Jhoana
Quijano Malagón, Karen Lizeth
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2025
Institución:
Universidad Distrital Francisco José de Caldas
Repositorio:
RIUD: repositorio U. Distrital
Idioma:
spa
OAI Identifier:
oai:repository.udistrital.edu.co:11349/94240
Acceso en línea:
http://hdl.handle.net/11349/94240
Palabra clave:
Redes neuronales convolucionales
Aprendizaje profundo
Lindero
Catastro
Ingeniería Catastral y Geodesia -- Tesis y disertaciones académicas
Convolutional neural networks
Deep learning
Boundary
Cadastre
Rights
License
Abierto (Texto Completo)
id UDISTRITA2_ad47a19484865aab1f056b428faddbb6
oai_identifier_str oai:repository.udistrital.edu.co:11349/94240
network_acronym_str UDISTRITA2
network_name_str RIUD: repositorio U. Distrital
repository_id_str
dc.title.none.fl_str_mv Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral
dc.title.titleenglish.none.fl_str_mv Evaluation of convolutional neural networks for the extraction of property boundaries as a tool for cadastral updating
title Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral
spellingShingle Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral
Redes neuronales convolucionales
Aprendizaje profundo
Lindero
Catastro
Ingeniería Catastral y Geodesia -- Tesis y disertaciones académicas
Convolutional neural networks
Deep learning
Boundary
Cadastre
title_short Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral
title_full Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral
title_fullStr Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral
title_full_unstemmed Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral
title_sort Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral
dc.creator.fl_str_mv Villamil Garro, Kelly Jhoana
Quijano Malagón, Karen Lizeth
dc.contributor.advisor.none.fl_str_mv Coronado Sánchez, Paulo César
dc.contributor.author.none.fl_str_mv Villamil Garro, Kelly Jhoana
Quijano Malagón, Karen Lizeth
dc.contributor.orcid.none.fl_str_mv Villamil Garro, Kelly Jhoana [0009-0002-4481-6207]
Quijano Malagón, Karen Lizeth [0009-0001-0998-5788]
Coronado Sánchez, Paulo César [0000-0003-2980-2376]
dc.subject.none.fl_str_mv Redes neuronales convolucionales
Aprendizaje profundo
Lindero
Catastro
topic Redes neuronales convolucionales
Aprendizaje profundo
Lindero
Catastro
Ingeniería Catastral y Geodesia -- Tesis y disertaciones académicas
Convolutional neural networks
Deep learning
Boundary
Cadastre
dc.subject.lemb.none.fl_str_mv Ingeniería Catastral y Geodesia -- Tesis y disertaciones académicas
dc.subject.keyword.none.fl_str_mv Convolutional neural networks
Deep learning
Boundary
Cadastre
description El proceso de entrenamiento y validación de modelos de aprendizaje automático sigue un ciclo iterativo compuesto por tres actividades principales: alistamiento de los insumos, optimización del modelo y análisis de resultados. El alistamiento incluye la selección y preparación de datos, mientras que la optimización se enfoca en la elección de la arquitectura y el ajuste de los parámetros del modelo y finalmente el análisis de resultados involucra el cálculo de métricas para la evaluación del modelo, donde en el caso de una evaluación no óptima, se debe realizar un proceso iterativo de optimización para alcanzar los umbrales de desempeño. En el estudio, se plantea el uso de modelos pre entrenados para la extracción de linderos prediales físicos visibles en suelo rural de Cundinamarca, para lo cual se escogieron como insumos 2 ortoimágenes correspondientes a los municipios de Tabio y Subachoque que tienen un Ground Sample Distance inferior a 50 centímetros, en el caso de Tabio se utilizaron como elementos de la clase linderos las vías, drenajes, muros y cercas presentes en la cartografía básica oficial del municipio y para Subachoque se realizó la digitalización manual de estos elementos. Se realizaron 145 pruebas entre los modelos SegNet, Unet y ResNet con datasets de teselas de 3 tamaños distintos; 256x256, 512x512 y 2557x1887, así mismo, se variaron los parámetros de window size, stride, batch size y número de épocas, en búsqueda de la combinación óptima en términos de tiempo de ejecución y métricas de entrenamiento y de validación. Los valores obtenidos para las métricas de evaluación evidencian que la arquitectura UNET alcanza el mejor rendimiento, pues esta destacó en los valores de F1-Score e índice Kappa para ambos municipios, sin embargo, como en cualquier tarea automatizada, es necesario considerar los factores prácticos como requerimientos mínimos de la máquina y el tiempo de ejecución versus estos parámetros para la captura convencional de linderos. Finalmente, es evidente la importancia de la calidad del conjunto de datos para garantizar la precisión de los resultados, por lo cual, se sugiere la mejora tanto en la selección como en la depuración de los datos vectoriales y ráster de insumo.
publishDate 2025
dc.date.accessioned.none.fl_str_mv 2025-03-27T17:14:54Z
dc.date.available.none.fl_str_mv 2025-03-27T17:14:54Z
dc.date.created.none.fl_str_mv 2025-02-13
dc.type.none.fl_str_mv bachelorThesis
dc.type.degree.none.fl_str_mv Monografía
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
format http://purl.org/coar/resource_type/c_7a1f
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/11349/94240
url http://hdl.handle.net/11349/94240
dc.language.iso.none.fl_str_mv spa
language spa
dc.relation.references.none.fl_str_mv A. Kirillov, R. Girshick, K. He, and P. Dollár, “Panoptic feature Pyramid networks,” arXiv.org, Jan. 08, 2019. Available: https://arxiv.org/abs/1901.02446
Altamirano L. (2021). Deep Learning aplicado a la segmentación semántica de Imágenes aéreas. Universidad de Valparaíso, Chile. http://repositoriobibliotecas.uv.cl/handle/uvscl/3958
Barney G. Catastro multipropósito en el acuerdo de paz. Indepaz. 2022. https://indepaz.org.co/catastro-multiproposito-en-el-acuerdo-de-paz-por-gloria-c-barney/ [accedida 15 Enero 2024]
Bennett RM, Koeva M, Asiama K. Review of Remote Sensing for Land Administration: Origins, Debates, and Selected Cases. Remote Sensing. 2021; 13(21):4198. https://doi.org/10.3390/rs13214198
Bischke, B., Helber, P., Folz, J., Borth, D., & Dengel, A. (2017). Multi-task learning for segmentation of building footprints with auxiliary tasks. *arXiv preprint arXiv:1709.05932*.
Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. *IEEE Transactions on Pattern Analysis and Machine Intelligence*, 40(4), 834-848.
Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs. IEEE Transactions on Pattern Analysis and Machine Intelligence, 40(4), 834-848.
Chirag Patil, “Pytorch_image_segmentation.ipynb at main · chiragpatil-ml/YouTubeNotebook,” GitHub. Available: https://github.com/chiragpatil-ml/YouTubeNotebook/blob/main/Computer%20Vision/Train%20and%20test%20segmentation%20model/pytorch_image_segmentation.ipynb
Christopher Thomas Bs. Hons. Miap, “Deep learning based super resolution, without using a GAN,” Medium, Dec. 19, 2024. Available: https://towardsdatascience.com/deep-learning-based-super-resolution-without-using-a-gan-11c9bb5b6cd5
Cívico Panduro, J.(2010). Estudio comparativo de algoritmos disponibles en ITK para la segmentación de imágenes médicas. Aplicación al caso particular de la aurícula izquierda. Proyecto Fin de Carrera Ingeniería Superior de Telecomunicación – Universidad de Sevilla. e-REdING. Biblioteca de la Escuela Superior de Ingenieros de Sevilla. (us.es)
Crommelinck S., Koeva M., Ying M., Vosselman G. (2019). Aplication of Deep Learning for Delineaton of Visible Cadastral Boundaries from Remote Sensing Imagery. Remote Sensing. 11(21), 2505. https://doi.org/10.3390/rs11212505
Departamento Nacional de Planeación. (2019, 26 de marzo). Estrategia para la Implementación de la política pública de catastro multipropósito (Documento CONPES 3958). Bogotá D.C., Colombia: DNP.
Departamento Nacional De Planeación. (2022). Bases del Plan Nacional de Desarrollo 2022 - 2026 (1st ed., Vol. 1). Departamento Nacional De Planeación.
Departamento Nacional de Planeación. (2022, 24 de enero). Declaración de Importancia Estratégica del Proyecto de Inversión: Actualización y Gestión Catastral Nacional (Documento CONPES 4071). Bogotá D.C., Colombia: DNP.
Departamento Nacional de Planeación. (2023, septiembre 10). Con Inteligencia Artificial, el DNP apoya el proceso de actualización del Catastro Multipropósito. Noticias DNP. Con Inteligencia Artificial, el DNP apoya el proceso de actualización del Catastro Multipropósito
E. Shelhamer, J. Long and T. Darrell, "Fully Convolutional Networks for Semantic Segmentation," in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 39, no. 4, pp. 640-651, 1 April 2017. Available: https://ieeexplore.ieee.org/document/7478072
Everingham, M., Van Gool, L., Williams, C. K., Winn, J., & Zisserman, A. (2015). The Pascal Visual Object Classes Challenge: A Retrospective. *International Journal of Computer Vision*, 111(1), 98-136.
Fetai, B., Grigillo, D., & Lisec, A. (2022). Revising Cadastral Data on Land Boundaries Using Deep Learning in Image-Based Mapping. ISPRS International Journal of Geo-Information, 11(5). https://doi.org/10.3390/ijgi11050298
Fetai, B., Račič, M., & Lisec, A. (2021). Deep learning for detection of visible land boundaries from uav imagery. Remote Sensing, 13(11). https://doi.org/10.3390/rs13112077
Foody, G. M. (2002). Status of land cover classification accuracy assessment. *Remote Sensing of Environment*, 80(1), 185-201.
G. Boesch, “Deep Residual Networks (RESNet, RESNET-50) – 2024 Guide,” viso.ai, Aug. 07, 2024. Available: https://viso-ai.translate.goog/deep-learning/resnet-residual-neural-network/?_x_tr_sl=en&_x_tr_tl=es&_x_tr_hl=es&_x_tr_pto=tc
IGAC. (2023). Catalogo de objetos Geográficos para la Cartografía Básica de Colombia [Instituto Geográfico Agustín Codazzi]. 21 de abril de 2023
Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. In Advances in Neural Information Processing Systems (pp. 1097-1105).
LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444.
Li, H., Zhang, L., & Ma, W. (2021). Deep learning-based semantic segmentation for high-resolution remote sensing images: A review. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 14, 4646-4663. https://doi.org/10.1109/JSTARS.2021.3083829
Li, Y., Wang, Z., Yang, J., & Tian, Q. (2019).** Deep multigranular dynamic fusion network for remote sensing image scene classification. *IEEE Transactions on Neural Networks and Learning Systems*, 30(1), 162-174.
Li, Z., Liu, F., Yang, W., Peng, S., & Zhou, J. (2022). A Survey of Convolutional Neural Networks: Analysis, Applications, and Prospects. IEEE Transactions on Neural Networks and Learning Systems, 33(12), 6999–7019. https://doi.org/10.1109/TNNLS.2021.3084827
Long, J., Shelhamer, E., & Darrell, T. (2015). Fully convolutional networks for semantic segmentation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 3431-3440).
M. Huh, P. Agrawal, and A. A. Efros, “What makes imagenet good for transfer learning?” 2016.
Maggiori, E., Tarabalka, Y., Charpiat, G., & Alliez, P. (2017). Convolutional Neural Networks for Large-Scale Remote-Sensing Image Classification. *IEEE Transactions on Geoscience and Remote Sensing*.
Mou, L., & Zhu, X. X. (2018). Im2height: Height estimation from single monocular imagery via fully residual convolutional-deconvolutional network. *arXiv preprint arXiv:1802.10249*.
Nyandwi E, Koeva M, Kohli D, Bennett R. Comparing Human Versus Machine-Driven Cadastral Boundary Feature Extraction. Remote Sensing. 2019; 11(14):1662. https://doi.org/10.3390/rs11141662
O. Ronneberger, P. Fischer, and T. Brox, “U-NET: Convolutional Networks for Biomedical Image Segmentation,” arXiv.org, May 18, 2015. Available: https://arxiv.org/abs/1505.04597
Pavel Iakubovskii, “Segmentation Models  documentation.” Available: https://smp.readthedocs.io/en/latest/index.html
Poder Legislativo, Colombia: Acuerdo Final para la Terminación del Conflicto y la Construcción de una Paz Estable y Duradera. Junio de 2016, 26 junio 2016, https://www.refworld.org/es/leg/multilateraltreaty/natlegbod/2016/es/127319 [accedida 15 January 2024]
Ponce, P. (2010). Inteligencia Artificial con Aplicaciones a la Ingeniería. Primera Edición. México DF: Alfaomega Grupo Editor, SA. ISBN: 978-607-7854-83-8.
Ramos, L. (2005). La modernización del Catastro Colombiano. Universidad de Los Andes. https://core.ac.uk/download/pdf/268121685.pdf
Resolución 1040 de 2023 [Instituto Geográfico Agustín Codazzi]. Por medio de la cual se expide la Resolución Única de la Gestión Catastral Multipropósito. 08 de agosto de 2023
Romcon, I. (2022). Clasificación de imágenes espaciales mediante visión artificial. Universidad Politécnica de Madrid.
Ronneberger, O., Fischer, P., & Brox, T. (2015). U-Net: Convolutional Networks for Biomedical Image Segmentation. *arXiv preprint arXiv:1505.04597*.
Ronneberger, O., Fischer, P., & Brox, T. (2015). U-net: Convolutional networks for biomedical image segmentation. In International Conference on Medical Image Computing and Computer-Assisted Intervention (pp. 234-241).
Sherrah, J. (2016). Fully Convolutional Networks for Dense Semantic Labelling of High-Resolution Aerial Imagery. *arXiv preprint arXiv:1606.02585*.
Simonyan, K., & Zisserman, A. (2015).** Very deep convolutional networks for large-scale image recognition. In *International Conference on Learning Representations (ICLR)*.
Soto-Orozco, O. A., Corral-Sáenz, A. D., Rojo-González, C. E., & Ramírez-Quintana, J. A. (2019). Análisis del desempeño de redes neuronales profundas para segmentación semántica en hardware limitado. Recuperado de https://www.redalyc.org/journal/5122/512261374010/html/
Xia, X., Persello, C., & Koeva, M. (2019). Deep fully convolutional networks for cadastral boundary detection from UAV images. Remote Sensing, 11(14). https://doi.org/10.3390/rs11141725
Zapeta Hernández, A., Galindo Rosales, G. A., Juan Santiago, H. J., & Martínez Lee, M. (2022). Métricas de rendimiento para evaluar el aprendizaje automático en la clasificación de imágenes petroleras utilizando redes neuronales convolucionales. Ciencia Latina Revista Científica Multidisciplinar, 6(5), 4624-4637. https://doi.org/10.37811/cl_rcm.v6i5.3420
Zhang, Y., Tang, Y., & Wang, L. (2018). CNN-Based High-Resolution Remote Sensing Image Segmentation Using High-Order Label Contextual Information. *IEEE Geoscience and Remote Sensing Letters*.
Zhu, X. X., Tuia, D., Mou, L., Xia, G. S., Zhang, L., Xu, F., & Fraundorfer, F. (2017). Deep learning in remote sensing: A comprehensive review and list of resources. IEEE Geoscience and Remote Sensing Magazine, 5(4), 8-36.
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.acceso.none.fl_str_mv Abierto (Texto Completo)
rights_invalid_str_mv Abierto (Texto Completo)
http://purl.org/coar/access_right/c_abf2
dc.format.mimetype.none.fl_str_mv pdf
dc.publisher.none.fl_str_mv Universidad Distrital Francisco José de Caldas
publisher.none.fl_str_mv Universidad Distrital Francisco José de Caldas
institution Universidad Distrital Francisco José de Caldas
bitstream.url.fl_str_mv https://repository.udistrital.edu.co/bitstreams/90921d76-6a01-42c5-b391-1a655b9a4b3b/download
https://repository.udistrital.edu.co/bitstreams/0cdc12e4-d013-460d-be0d-db45a09da982/download
https://repository.udistrital.edu.co/bitstreams/b44dcb54-c680-4c89-88c8-9804ef6f059e/download
https://repository.udistrital.edu.co/bitstreams/fbba44f5-ab83-4e19-8124-47e8ce6eb5c3/download
https://repository.udistrital.edu.co/bitstreams/1ef1fc41-4639-4f0a-9c22-8df8562f5a37/download
bitstream.checksum.fl_str_mv 997daf6c648c962d566d7b082dac908d
8376a9a9c4b0fb2f0f75375aff051f42
c18ea0252f7bfd3bbecb8111425c2a8a
9540dba105f1aa4a4ac3adbab74ddb72
793cb02238074d42e2498e67effe2a8a
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Universidad Distrital
repository.mail.fl_str_mv repositorio@udistrital.edu.co
_version_ 1828164982480568320
spelling Coronado Sánchez, Paulo CésarVillamil Garro, Kelly JhoanaQuijano Malagón, Karen LizethVillamil Garro, Kelly Jhoana [0009-0002-4481-6207]Quijano Malagón, Karen Lizeth [0009-0001-0998-5788]Coronado Sánchez, Paulo César [0000-0003-2980-2376]2025-03-27T17:14:54Z2025-03-27T17:14:54Z2025-02-13http://hdl.handle.net/11349/94240El proceso de entrenamiento y validación de modelos de aprendizaje automático sigue un ciclo iterativo compuesto por tres actividades principales: alistamiento de los insumos, optimización del modelo y análisis de resultados. El alistamiento incluye la selección y preparación de datos, mientras que la optimización se enfoca en la elección de la arquitectura y el ajuste de los parámetros del modelo y finalmente el análisis de resultados involucra el cálculo de métricas para la evaluación del modelo, donde en el caso de una evaluación no óptima, se debe realizar un proceso iterativo de optimización para alcanzar los umbrales de desempeño. En el estudio, se plantea el uso de modelos pre entrenados para la extracción de linderos prediales físicos visibles en suelo rural de Cundinamarca, para lo cual se escogieron como insumos 2 ortoimágenes correspondientes a los municipios de Tabio y Subachoque que tienen un Ground Sample Distance inferior a 50 centímetros, en el caso de Tabio se utilizaron como elementos de la clase linderos las vías, drenajes, muros y cercas presentes en la cartografía básica oficial del municipio y para Subachoque se realizó la digitalización manual de estos elementos. Se realizaron 145 pruebas entre los modelos SegNet, Unet y ResNet con datasets de teselas de 3 tamaños distintos; 256x256, 512x512 y 2557x1887, así mismo, se variaron los parámetros de window size, stride, batch size y número de épocas, en búsqueda de la combinación óptima en términos de tiempo de ejecución y métricas de entrenamiento y de validación. Los valores obtenidos para las métricas de evaluación evidencian que la arquitectura UNET alcanza el mejor rendimiento, pues esta destacó en los valores de F1-Score e índice Kappa para ambos municipios, sin embargo, como en cualquier tarea automatizada, es necesario considerar los factores prácticos como requerimientos mínimos de la máquina y el tiempo de ejecución versus estos parámetros para la captura convencional de linderos. Finalmente, es evidente la importancia de la calidad del conjunto de datos para garantizar la precisión de los resultados, por lo cual, se sugiere la mejora tanto en la selección como en la depuración de los datos vectoriales y ráster de insumo.The training and validation process of machine learning models follows an iterative cycle composed of three main activities: input enlistment, model optimization, and results analysis. Enlistment includes data selection and preparation, while optimization focuses on the choice of architecture and the adjustment of model parameters, and finally, results analysis involves the calculation of metrics for model evaluation, where in the case of a non-optimal evaluation, an iterative optimization process must be performed to reach performance thresholds. In the study, the use of pre-trained models is proposed for the extraction of visible physical property boundaries in rural soil in Cundinamarca, for which 2 orthoimages corresponding to the municipalities of Tabio and Subachoque were chosen as inputs, which have a Ground Sample Distance less than 50 centimeters. In the case of Tabio, the roads, drains, walls and fences present in the official basic cartography of the municipality were used as elements of the boundary class, and for Subachoque, these elements were manually digitized. 145 tests were performed between the SegNet, Unet and ResNet models with tile datasets of 3 different sizes; 256x256, 512x512 and 2557x1887. Likewise, the window size, stride, batch size and number of epochs parameters were varied, in search of the optimal combination in terms of execution time and training and validation metrics. The values obtained for the evaluation metrics show that the UNET architecture achieves the best performance, as it stood out in the F1-Score and Kappa index values for both municipalities. However, as in any automated task, it is necessary to consider practical factors such as minimum machine requirements and execution time versus these parameters for the conventional capture of boundaries. Finally, the importance of the quality of the data set to guarantee the accuracy of the results is evident, therefore, improvement is suggested both in the selection and in the debugging of the input vector and raster data.pdfspaUniversidad Distrital Francisco José de CaldasRedes neuronales convolucionalesAprendizaje profundoLinderoCatastroIngeniería Catastral y Geodesia -- Tesis y disertaciones académicasConvolutional neural networksDeep learningBoundaryCadastreEvaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastralEvaluation of convolutional neural networks for the extraction of property boundaries as a tool for cadastral updatingbachelorThesisMonografíainfo:eu-repo/semantics/bachelorThesishttp://purl.org/coar/resource_type/c_7a1fAbierto (Texto Completo)http://purl.org/coar/access_right/c_abf2A. Kirillov, R. Girshick, K. He, and P. Dollár, “Panoptic feature Pyramid networks,” arXiv.org, Jan. 08, 2019. Available: https://arxiv.org/abs/1901.02446Altamirano L. (2021). Deep Learning aplicado a la segmentación semántica de Imágenes aéreas. Universidad de Valparaíso, Chile. http://repositoriobibliotecas.uv.cl/handle/uvscl/3958Barney G. Catastro multipropósito en el acuerdo de paz. Indepaz. 2022. https://indepaz.org.co/catastro-multiproposito-en-el-acuerdo-de-paz-por-gloria-c-barney/ [accedida 15 Enero 2024]Bennett RM, Koeva M, Asiama K. Review of Remote Sensing for Land Administration: Origins, Debates, and Selected Cases. Remote Sensing. 2021; 13(21):4198. https://doi.org/10.3390/rs13214198Bischke, B., Helber, P., Folz, J., Borth, D., & Dengel, A. (2017). Multi-task learning for segmentation of building footprints with auxiliary tasks. *arXiv preprint arXiv:1709.05932*.Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. *IEEE Transactions on Pattern Analysis and Machine Intelligence*, 40(4), 834-848.Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs. IEEE Transactions on Pattern Analysis and Machine Intelligence, 40(4), 834-848.Chirag Patil, “Pytorch_image_segmentation.ipynb at main · chiragpatil-ml/YouTubeNotebook,” GitHub. Available: https://github.com/chiragpatil-ml/YouTubeNotebook/blob/main/Computer%20Vision/Train%20and%20test%20segmentation%20model/pytorch_image_segmentation.ipynbChristopher Thomas Bs. Hons. Miap, “Deep learning based super resolution, without using a GAN,” Medium, Dec. 19, 2024. Available: https://towardsdatascience.com/deep-learning-based-super-resolution-without-using-a-gan-11c9bb5b6cd5Cívico Panduro, J.(2010). Estudio comparativo de algoritmos disponibles en ITK para la segmentación de imágenes médicas. Aplicación al caso particular de la aurícula izquierda. Proyecto Fin de Carrera Ingeniería Superior de Telecomunicación – Universidad de Sevilla. e-REdING. Biblioteca de la Escuela Superior de Ingenieros de Sevilla. (us.es)Crommelinck S., Koeva M., Ying M., Vosselman G. (2019). Aplication of Deep Learning for Delineaton of Visible Cadastral Boundaries from Remote Sensing Imagery. Remote Sensing. 11(21), 2505. https://doi.org/10.3390/rs11212505Departamento Nacional de Planeación. (2019, 26 de marzo). Estrategia para la Implementación de la política pública de catastro multipropósito (Documento CONPES 3958). Bogotá D.C., Colombia: DNP.Departamento Nacional De Planeación. (2022). Bases del Plan Nacional de Desarrollo 2022 - 2026 (1st ed., Vol. 1). Departamento Nacional De Planeación.Departamento Nacional de Planeación. (2022, 24 de enero). Declaración de Importancia Estratégica del Proyecto de Inversión: Actualización y Gestión Catastral Nacional (Documento CONPES 4071). Bogotá D.C., Colombia: DNP.Departamento Nacional de Planeación. (2023, septiembre 10). Con Inteligencia Artificial, el DNP apoya el proceso de actualización del Catastro Multipropósito. Noticias DNP. Con Inteligencia Artificial, el DNP apoya el proceso de actualización del Catastro MultipropósitoE. Shelhamer, J. Long and T. Darrell, "Fully Convolutional Networks for Semantic Segmentation," in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 39, no. 4, pp. 640-651, 1 April 2017. Available: https://ieeexplore.ieee.org/document/7478072Everingham, M., Van Gool, L., Williams, C. K., Winn, J., & Zisserman, A. (2015). The Pascal Visual Object Classes Challenge: A Retrospective. *International Journal of Computer Vision*, 111(1), 98-136.Fetai, B., Grigillo, D., & Lisec, A. (2022). Revising Cadastral Data on Land Boundaries Using Deep Learning in Image-Based Mapping. ISPRS International Journal of Geo-Information, 11(5). https://doi.org/10.3390/ijgi11050298Fetai, B., Račič, M., & Lisec, A. (2021). Deep learning for detection of visible land boundaries from uav imagery. Remote Sensing, 13(11). https://doi.org/10.3390/rs13112077Foody, G. M. (2002). Status of land cover classification accuracy assessment. *Remote Sensing of Environment*, 80(1), 185-201.G. Boesch, “Deep Residual Networks (RESNet, RESNET-50) – 2024 Guide,” viso.ai, Aug. 07, 2024. Available: https://viso-ai.translate.goog/deep-learning/resnet-residual-neural-network/?_x_tr_sl=en&_x_tr_tl=es&_x_tr_hl=es&_x_tr_pto=tcIGAC. (2023). Catalogo de objetos Geográficos para la Cartografía Básica de Colombia [Instituto Geográfico Agustín Codazzi]. 21 de abril de 2023Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. In Advances in Neural Information Processing Systems (pp. 1097-1105).LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444.Li, H., Zhang, L., & Ma, W. (2021). Deep learning-based semantic segmentation for high-resolution remote sensing images: A review. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 14, 4646-4663. https://doi.org/10.1109/JSTARS.2021.3083829Li, Y., Wang, Z., Yang, J., & Tian, Q. (2019).** Deep multigranular dynamic fusion network for remote sensing image scene classification. *IEEE Transactions on Neural Networks and Learning Systems*, 30(1), 162-174.Li, Z., Liu, F., Yang, W., Peng, S., & Zhou, J. (2022). A Survey of Convolutional Neural Networks: Analysis, Applications, and Prospects. IEEE Transactions on Neural Networks and Learning Systems, 33(12), 6999–7019. https://doi.org/10.1109/TNNLS.2021.3084827Long, J., Shelhamer, E., & Darrell, T. (2015). Fully convolutional networks for semantic segmentation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 3431-3440).M. Huh, P. Agrawal, and A. A. Efros, “What makes imagenet good for transfer learning?” 2016.Maggiori, E., Tarabalka, Y., Charpiat, G., & Alliez, P. (2017). Convolutional Neural Networks for Large-Scale Remote-Sensing Image Classification. *IEEE Transactions on Geoscience and Remote Sensing*.Mou, L., & Zhu, X. X. (2018). Im2height: Height estimation from single monocular imagery via fully residual convolutional-deconvolutional network. *arXiv preprint arXiv:1802.10249*.Nyandwi E, Koeva M, Kohli D, Bennett R. Comparing Human Versus Machine-Driven Cadastral Boundary Feature Extraction. Remote Sensing. 2019; 11(14):1662. https://doi.org/10.3390/rs11141662O. Ronneberger, P. Fischer, and T. Brox, “U-NET: Convolutional Networks for Biomedical Image Segmentation,” arXiv.org, May 18, 2015. Available: https://arxiv.org/abs/1505.04597Pavel Iakubovskii, “Segmentation Models  documentation.” Available: https://smp.readthedocs.io/en/latest/index.htmlPoder Legislativo, Colombia: Acuerdo Final para la Terminación del Conflicto y la Construcción de una Paz Estable y Duradera. Junio de 2016, 26 junio 2016, https://www.refworld.org/es/leg/multilateraltreaty/natlegbod/2016/es/127319 [accedida 15 January 2024]Ponce, P. (2010). Inteligencia Artificial con Aplicaciones a la Ingeniería. Primera Edición. México DF: Alfaomega Grupo Editor, SA. ISBN: 978-607-7854-83-8.Ramos, L. (2005). La modernización del Catastro Colombiano. Universidad de Los Andes. https://core.ac.uk/download/pdf/268121685.pdfResolución 1040 de 2023 [Instituto Geográfico Agustín Codazzi]. Por medio de la cual se expide la Resolución Única de la Gestión Catastral Multipropósito. 08 de agosto de 2023Romcon, I. (2022). Clasificación de imágenes espaciales mediante visión artificial. Universidad Politécnica de Madrid.Ronneberger, O., Fischer, P., & Brox, T. (2015). U-Net: Convolutional Networks for Biomedical Image Segmentation. *arXiv preprint arXiv:1505.04597*.Ronneberger, O., Fischer, P., & Brox, T. (2015). U-net: Convolutional networks for biomedical image segmentation. In International Conference on Medical Image Computing and Computer-Assisted Intervention (pp. 234-241).Sherrah, J. (2016). Fully Convolutional Networks for Dense Semantic Labelling of High-Resolution Aerial Imagery. *arXiv preprint arXiv:1606.02585*.Simonyan, K., & Zisserman, A. (2015).** Very deep convolutional networks for large-scale image recognition. In *International Conference on Learning Representations (ICLR)*.Soto-Orozco, O. A., Corral-Sáenz, A. D., Rojo-González, C. E., & Ramírez-Quintana, J. A. (2019). Análisis del desempeño de redes neuronales profundas para segmentación semántica en hardware limitado. Recuperado de https://www.redalyc.org/journal/5122/512261374010/html/Xia, X., Persello, C., & Koeva, M. (2019). Deep fully convolutional networks for cadastral boundary detection from UAV images. Remote Sensing, 11(14). https://doi.org/10.3390/rs11141725Zapeta Hernández, A., Galindo Rosales, G. A., Juan Santiago, H. J., & Martínez Lee, M. (2022). Métricas de rendimiento para evaluar el aprendizaje automático en la clasificación de imágenes petroleras utilizando redes neuronales convolucionales. Ciencia Latina Revista Científica Multidisciplinar, 6(5), 4624-4637. https://doi.org/10.37811/cl_rcm.v6i5.3420Zhang, Y., Tang, Y., & Wang, L. (2018). CNN-Based High-Resolution Remote Sensing Image Segmentation Using High-Order Label Contextual Information. *IEEE Geoscience and Remote Sensing Letters*.Zhu, X. X., Tuia, D., Mou, L., Xia, G. S., Zhang, L., Xu, F., & Fraundorfer, F. (2017). Deep learning in remote sensing: A comprehensive review and list of resources. IEEE Geoscience and Remote Sensing Magazine, 5(4), 8-36.LICENSElicense.txtlicense.txttext/plain; charset=utf-87167https://repository.udistrital.edu.co/bitstreams/90921d76-6a01-42c5-b391-1a655b9a4b3b/download997daf6c648c962d566d7b082dac908dMD53ORIGINALVillamilGarroKellyJhoana2025.pdfVillamilGarroKellyJhoana2025.pdfTrabajo de Gradoapplication/pdf5153335https://repository.udistrital.edu.co/bitstreams/0cdc12e4-d013-460d-be0d-db45a09da982/download8376a9a9c4b0fb2f0f75375aff051f42MD51Licencia de uso y publicación.pdfLicencia de uso y publicación.pdfapplication/pdf232079https://repository.udistrital.edu.co/bitstreams/b44dcb54-c680-4c89-88c8-9804ef6f059e/downloadc18ea0252f7bfd3bbecb8111425c2a8aMD52THUMBNAILVillamilGarroKellyJhoana2025.pdf.jpgVillamilGarroKellyJhoana2025.pdf.jpgIM Thumbnailimage/jpeg4303https://repository.udistrital.edu.co/bitstreams/fbba44f5-ab83-4e19-8124-47e8ce6eb5c3/download9540dba105f1aa4a4ac3adbab74ddb72MD54Licencia de uso y publicación.pdf.jpgLicencia de uso y publicación.pdf.jpgIM Thumbnailimage/jpeg9432https://repository.udistrital.edu.co/bitstreams/1ef1fc41-4639-4f0a-9c22-8df8562f5a37/download793cb02238074d42e2498e67effe2a8aMD5511349/94240oai:repository.udistrital.edu.co:11349/942402025-03-28 01:03:22.407open.accesshttps://repository.udistrital.edu.coRepositorio Universidad Distritalrepositorio@udistrital.edu.coTElDRU5DSUEgWSBBVVRPUklaQUNJw5NOIEVTUEVDSUFMIFBBUkEgUFVCTElDQVIgWSBQRVJNSVRJUiBMQSBDT05TVUxUQSBZIFVTTyBERSBDT05URU5JRE9TIEVOIEVMIFJFUE9TSVRPUklPIElOU1RJVFVDSU9OQUwgREUgTEEgVU5JVkVSU0lEQUQgRElTVFJJVEFMCgpUw6lybWlub3MgeSBjb25kaWNpb25lcyBkZSB1c28gcGFyYSBwdWJsaWNhY2nDs24gZGUgb2JyYXMgZW4gZWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBkZSBsYSBVbml2ZXJzaWRhZCBEaXN0cml0YWwgRnJhbmNpc2NvIEpvc8OpIGRlIENhbGRhcyAoUklVRCkKCkNvbW8gdGl0dWxhcihlcykgZGVsKG9zKSBkZXJlY2hvKHMpIGRlIGF1dG9yLCBjb25maWVybyAoZXJpbW9zKSBhIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzIChlbiBhZGVsYW50ZSwgTEEgVU5JVkVSU0lEQUQpIHVuYSBsaWNlbmNpYSBwYXJhIHVzbyBubyBleGNsdXNpdmEsIGxpbWl0YWRhIHkgZ3JhdHVpdGEgc29icmUgbGEgb2JyYSBxdWUgaW50ZWdyYXLDoSBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIChlbiBhZGVsYW50ZSwgUklVRCksIGRlIGFjdWVyZG8gYSBsYXMgc2lndWllbnRlcyByZWdsYXMsIGxhcyBjdWFsZXMgZGVjbGFybyAoYW1vcykgY29ub2NlciB5IGFjZXB0YXI6CgphKQlFc3RhcsOhIHZpZ2VudGUgYSBwYXJ0aXIgZGUgbGEgZmVjaGEgZW4gcXVlIHNlIGluY2x1eWEgZW4gZWwgUklVRCB5IGhhc3RhIHBvciB1biBwbGF6byBkZSBkaWV6ICgxMCkgQcOxb3MsIHByb3Jyb2dhYmxlIGluZGVmaW5pZGFtZW50ZSBwb3IgZWwgdGllbXBvIHF1ZSBkdXJlIGVsIGRlcmVjaG8gUGF0cmltb25pYWwgZGVsIGF1dG9yOyBsYSBjdWFsIHBvZHLDoSBkYXJzZSBwb3IgdGVybWluYWRhIHByZXZpYSBzb2xpY2l0dWQgYSBMQSBVTklWRVJTSURBRCBwb3IgZXNjcml0byBjb24gdW5hIGFudGVsYWNpw7NuIGRlIGRvcyAoMikgbWVzZXMgYW50ZXMgZGVsIHZlbmNpbWllbnRvIGRlbCBwbGF6byBpbmljaWFsIG8gZWwgZGUgc3UocykgcHLDs3Jyb2dhKHMpLgoKYikJTEEgVU5JVkVSU0lEQUQgcG9kcsOhIHB1YmxpY2FyIGxhIG9icmEgZW4gbGFzIGRpc3RpbnRhcyB2ZXJzaW9uZXMgcmVxdWVyaWRhcyBwb3IgZWwgUklVRCAoZGlnaXRhbCwgaW1wcmVzbywgZWxlY3Ryw7NuaWNvIHUgb3RybyBtZWRpbyBjb25vY2lkbyBvIHBvciBjb25vY2VyKSBMQSBVTklWRVJTSURBRCBubyBzZXLDoSByZXNwb25zYWJsZSBlbiBlbCBldmVudG8gcXVlIGVsIGRvY3VtZW50byBhcGFyZXpjYSByZWZlcmVuY2lhZG8gZW4gbW90b3JlcyBkZSBiw7pzcXVlZGEgbyByZXBvc2l0b3Jpb3MgZGlmZXJlbnRlcyBhbCBSSVVELCB1bmEgdmV6IGVsKG9zKSBhdXRvcihlcykgc29saWNpdGVuIHN1IGVsaW1pbmFjacOzbiBkZWwgUklVRCwgZGFkbyBxdWUgbGEgbWlzbWEgc2Vyw6EgcHVibGljYWRhIGVuIEludGVybmV0LgoKYykJTGEgYXV0b3JpemFjacOzbiBzZSBoYWNlIGEgdMOtdHVsbyBncmF0dWl0bywgcG9yIGxvIHRhbnRvLCBsb3MgYXV0b3JlcyByZW51bmNpYW4gYSByZWNpYmlyIGJlbmVmaWNpbyBhbGd1bm8gcG9yIGxhIHB1YmxpY2FjacOzbiwgZGlzdHJpYnVjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGN1YWxxdWllciBvdHJvIHVzbyBxdWUgc2UgaGFnYSBlbiBsb3MgdMOpcm1pbm9zIGRlIGxhIHByZXNlbnRlIGxpY2VuY2lhIHkgZGUgbGEgbGljZW5jaWEgZGUgdXNvIGNvbiBxdWUgc2UgcHVibGljYSAoQ3JlYXRpdmUgQ29tbW9ucykuCgpkKQlMb3MgY29udGVuaWRvcyBwdWJsaWNhZG9zIGVuIGVsIFJJVUQgc29uIG9icmEocykgb3JpZ2luYWwoZXMpIHNvYnJlIGxhIGN1YWwoZXMpIGVsKG9zKSBhdXRvcihlcykgY29tbyB0aXR1bGFyZXMgZGUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCBhc3VtZW4gdG90YWwgcmVzcG9uc2FiaWxpZGFkIHBvciBlbCBjb250ZW5pZG8gZGUgc3Ugb2JyYSBhbnRlIExBIFVOSVZFUlNJREFEIHkgYW50ZSB0ZXJjZXJvcy4gRW4gdG9kbyBjYXNvIExBIFVOSVZFUlNJREFEIHNlIGNvbXByb21ldGUgYSBpbmRpY2FyIHNpZW1wcmUgbGEgYXV0b3LDrWEgaW5jbHV5ZW5kbyBlbCBub21icmUgZGVsIGF1dG9yIHkgbGEgZmVjaGEgZGUgcHVibGljYWNpw7NuLgoKZSkJTEEgVU5JVkVSU0lEQUQgcG9kcsOhIGluY2x1aXIgbGEgb2JyYSBlbiBsb3Mgw61uZGljZXMgeSBidXNjYWRvcmVzIHF1ZSBlc3RpbWVuIG5lY2VzYXJpb3MgcGFyYSBtYXhpbWl6YXIgbGEgdmlzaWJpbGlkYWQgZWwgdXNvIHkgZWwgaW1wYWN0byBkZSBsYSBwcm9kdWNjacOzbiBjaWVudMOtZmljYSwgYXJ0w61zdGljYSB5IGFjYWTDqW1pY2EgZW4gbGEgY29tdW5pZGFkIGxvY2FsLCBuYWNpb25hbCBvIGludGVybmFjaW9uYWwuCgoKZikJTEEgVU5JVkVSU0lEQUQgcG9kcsOhIGNvbnZlcnRpciBsYSBvYnJhIGEgY3VhbHF1aWVyIG1lZGlvIG8gZm9ybWF0byBjb24gZWwgZmluIGRlIHN1IHByZXNlcnZhY2nDs24gZW4gZWwgdGllbXBvIHF1ZSBsYSBwcmVzZW50ZSBsaWNlbmNpYSB5IGxhIGRlIHN1cyBwcsOzcnJvZ2FzLgoKCkNvbiBiYXNlIGVuIGxvIGFudGVyaW9yIGF1dG9yaXpvKGFtb3MpLCBhIGZhdm9yIGRlbCBSSVVEIHkgZGUgc3VzIHVzdWFyaW9zLCBsYSBwdWJsaWNhY2nDs24geSBjb25zdWx0YSBkZSBsYSBzaWd1aWVudGUgb2JyYToKClRpdHVsbwoKQXV0b3IgICAgICAgQXBlbGxpZG9zICAgICAgICAgTm9tYnJlcwoKMQoKMgoKMwoKCmcpCUF1dG9yaXpvKGFtb3MpLCBxdWUgbGEgb2JyYSBzZWEgcHVlc3RhIGEgZGlzcG9zaWNpw7NuIGRlbCBww7pibGljbyBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsb3MgbGl0ZXJhbGVzIGFudGVyaW9yZXMsIGJham8gbG9zIGzDrW1pdGVzIGRlZmluaWRvcyBwb3IgTEEgVU5JVkVSU0lEQUQsIGVuIGxhcyDigJxDb25kaWNpb25lcyBkZSB1c28gZGUgZXN0cmljdG8gY3VtcGxpbWllbnRv4oCdIGRlIGxvcyByZWN1cnNvcyBwdWJsaWNhZG9zIGVuIGVsIFJJVUQsIGN1eW8gdGV4dG8gY29tcGxldG8gc2UgcHVlZGUgY29uc3VsdGFyIGVuIGh0dHA6Ly9yZXBvc2l0b3J5LnVkaXN0cml0YWwuZWR1LmNvLwoKaCkJQ29ub3pjbyhjZW1vcykgeSBhY2VwdG8oYW1vcykgcXVlIG90b3JnbyhhbW9zKSB1bmEgbGljZW5jaWEgZXNwZWNpYWwgcGFyYSBwdWJsaWNhY2nDs24gZGUgb2JyYXMgZW4gZWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBkZSBsYSBVbml2ZXJzaWRhZCBEaXN0cml0YWwgRnJhbmNpc2NvIEpvc8OpIGRlIENhbGRhcywgbGljZW5jaWEgICBkZSBsYSBjdWFsIGhlIChoZW1vcykgb2J0ZW5pZG8gdW5hIGNvcGlhLgoKaSkJTWFuaWZpZXN0byhhbW9zKSBtaSAobnVlc3RybykgdG90YWwgYWN1ZXJkbyBjb24gbGFzIGNvbmRpY2lvbmVzIGRlIHVzbyB5IHB1YmxpY2FjacOzbiBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIGRlIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzIHF1ZSBzZSBkZXNjcmliZW4geSBleHBsaWNhbiBlbiBlbCBwcmVzZW50ZSBkb2N1bWVudG8uCgpqKQlDb25vemNvKGNlbW9zKSBsYSBub3JtYXRpdmlkYWQgaW50ZXJuYSBkZSAgTEEgVU5JVkVSU0lEQUQ7IGVuIGNvbmNyZXRvLCBlbCBBY3VlcmRvIDAwNCBkZSAyMDEyIGRlbCBDU1UsIEFjdWVyZG8gMDIzIGRlIDIwMTIgZGVsIENTVSBzb2JyZSBQb2zDrXRpY2EgRWRpdG9yaWFsLCBBY3VlcmRvIDAyNiAgZGVsIDMxIGRlIGp1bGlvIGRlIDIwMTIgc29icmUgZWwgcHJvY2VkaW1pZW50byBwYXJhIGxhIHB1YmxpY2FjacOzbiBkZSB0ZXNpcyBkZSBwb3N0Z3JhZG8gZGUgbG9zIGVzdHVkaWFudGVzIGRlIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzLCAgQWN1ZXJkbyAwMzAgZGVsIDAzIGRlIGRpY2llbWJyZSBkZSAyMDEzIHBvciBtZWRpbyBkZWwgY3VhbCBzZSBjcmVhIGVsIFJlcG9zaXRvcmlvIEluc3RpdHVjaW9uYWwgZGUgbGEgVW5pdmVyc2lkYWQgRGlzdHJpdGFsIEZyYW5jaXNjbyBKb3PDqSBkZSBDYWxkYXMsIEFjdWVyZG8gMDM4IGRlIDIwMTUgMjAxNSDigJxwb3IgZWwgY3VhbCBzZSBtb2RpZmljYSBlbCBBY3VlcmRvIDAzMSBkZSAyMDE0IGRlIDIwMTQgcXVlIHJlZ2xhbWVudGEgZWwgdHJhYmFqbyBkZSBncmFkbyBwYXJhIGxvcyBlc3R1ZGlhbnRlcyBkZSBwcmVncmFkbyBkZSBsYSBVbml2ZXJzaWRhZCBEaXN0cml0YWwgRnJhbmNpc2NvIEpvc8OpIGRlIENhbGRhcyB5IHNlIGRpY3RhbiBvdHJhcyBkaXJlY3RyaWNlc+KAnSB5IGxhcyBkZW3DoXMgbm9ybWFzIGNvbmNvcmRhbnRlIHkgY29tcGxlbWVudGFyaWFzIHF1ZSByaWdlbiBhbCByZXNwZWN0bywgZXNwZWNpYWxtZW50ZSBsYSBsZXkgMjMgZGUgMTk4MiwgbGEgbGV5IDQ0IGRlIDE5OTMgeSBsYSBkZWNpc2nDs24gQW5kaW5hIDM1MSBkZSAxOTkzLiBFc3RvcyBkb2N1bWVudG9zIHBvZHLDoW4gc2VyIGNvbnN1bHRhZG9zIHkgZGVzY2FyZ2Fkb3MgZW4gZWwgcG9ydGFsIHdlYiBkZSBsYSBiaWJsaW90ZWNhIGh0dHA6Ly9zaXN0ZW1hZGViaWJsaW90ZWNhcy51ZGlzdHJpdGFsLmVkdS5jby8KCmspCUFjZXB0byhhbW9zKSBxdWUgTEEgVU5JVkVSU0lEQUQgbm8gc2UgcmVzcG9uc2FiaWxpemEgcG9yIGxhcyBpbmZyYWNjaW9uZXMgYSBsYSBwcm9waWVkYWQgaW50ZWxlY3R1YWwgbyBEZXJlY2hvcyBkZSBBdXRvciBjYXVzYWRhcyBwb3IgbG9zIHRpdHVsYXJlcyBkZSBsYSBwcmVzZW50ZSBMaWNlbmNpYSB5IGRlY2xhcmFtb3MgcXVlIG1hbnRlbmRyw6kgKGVtb3MpIGluZGVtbmUgYSBMQSBVTklWRVJTSURBRCBwb3IgbGFzIHJlY2xhbWFjaW9uZXMgbGVnYWxlcyBkZSBjdWFscXVpZXIgdGlwbyBxdWUgbGxlZ2FyZW4gYSBwcmVzZW50YXJzZSBwb3IgdmlvbGFjacOzbiBkZSBkZXJlY2hvcyBhIGxhIHByb3BpZWRhZCBpbnRlbGVjdHVhbCBvIGRlIEF1dG9yIHJlbGFjaW9uYWRvcyBjb24gbG9zIGRvY3VtZW50b3MgcmVnaXN0cmFkb3MgZW4gZWwgUklVRC4KCmwpCUVsIChsb3MpIGF1dG9yKGVzKSBtYW5pZmllc3RhKG1vcykgcXVlIGxhIG9icmEgb2JqZXRvIGRlIGxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gZXMgb3JpZ2luYWwsIGRlIGV4Y2x1c2l2YSBhdXRvcsOtYSwgeSBzZSByZWFsaXrDsyBzaW4gdmlvbGFyIG8gdXN1cnBhciBkZXJlY2hvcyBkZSBhdXRvciBkZSB0ZXJjZXJvczsgZGUgdGFsIHN1ZXJ0ZSwgZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBjdWFscXVpZXIgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybyBlbiBjdWFudG8gYSBsb3MgZGVyZWNob3MgZGUgYXV0b3Igc29icmUgbGEgb2JyYSwgZWwgKGxvcykgZXN0dWRpYW50ZShzKSDigJMgYXV0b3IoZXMpIGFzdW1pcsOhKG4pIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkIHkgc2FsZHLDoShuKSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcy4gUGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgTEEgVU5JVkVSU0lEQUQgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4KCgptKQlFbCAobG9zKSBhdXRvcihlcykgbWFuaWZpZXN0YShtb3MpIHF1ZSBjb25vemNvKGNlbW9zKSBsYSBhdXRvbm9tw61hIHkgbG9zIGRlcmVjaG9zLCBxdWUgcG9zZWUobW9zKSBzb2JyZSBsYSBvYnJhIHksIGNvbW8gdGFsLCBlcyAoc29tb3MpIHJlc3BvbnNhYmxlKHMpIGRlbCBhbGNhbmNlIGp1csOtZGljbyB5IGxlZ2FsLCBkZSBlc2NvZ2VyIGxhIG9wY2nDs24gZGUgbGEgcHVibGljYWNpw7NuIG8gZGUgcmVzdHJpY2Npw7NuIGRlIGxhIHB1YmxpY2FjacOzbiBkZWwgZG9jdW1lbnRvIHJlZ2lzdHJhZG8gZW4gZWwgUklVRC4KCgoKCgoKU0kgRUwgRE9DVU1FTlRPIFNFIEJBU0EgRU4gVU4gVFJBQkFKTyBRVUUgSEEgU0lETyBQQVRST0NJTkFETyBPIEFQT1lBRE8gUE9SIFVOQSBBR0VOQ0lBIE8gVU5BIE9SR0FOSVpBQ0nDk04sIENPTiBFWENFUENJw5NOIERFIExBIFVOSVZFUlNJREFEIERJU1RSSVRBTCBGUkFOQ0lTQ08gSk9TRSBERSBDQUxEQVMsIExPUyBBVVRPUkVTIEdBUkFOVElaQU4gUVVFIFNFIEhBIENVTVBMSURPIENPTiBMT1MKREVSRUNIT1MgWSBPQkxJR0FDSU9ORVMgUkVRVUVSSURPUyBQT1IgRUwgUkVTUEVDVElWTyBDT05UUkFUTyBPIEFDVUVSRE8uCgoKCgoKCgoKCgoKCgoKCgoKCgoKCkVuIGNvbnN0YW5jaWEgZGUgbG8gYW50ZXJpb3IsIGZpcm1vKGFtb3MpIGVsIHByZXNlbnRlIGRvY3VtZW50bywgZW4gbGEgY2l1ZGFkIGRlIEJvZ290w6EsIEQuQy4sIGEgbG9zCgoKRklSTUEgREUgTE9TIFRJVFVMQVJFUyBERSBERVJFQ0hPUyBERSBBVVRPUgoKX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fICAgQy5DLiBOby4gX19fX19fX19fX19fX19fX19fCgpfX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX18gICBDLkMuIE5vLiBfX19fX19fX19fX19fX19fX18KCl9fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fXyAgIEMuQy4gTm8uIF9fX19fX19fX19fX19fX19fXwoKCgpDb3JyZW8gRWxlY3Ryw7NuaWNvIEluc3RpdHVjaW9uYWwgZGVsIChkZSBsb3MpIEF1dG9yKGVzKToKCkF1dG9yCSAgICAgIENvcnJlbyBFbGVjdHLDs25pY28KCjEKCjIKCjMKCk5vbWJyZSBkZSBEaXJlY3RvcihlcykgZGUgR3JhZG86CgoxCgoyCgozCgpOb21icmUgRmFjdWx0YWQgeSBQcm95ZWN0byBDdXJyaWN1bGFyOgoKRmFjdWx0YWQJUHJveWVjdG8gQ3VycmljdWxhcgoKCgoKCgoKCk5vdGE6IEVuIGNhc28gcXVlIG5vIGVzdMOpIGRlIGFjdWVyZG8gY29uIGxhcyBjb25kaWNpb25lcyBkZSBsYSBwcmVzZW50ZSBsaWNlbmNpYSwgeSBtYW5pZmllc3RlIGFsZ3VuYSByZXN0cmljY2nDs24gc29icmUgbGEgb2JyYSwganVzdGlmaXF1ZSBsb3MgbW90aXZvcyBwb3IgbG9zIGN1YWxlcyBlbCBkb2N1bWVudG8geSBzdXMgYW5leG9zIG5vIHB1ZWRlbiBzZXIgcHVibGljYWRvcyBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIGRlIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzIFJJVUQuCgoKU2kgcmVxdWllcmUgbcOhcyBlc3BhY2lvLCBwdWVkZSBhbmV4YXIgdW5hIGNvcGlhIHNpbWlsYXIgYSBlc3RhIGhvamEK