Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral
El proceso de entrenamiento y validación de modelos de aprendizaje automático sigue un ciclo iterativo compuesto por tres actividades principales: alistamiento de los insumos, optimización del modelo y análisis de resultados. El alistamiento incluye la selección y preparación de datos, mientras que...
- Autores:
-
Villamil Garro, Kelly Jhoana
Quijano Malagón, Karen Lizeth
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2025
- Institución:
- Universidad Distrital Francisco José de Caldas
- Repositorio:
- RIUD: repositorio U. Distrital
- Idioma:
- spa
- OAI Identifier:
- oai:repository.udistrital.edu.co:11349/94240
- Acceso en línea:
- http://hdl.handle.net/11349/94240
- Palabra clave:
- Redes neuronales convolucionales
Aprendizaje profundo
Lindero
Catastro
Ingeniería Catastral y Geodesia -- Tesis y disertaciones académicas
Convolutional neural networks
Deep learning
Boundary
Cadastre
- Rights
- License
- Abierto (Texto Completo)
id |
UDISTRITA2_ad47a19484865aab1f056b428faddbb6 |
---|---|
oai_identifier_str |
oai:repository.udistrital.edu.co:11349/94240 |
network_acronym_str |
UDISTRITA2 |
network_name_str |
RIUD: repositorio U. Distrital |
repository_id_str |
|
dc.title.none.fl_str_mv |
Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral |
dc.title.titleenglish.none.fl_str_mv |
Evaluation of convolutional neural networks for the extraction of property boundaries as a tool for cadastral updating |
title |
Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral |
spellingShingle |
Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral Redes neuronales convolucionales Aprendizaje profundo Lindero Catastro Ingeniería Catastral y Geodesia -- Tesis y disertaciones académicas Convolutional neural networks Deep learning Boundary Cadastre |
title_short |
Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral |
title_full |
Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral |
title_fullStr |
Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral |
title_full_unstemmed |
Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral |
title_sort |
Evaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastral |
dc.creator.fl_str_mv |
Villamil Garro, Kelly Jhoana Quijano Malagón, Karen Lizeth |
dc.contributor.advisor.none.fl_str_mv |
Coronado Sánchez, Paulo César |
dc.contributor.author.none.fl_str_mv |
Villamil Garro, Kelly Jhoana Quijano Malagón, Karen Lizeth |
dc.contributor.orcid.none.fl_str_mv |
Villamil Garro, Kelly Jhoana [0009-0002-4481-6207] Quijano Malagón, Karen Lizeth [0009-0001-0998-5788] Coronado Sánchez, Paulo César [0000-0003-2980-2376] |
dc.subject.none.fl_str_mv |
Redes neuronales convolucionales Aprendizaje profundo Lindero Catastro |
topic |
Redes neuronales convolucionales Aprendizaje profundo Lindero Catastro Ingeniería Catastral y Geodesia -- Tesis y disertaciones académicas Convolutional neural networks Deep learning Boundary Cadastre |
dc.subject.lemb.none.fl_str_mv |
Ingeniería Catastral y Geodesia -- Tesis y disertaciones académicas |
dc.subject.keyword.none.fl_str_mv |
Convolutional neural networks Deep learning Boundary Cadastre |
description |
El proceso de entrenamiento y validación de modelos de aprendizaje automático sigue un ciclo iterativo compuesto por tres actividades principales: alistamiento de los insumos, optimización del modelo y análisis de resultados. El alistamiento incluye la selección y preparación de datos, mientras que la optimización se enfoca en la elección de la arquitectura y el ajuste de los parámetros del modelo y finalmente el análisis de resultados involucra el cálculo de métricas para la evaluación del modelo, donde en el caso de una evaluación no óptima, se debe realizar un proceso iterativo de optimización para alcanzar los umbrales de desempeño. En el estudio, se plantea el uso de modelos pre entrenados para la extracción de linderos prediales físicos visibles en suelo rural de Cundinamarca, para lo cual se escogieron como insumos 2 ortoimágenes correspondientes a los municipios de Tabio y Subachoque que tienen un Ground Sample Distance inferior a 50 centímetros, en el caso de Tabio se utilizaron como elementos de la clase linderos las vías, drenajes, muros y cercas presentes en la cartografía básica oficial del municipio y para Subachoque se realizó la digitalización manual de estos elementos. Se realizaron 145 pruebas entre los modelos SegNet, Unet y ResNet con datasets de teselas de 3 tamaños distintos; 256x256, 512x512 y 2557x1887, así mismo, se variaron los parámetros de window size, stride, batch size y número de épocas, en búsqueda de la combinación óptima en términos de tiempo de ejecución y métricas de entrenamiento y de validación. Los valores obtenidos para las métricas de evaluación evidencian que la arquitectura UNET alcanza el mejor rendimiento, pues esta destacó en los valores de F1-Score e índice Kappa para ambos municipios, sin embargo, como en cualquier tarea automatizada, es necesario considerar los factores prácticos como requerimientos mínimos de la máquina y el tiempo de ejecución versus estos parámetros para la captura convencional de linderos. Finalmente, es evidente la importancia de la calidad del conjunto de datos para garantizar la precisión de los resultados, por lo cual, se sugiere la mejora tanto en la selección como en la depuración de los datos vectoriales y ráster de insumo. |
publishDate |
2025 |
dc.date.accessioned.none.fl_str_mv |
2025-03-27T17:14:54Z |
dc.date.available.none.fl_str_mv |
2025-03-27T17:14:54Z |
dc.date.created.none.fl_str_mv |
2025-02-13 |
dc.type.none.fl_str_mv |
bachelorThesis |
dc.type.degree.none.fl_str_mv |
Monografía |
dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
format |
http://purl.org/coar/resource_type/c_7a1f |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/11349/94240 |
url |
http://hdl.handle.net/11349/94240 |
dc.language.iso.none.fl_str_mv |
spa |
language |
spa |
dc.relation.references.none.fl_str_mv |
A. Kirillov, R. Girshick, K. He, and P. Dollár, “Panoptic feature Pyramid networks,” arXiv.org, Jan. 08, 2019. Available: https://arxiv.org/abs/1901.02446 Altamirano L. (2021). Deep Learning aplicado a la segmentación semántica de Imágenes aéreas. Universidad de Valparaíso, Chile. http://repositoriobibliotecas.uv.cl/handle/uvscl/3958 Barney G. Catastro multipropósito en el acuerdo de paz. Indepaz. 2022. https://indepaz.org.co/catastro-multiproposito-en-el-acuerdo-de-paz-por-gloria-c-barney/ [accedida 15 Enero 2024] Bennett RM, Koeva M, Asiama K. Review of Remote Sensing for Land Administration: Origins, Debates, and Selected Cases. Remote Sensing. 2021; 13(21):4198. https://doi.org/10.3390/rs13214198 Bischke, B., Helber, P., Folz, J., Borth, D., & Dengel, A. (2017). Multi-task learning for segmentation of building footprints with auxiliary tasks. *arXiv preprint arXiv:1709.05932*. Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. *IEEE Transactions on Pattern Analysis and Machine Intelligence*, 40(4), 834-848. Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs. IEEE Transactions on Pattern Analysis and Machine Intelligence, 40(4), 834-848. Chirag Patil, “Pytorch_image_segmentation.ipynb at main · chiragpatil-ml/YouTubeNotebook,” GitHub. Available: https://github.com/chiragpatil-ml/YouTubeNotebook/blob/main/Computer%20Vision/Train%20and%20test%20segmentation%20model/pytorch_image_segmentation.ipynb Christopher Thomas Bs. Hons. Miap, “Deep learning based super resolution, without using a GAN,” Medium, Dec. 19, 2024. Available: https://towardsdatascience.com/deep-learning-based-super-resolution-without-using-a-gan-11c9bb5b6cd5 Cívico Panduro, J.(2010). Estudio comparativo de algoritmos disponibles en ITK para la segmentación de imágenes médicas. Aplicación al caso particular de la aurícula izquierda. Proyecto Fin de Carrera Ingeniería Superior de Telecomunicación – Universidad de Sevilla. e-REdING. Biblioteca de la Escuela Superior de Ingenieros de Sevilla. (us.es) Crommelinck S., Koeva M., Ying M., Vosselman G. (2019). Aplication of Deep Learning for Delineaton of Visible Cadastral Boundaries from Remote Sensing Imagery. Remote Sensing. 11(21), 2505. https://doi.org/10.3390/rs11212505 Departamento Nacional de Planeación. (2019, 26 de marzo). Estrategia para la Implementación de la política pública de catastro multipropósito (Documento CONPES 3958). Bogotá D.C., Colombia: DNP. Departamento Nacional De Planeación. (2022). Bases del Plan Nacional de Desarrollo 2022 - 2026 (1st ed., Vol. 1). Departamento Nacional De Planeación. Departamento Nacional de Planeación. (2022, 24 de enero). Declaración de Importancia Estratégica del Proyecto de Inversión: Actualización y Gestión Catastral Nacional (Documento CONPES 4071). Bogotá D.C., Colombia: DNP. Departamento Nacional de Planeación. (2023, septiembre 10). Con Inteligencia Artificial, el DNP apoya el proceso de actualización del Catastro Multipropósito. Noticias DNP. Con Inteligencia Artificial, el DNP apoya el proceso de actualización del Catastro Multipropósito E. Shelhamer, J. Long and T. Darrell, "Fully Convolutional Networks for Semantic Segmentation," in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 39, no. 4, pp. 640-651, 1 April 2017. Available: https://ieeexplore.ieee.org/document/7478072 Everingham, M., Van Gool, L., Williams, C. K., Winn, J., & Zisserman, A. (2015). The Pascal Visual Object Classes Challenge: A Retrospective. *International Journal of Computer Vision*, 111(1), 98-136. Fetai, B., Grigillo, D., & Lisec, A. (2022). Revising Cadastral Data on Land Boundaries Using Deep Learning in Image-Based Mapping. ISPRS International Journal of Geo-Information, 11(5). https://doi.org/10.3390/ijgi11050298 Fetai, B., Račič, M., & Lisec, A. (2021). Deep learning for detection of visible land boundaries from uav imagery. Remote Sensing, 13(11). https://doi.org/10.3390/rs13112077 Foody, G. M. (2002). Status of land cover classification accuracy assessment. *Remote Sensing of Environment*, 80(1), 185-201. G. Boesch, “Deep Residual Networks (RESNet, RESNET-50) – 2024 Guide,” viso.ai, Aug. 07, 2024. Available: https://viso-ai.translate.goog/deep-learning/resnet-residual-neural-network/?_x_tr_sl=en&_x_tr_tl=es&_x_tr_hl=es&_x_tr_pto=tc IGAC. (2023). Catalogo de objetos Geográficos para la Cartografía Básica de Colombia [Instituto Geográfico Agustín Codazzi]. 21 de abril de 2023 Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. In Advances in Neural Information Processing Systems (pp. 1097-1105). LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444. Li, H., Zhang, L., & Ma, W. (2021). Deep learning-based semantic segmentation for high-resolution remote sensing images: A review. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 14, 4646-4663. https://doi.org/10.1109/JSTARS.2021.3083829 Li, Y., Wang, Z., Yang, J., & Tian, Q. (2019).** Deep multigranular dynamic fusion network for remote sensing image scene classification. *IEEE Transactions on Neural Networks and Learning Systems*, 30(1), 162-174. Li, Z., Liu, F., Yang, W., Peng, S., & Zhou, J. (2022). A Survey of Convolutional Neural Networks: Analysis, Applications, and Prospects. IEEE Transactions on Neural Networks and Learning Systems, 33(12), 6999–7019. https://doi.org/10.1109/TNNLS.2021.3084827 Long, J., Shelhamer, E., & Darrell, T. (2015). Fully convolutional networks for semantic segmentation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 3431-3440). M. Huh, P. Agrawal, and A. A. Efros, “What makes imagenet good for transfer learning?” 2016. Maggiori, E., Tarabalka, Y., Charpiat, G., & Alliez, P. (2017). Convolutional Neural Networks for Large-Scale Remote-Sensing Image Classification. *IEEE Transactions on Geoscience and Remote Sensing*. Mou, L., & Zhu, X. X. (2018). Im2height: Height estimation from single monocular imagery via fully residual convolutional-deconvolutional network. *arXiv preprint arXiv:1802.10249*. Nyandwi E, Koeva M, Kohli D, Bennett R. Comparing Human Versus Machine-Driven Cadastral Boundary Feature Extraction. Remote Sensing. 2019; 11(14):1662. https://doi.org/10.3390/rs11141662 O. Ronneberger, P. Fischer, and T. Brox, “U-NET: Convolutional Networks for Biomedical Image Segmentation,” arXiv.org, May 18, 2015. Available: https://arxiv.org/abs/1505.04597 Pavel Iakubovskii, “Segmentation Models documentation.” Available: https://smp.readthedocs.io/en/latest/index.html Poder Legislativo, Colombia: Acuerdo Final para la Terminación del Conflicto y la Construcción de una Paz Estable y Duradera. Junio de 2016, 26 junio 2016, https://www.refworld.org/es/leg/multilateraltreaty/natlegbod/2016/es/127319 [accedida 15 January 2024] Ponce, P. (2010). Inteligencia Artificial con Aplicaciones a la Ingeniería. Primera Edición. México DF: Alfaomega Grupo Editor, SA. ISBN: 978-607-7854-83-8. Ramos, L. (2005). La modernización del Catastro Colombiano. Universidad de Los Andes. https://core.ac.uk/download/pdf/268121685.pdf Resolución 1040 de 2023 [Instituto Geográfico Agustín Codazzi]. Por medio de la cual se expide la Resolución Única de la Gestión Catastral Multipropósito. 08 de agosto de 2023 Romcon, I. (2022). Clasificación de imágenes espaciales mediante visión artificial. Universidad Politécnica de Madrid. Ronneberger, O., Fischer, P., & Brox, T. (2015). U-Net: Convolutional Networks for Biomedical Image Segmentation. *arXiv preprint arXiv:1505.04597*. Ronneberger, O., Fischer, P., & Brox, T. (2015). U-net: Convolutional networks for biomedical image segmentation. In International Conference on Medical Image Computing and Computer-Assisted Intervention (pp. 234-241). Sherrah, J. (2016). Fully Convolutional Networks for Dense Semantic Labelling of High-Resolution Aerial Imagery. *arXiv preprint arXiv:1606.02585*. Simonyan, K., & Zisserman, A. (2015).** Very deep convolutional networks for large-scale image recognition. In *International Conference on Learning Representations (ICLR)*. Soto-Orozco, O. A., Corral-Sáenz, A. D., Rojo-González, C. E., & Ramírez-Quintana, J. A. (2019). Análisis del desempeño de redes neuronales profundas para segmentación semántica en hardware limitado. Recuperado de https://www.redalyc.org/journal/5122/512261374010/html/ Xia, X., Persello, C., & Koeva, M. (2019). Deep fully convolutional networks for cadastral boundary detection from UAV images. Remote Sensing, 11(14). https://doi.org/10.3390/rs11141725 Zapeta Hernández, A., Galindo Rosales, G. A., Juan Santiago, H. J., & Martínez Lee, M. (2022). Métricas de rendimiento para evaluar el aprendizaje automático en la clasificación de imágenes petroleras utilizando redes neuronales convolucionales. Ciencia Latina Revista Científica Multidisciplinar, 6(5), 4624-4637. https://doi.org/10.37811/cl_rcm.v6i5.3420 Zhang, Y., Tang, Y., & Wang, L. (2018). CNN-Based High-Resolution Remote Sensing Image Segmentation Using High-Order Label Contextual Information. *IEEE Geoscience and Remote Sensing Letters*. Zhu, X. X., Tuia, D., Mou, L., Xia, G. S., Zhang, L., Xu, F., & Fraundorfer, F. (2017). Deep learning in remote sensing: A comprehensive review and list of resources. IEEE Geoscience and Remote Sensing Magazine, 5(4), 8-36. |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.acceso.none.fl_str_mv |
Abierto (Texto Completo) |
rights_invalid_str_mv |
Abierto (Texto Completo) http://purl.org/coar/access_right/c_abf2 |
dc.format.mimetype.none.fl_str_mv |
pdf |
dc.publisher.none.fl_str_mv |
Universidad Distrital Francisco José de Caldas |
publisher.none.fl_str_mv |
Universidad Distrital Francisco José de Caldas |
institution |
Universidad Distrital Francisco José de Caldas |
bitstream.url.fl_str_mv |
https://repository.udistrital.edu.co/bitstreams/90921d76-6a01-42c5-b391-1a655b9a4b3b/download https://repository.udistrital.edu.co/bitstreams/0cdc12e4-d013-460d-be0d-db45a09da982/download https://repository.udistrital.edu.co/bitstreams/b44dcb54-c680-4c89-88c8-9804ef6f059e/download https://repository.udistrital.edu.co/bitstreams/fbba44f5-ab83-4e19-8124-47e8ce6eb5c3/download https://repository.udistrital.edu.co/bitstreams/1ef1fc41-4639-4f0a-9c22-8df8562f5a37/download |
bitstream.checksum.fl_str_mv |
997daf6c648c962d566d7b082dac908d 8376a9a9c4b0fb2f0f75375aff051f42 c18ea0252f7bfd3bbecb8111425c2a8a 9540dba105f1aa4a4ac3adbab74ddb72 793cb02238074d42e2498e67effe2a8a |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Universidad Distrital |
repository.mail.fl_str_mv |
repositorio@udistrital.edu.co |
_version_ |
1828164982480568320 |
spelling |
Coronado Sánchez, Paulo CésarVillamil Garro, Kelly JhoanaQuijano Malagón, Karen LizethVillamil Garro, Kelly Jhoana [0009-0002-4481-6207]Quijano Malagón, Karen Lizeth [0009-0001-0998-5788]Coronado Sánchez, Paulo César [0000-0003-2980-2376]2025-03-27T17:14:54Z2025-03-27T17:14:54Z2025-02-13http://hdl.handle.net/11349/94240El proceso de entrenamiento y validación de modelos de aprendizaje automático sigue un ciclo iterativo compuesto por tres actividades principales: alistamiento de los insumos, optimización del modelo y análisis de resultados. El alistamiento incluye la selección y preparación de datos, mientras que la optimización se enfoca en la elección de la arquitectura y el ajuste de los parámetros del modelo y finalmente el análisis de resultados involucra el cálculo de métricas para la evaluación del modelo, donde en el caso de una evaluación no óptima, se debe realizar un proceso iterativo de optimización para alcanzar los umbrales de desempeño. En el estudio, se plantea el uso de modelos pre entrenados para la extracción de linderos prediales físicos visibles en suelo rural de Cundinamarca, para lo cual se escogieron como insumos 2 ortoimágenes correspondientes a los municipios de Tabio y Subachoque que tienen un Ground Sample Distance inferior a 50 centímetros, en el caso de Tabio se utilizaron como elementos de la clase linderos las vías, drenajes, muros y cercas presentes en la cartografía básica oficial del municipio y para Subachoque se realizó la digitalización manual de estos elementos. Se realizaron 145 pruebas entre los modelos SegNet, Unet y ResNet con datasets de teselas de 3 tamaños distintos; 256x256, 512x512 y 2557x1887, así mismo, se variaron los parámetros de window size, stride, batch size y número de épocas, en búsqueda de la combinación óptima en términos de tiempo de ejecución y métricas de entrenamiento y de validación. Los valores obtenidos para las métricas de evaluación evidencian que la arquitectura UNET alcanza el mejor rendimiento, pues esta destacó en los valores de F1-Score e índice Kappa para ambos municipios, sin embargo, como en cualquier tarea automatizada, es necesario considerar los factores prácticos como requerimientos mínimos de la máquina y el tiempo de ejecución versus estos parámetros para la captura convencional de linderos. Finalmente, es evidente la importancia de la calidad del conjunto de datos para garantizar la precisión de los resultados, por lo cual, se sugiere la mejora tanto en la selección como en la depuración de los datos vectoriales y ráster de insumo.The training and validation process of machine learning models follows an iterative cycle composed of three main activities: input enlistment, model optimization, and results analysis. Enlistment includes data selection and preparation, while optimization focuses on the choice of architecture and the adjustment of model parameters, and finally, results analysis involves the calculation of metrics for model evaluation, where in the case of a non-optimal evaluation, an iterative optimization process must be performed to reach performance thresholds. In the study, the use of pre-trained models is proposed for the extraction of visible physical property boundaries in rural soil in Cundinamarca, for which 2 orthoimages corresponding to the municipalities of Tabio and Subachoque were chosen as inputs, which have a Ground Sample Distance less than 50 centimeters. In the case of Tabio, the roads, drains, walls and fences present in the official basic cartography of the municipality were used as elements of the boundary class, and for Subachoque, these elements were manually digitized. 145 tests were performed between the SegNet, Unet and ResNet models with tile datasets of 3 different sizes; 256x256, 512x512 and 2557x1887. Likewise, the window size, stride, batch size and number of epochs parameters were varied, in search of the optimal combination in terms of execution time and training and validation metrics. The values obtained for the evaluation metrics show that the UNET architecture achieves the best performance, as it stood out in the F1-Score and Kappa index values for both municipalities. However, as in any automated task, it is necessary to consider practical factors such as minimum machine requirements and execution time versus these parameters for the conventional capture of boundaries. Finally, the importance of the quality of the data set to guarantee the accuracy of the results is evident, therefore, improvement is suggested both in the selection and in the debugging of the input vector and raster data.pdfspaUniversidad Distrital Francisco José de CaldasRedes neuronales convolucionalesAprendizaje profundoLinderoCatastroIngeniería Catastral y Geodesia -- Tesis y disertaciones académicasConvolutional neural networksDeep learningBoundaryCadastreEvaluación de redes neuronales convolucionales para la extracción de linderos prediales como herramienta para la actualización catastralEvaluation of convolutional neural networks for the extraction of property boundaries as a tool for cadastral updatingbachelorThesisMonografíainfo:eu-repo/semantics/bachelorThesishttp://purl.org/coar/resource_type/c_7a1fAbierto (Texto Completo)http://purl.org/coar/access_right/c_abf2A. Kirillov, R. Girshick, K. He, and P. Dollár, “Panoptic feature Pyramid networks,” arXiv.org, Jan. 08, 2019. Available: https://arxiv.org/abs/1901.02446Altamirano L. (2021). Deep Learning aplicado a la segmentación semántica de Imágenes aéreas. Universidad de Valparaíso, Chile. http://repositoriobibliotecas.uv.cl/handle/uvscl/3958Barney G. Catastro multipropósito en el acuerdo de paz. Indepaz. 2022. https://indepaz.org.co/catastro-multiproposito-en-el-acuerdo-de-paz-por-gloria-c-barney/ [accedida 15 Enero 2024]Bennett RM, Koeva M, Asiama K. Review of Remote Sensing for Land Administration: Origins, Debates, and Selected Cases. Remote Sensing. 2021; 13(21):4198. https://doi.org/10.3390/rs13214198Bischke, B., Helber, P., Folz, J., Borth, D., & Dengel, A. (2017). Multi-task learning for segmentation of building footprints with auxiliary tasks. *arXiv preprint arXiv:1709.05932*.Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. *IEEE Transactions on Pattern Analysis and Machine Intelligence*, 40(4), 834-848.Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs. IEEE Transactions on Pattern Analysis and Machine Intelligence, 40(4), 834-848.Chirag Patil, “Pytorch_image_segmentation.ipynb at main · chiragpatil-ml/YouTubeNotebook,” GitHub. Available: https://github.com/chiragpatil-ml/YouTubeNotebook/blob/main/Computer%20Vision/Train%20and%20test%20segmentation%20model/pytorch_image_segmentation.ipynbChristopher Thomas Bs. Hons. Miap, “Deep learning based super resolution, without using a GAN,” Medium, Dec. 19, 2024. Available: https://towardsdatascience.com/deep-learning-based-super-resolution-without-using-a-gan-11c9bb5b6cd5Cívico Panduro, J.(2010). Estudio comparativo de algoritmos disponibles en ITK para la segmentación de imágenes médicas. Aplicación al caso particular de la aurícula izquierda. Proyecto Fin de Carrera Ingeniería Superior de Telecomunicación – Universidad de Sevilla. e-REdING. Biblioteca de la Escuela Superior de Ingenieros de Sevilla. (us.es)Crommelinck S., Koeva M., Ying M., Vosselman G. (2019). Aplication of Deep Learning for Delineaton of Visible Cadastral Boundaries from Remote Sensing Imagery. Remote Sensing. 11(21), 2505. https://doi.org/10.3390/rs11212505Departamento Nacional de Planeación. (2019, 26 de marzo). Estrategia para la Implementación de la política pública de catastro multipropósito (Documento CONPES 3958). Bogotá D.C., Colombia: DNP.Departamento Nacional De Planeación. (2022). Bases del Plan Nacional de Desarrollo 2022 - 2026 (1st ed., Vol. 1). Departamento Nacional De Planeación.Departamento Nacional de Planeación. (2022, 24 de enero). Declaración de Importancia Estratégica del Proyecto de Inversión: Actualización y Gestión Catastral Nacional (Documento CONPES 4071). Bogotá D.C., Colombia: DNP.Departamento Nacional de Planeación. (2023, septiembre 10). Con Inteligencia Artificial, el DNP apoya el proceso de actualización del Catastro Multipropósito. Noticias DNP. Con Inteligencia Artificial, el DNP apoya el proceso de actualización del Catastro MultipropósitoE. Shelhamer, J. Long and T. Darrell, "Fully Convolutional Networks for Semantic Segmentation," in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 39, no. 4, pp. 640-651, 1 April 2017. Available: https://ieeexplore.ieee.org/document/7478072Everingham, M., Van Gool, L., Williams, C. K., Winn, J., & Zisserman, A. (2015). The Pascal Visual Object Classes Challenge: A Retrospective. *International Journal of Computer Vision*, 111(1), 98-136.Fetai, B., Grigillo, D., & Lisec, A. (2022). Revising Cadastral Data on Land Boundaries Using Deep Learning in Image-Based Mapping. ISPRS International Journal of Geo-Information, 11(5). https://doi.org/10.3390/ijgi11050298Fetai, B., Račič, M., & Lisec, A. (2021). Deep learning for detection of visible land boundaries from uav imagery. Remote Sensing, 13(11). https://doi.org/10.3390/rs13112077Foody, G. M. (2002). Status of land cover classification accuracy assessment. *Remote Sensing of Environment*, 80(1), 185-201.G. Boesch, “Deep Residual Networks (RESNet, RESNET-50) – 2024 Guide,” viso.ai, Aug. 07, 2024. Available: https://viso-ai.translate.goog/deep-learning/resnet-residual-neural-network/?_x_tr_sl=en&_x_tr_tl=es&_x_tr_hl=es&_x_tr_pto=tcIGAC. (2023). Catalogo de objetos Geográficos para la Cartografía Básica de Colombia [Instituto Geográfico Agustín Codazzi]. 21 de abril de 2023Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. In Advances in Neural Information Processing Systems (pp. 1097-1105).LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444.Li, H., Zhang, L., & Ma, W. (2021). Deep learning-based semantic segmentation for high-resolution remote sensing images: A review. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 14, 4646-4663. https://doi.org/10.1109/JSTARS.2021.3083829Li, Y., Wang, Z., Yang, J., & Tian, Q. (2019).** Deep multigranular dynamic fusion network for remote sensing image scene classification. *IEEE Transactions on Neural Networks and Learning Systems*, 30(1), 162-174.Li, Z., Liu, F., Yang, W., Peng, S., & Zhou, J. (2022). A Survey of Convolutional Neural Networks: Analysis, Applications, and Prospects. IEEE Transactions on Neural Networks and Learning Systems, 33(12), 6999–7019. https://doi.org/10.1109/TNNLS.2021.3084827Long, J., Shelhamer, E., & Darrell, T. (2015). Fully convolutional networks for semantic segmentation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 3431-3440).M. Huh, P. Agrawal, and A. A. Efros, “What makes imagenet good for transfer learning?” 2016.Maggiori, E., Tarabalka, Y., Charpiat, G., & Alliez, P. (2017). Convolutional Neural Networks for Large-Scale Remote-Sensing Image Classification. *IEEE Transactions on Geoscience and Remote Sensing*.Mou, L., & Zhu, X. X. (2018). Im2height: Height estimation from single monocular imagery via fully residual convolutional-deconvolutional network. *arXiv preprint arXiv:1802.10249*.Nyandwi E, Koeva M, Kohli D, Bennett R. Comparing Human Versus Machine-Driven Cadastral Boundary Feature Extraction. Remote Sensing. 2019; 11(14):1662. https://doi.org/10.3390/rs11141662O. Ronneberger, P. Fischer, and T. Brox, “U-NET: Convolutional Networks for Biomedical Image Segmentation,” arXiv.org, May 18, 2015. Available: https://arxiv.org/abs/1505.04597Pavel Iakubovskii, “Segmentation Models documentation.” Available: https://smp.readthedocs.io/en/latest/index.htmlPoder Legislativo, Colombia: Acuerdo Final para la Terminación del Conflicto y la Construcción de una Paz Estable y Duradera. Junio de 2016, 26 junio 2016, https://www.refworld.org/es/leg/multilateraltreaty/natlegbod/2016/es/127319 [accedida 15 January 2024]Ponce, P. (2010). Inteligencia Artificial con Aplicaciones a la Ingeniería. Primera Edición. México DF: Alfaomega Grupo Editor, SA. ISBN: 978-607-7854-83-8.Ramos, L. (2005). La modernización del Catastro Colombiano. Universidad de Los Andes. https://core.ac.uk/download/pdf/268121685.pdfResolución 1040 de 2023 [Instituto Geográfico Agustín Codazzi]. Por medio de la cual se expide la Resolución Única de la Gestión Catastral Multipropósito. 08 de agosto de 2023Romcon, I. (2022). Clasificación de imágenes espaciales mediante visión artificial. Universidad Politécnica de Madrid.Ronneberger, O., Fischer, P., & Brox, T. (2015). U-Net: Convolutional Networks for Biomedical Image Segmentation. *arXiv preprint arXiv:1505.04597*.Ronneberger, O., Fischer, P., & Brox, T. (2015). U-net: Convolutional networks for biomedical image segmentation. In International Conference on Medical Image Computing and Computer-Assisted Intervention (pp. 234-241).Sherrah, J. (2016). Fully Convolutional Networks for Dense Semantic Labelling of High-Resolution Aerial Imagery. *arXiv preprint arXiv:1606.02585*.Simonyan, K., & Zisserman, A. (2015).** Very deep convolutional networks for large-scale image recognition. In *International Conference on Learning Representations (ICLR)*.Soto-Orozco, O. A., Corral-Sáenz, A. D., Rojo-González, C. E., & Ramírez-Quintana, J. A. (2019). Análisis del desempeño de redes neuronales profundas para segmentación semántica en hardware limitado. Recuperado de https://www.redalyc.org/journal/5122/512261374010/html/Xia, X., Persello, C., & Koeva, M. (2019). Deep fully convolutional networks for cadastral boundary detection from UAV images. Remote Sensing, 11(14). https://doi.org/10.3390/rs11141725Zapeta Hernández, A., Galindo Rosales, G. A., Juan Santiago, H. J., & Martínez Lee, M. (2022). Métricas de rendimiento para evaluar el aprendizaje automático en la clasificación de imágenes petroleras utilizando redes neuronales convolucionales. Ciencia Latina Revista Científica Multidisciplinar, 6(5), 4624-4637. https://doi.org/10.37811/cl_rcm.v6i5.3420Zhang, Y., Tang, Y., & Wang, L. (2018). CNN-Based High-Resolution Remote Sensing Image Segmentation Using High-Order Label Contextual Information. *IEEE Geoscience and Remote Sensing Letters*.Zhu, X. X., Tuia, D., Mou, L., Xia, G. S., Zhang, L., Xu, F., & Fraundorfer, F. (2017). Deep learning in remote sensing: A comprehensive review and list of resources. IEEE Geoscience and Remote Sensing Magazine, 5(4), 8-36.LICENSElicense.txtlicense.txttext/plain; charset=utf-87167https://repository.udistrital.edu.co/bitstreams/90921d76-6a01-42c5-b391-1a655b9a4b3b/download997daf6c648c962d566d7b082dac908dMD53ORIGINALVillamilGarroKellyJhoana2025.pdfVillamilGarroKellyJhoana2025.pdfTrabajo de Gradoapplication/pdf5153335https://repository.udistrital.edu.co/bitstreams/0cdc12e4-d013-460d-be0d-db45a09da982/download8376a9a9c4b0fb2f0f75375aff051f42MD51Licencia de uso y publicación.pdfLicencia de uso y publicación.pdfapplication/pdf232079https://repository.udistrital.edu.co/bitstreams/b44dcb54-c680-4c89-88c8-9804ef6f059e/downloadc18ea0252f7bfd3bbecb8111425c2a8aMD52THUMBNAILVillamilGarroKellyJhoana2025.pdf.jpgVillamilGarroKellyJhoana2025.pdf.jpgIM Thumbnailimage/jpeg4303https://repository.udistrital.edu.co/bitstreams/fbba44f5-ab83-4e19-8124-47e8ce6eb5c3/download9540dba105f1aa4a4ac3adbab74ddb72MD54Licencia de uso y publicación.pdf.jpgLicencia de uso y publicación.pdf.jpgIM Thumbnailimage/jpeg9432https://repository.udistrital.edu.co/bitstreams/1ef1fc41-4639-4f0a-9c22-8df8562f5a37/download793cb02238074d42e2498e67effe2a8aMD5511349/94240oai:repository.udistrital.edu.co:11349/942402025-03-28 01:03:22.407open.accesshttps://repository.udistrital.edu.coRepositorio Universidad Distritalrepositorio@udistrital.edu.coTElDRU5DSUEgWSBBVVRPUklaQUNJw5NOIEVTUEVDSUFMIFBBUkEgUFVCTElDQVIgWSBQRVJNSVRJUiBMQSBDT05TVUxUQSBZIFVTTyBERSBDT05URU5JRE9TIEVOIEVMIFJFUE9TSVRPUklPIElOU1RJVFVDSU9OQUwgREUgTEEgVU5JVkVSU0lEQUQgRElTVFJJVEFMCgpUw6lybWlub3MgeSBjb25kaWNpb25lcyBkZSB1c28gcGFyYSBwdWJsaWNhY2nDs24gZGUgb2JyYXMgZW4gZWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBkZSBsYSBVbml2ZXJzaWRhZCBEaXN0cml0YWwgRnJhbmNpc2NvIEpvc8OpIGRlIENhbGRhcyAoUklVRCkKCkNvbW8gdGl0dWxhcihlcykgZGVsKG9zKSBkZXJlY2hvKHMpIGRlIGF1dG9yLCBjb25maWVybyAoZXJpbW9zKSBhIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzIChlbiBhZGVsYW50ZSwgTEEgVU5JVkVSU0lEQUQpIHVuYSBsaWNlbmNpYSBwYXJhIHVzbyBubyBleGNsdXNpdmEsIGxpbWl0YWRhIHkgZ3JhdHVpdGEgc29icmUgbGEgb2JyYSBxdWUgaW50ZWdyYXLDoSBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIChlbiBhZGVsYW50ZSwgUklVRCksIGRlIGFjdWVyZG8gYSBsYXMgc2lndWllbnRlcyByZWdsYXMsIGxhcyBjdWFsZXMgZGVjbGFybyAoYW1vcykgY29ub2NlciB5IGFjZXB0YXI6CgphKQlFc3RhcsOhIHZpZ2VudGUgYSBwYXJ0aXIgZGUgbGEgZmVjaGEgZW4gcXVlIHNlIGluY2x1eWEgZW4gZWwgUklVRCB5IGhhc3RhIHBvciB1biBwbGF6byBkZSBkaWV6ICgxMCkgQcOxb3MsIHByb3Jyb2dhYmxlIGluZGVmaW5pZGFtZW50ZSBwb3IgZWwgdGllbXBvIHF1ZSBkdXJlIGVsIGRlcmVjaG8gUGF0cmltb25pYWwgZGVsIGF1dG9yOyBsYSBjdWFsIHBvZHLDoSBkYXJzZSBwb3IgdGVybWluYWRhIHByZXZpYSBzb2xpY2l0dWQgYSBMQSBVTklWRVJTSURBRCBwb3IgZXNjcml0byBjb24gdW5hIGFudGVsYWNpw7NuIGRlIGRvcyAoMikgbWVzZXMgYW50ZXMgZGVsIHZlbmNpbWllbnRvIGRlbCBwbGF6byBpbmljaWFsIG8gZWwgZGUgc3UocykgcHLDs3Jyb2dhKHMpLgoKYikJTEEgVU5JVkVSU0lEQUQgcG9kcsOhIHB1YmxpY2FyIGxhIG9icmEgZW4gbGFzIGRpc3RpbnRhcyB2ZXJzaW9uZXMgcmVxdWVyaWRhcyBwb3IgZWwgUklVRCAoZGlnaXRhbCwgaW1wcmVzbywgZWxlY3Ryw7NuaWNvIHUgb3RybyBtZWRpbyBjb25vY2lkbyBvIHBvciBjb25vY2VyKSBMQSBVTklWRVJTSURBRCBubyBzZXLDoSByZXNwb25zYWJsZSBlbiBlbCBldmVudG8gcXVlIGVsIGRvY3VtZW50byBhcGFyZXpjYSByZWZlcmVuY2lhZG8gZW4gbW90b3JlcyBkZSBiw7pzcXVlZGEgbyByZXBvc2l0b3Jpb3MgZGlmZXJlbnRlcyBhbCBSSVVELCB1bmEgdmV6IGVsKG9zKSBhdXRvcihlcykgc29saWNpdGVuIHN1IGVsaW1pbmFjacOzbiBkZWwgUklVRCwgZGFkbyBxdWUgbGEgbWlzbWEgc2Vyw6EgcHVibGljYWRhIGVuIEludGVybmV0LgoKYykJTGEgYXV0b3JpemFjacOzbiBzZSBoYWNlIGEgdMOtdHVsbyBncmF0dWl0bywgcG9yIGxvIHRhbnRvLCBsb3MgYXV0b3JlcyByZW51bmNpYW4gYSByZWNpYmlyIGJlbmVmaWNpbyBhbGd1bm8gcG9yIGxhIHB1YmxpY2FjacOzbiwgZGlzdHJpYnVjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGN1YWxxdWllciBvdHJvIHVzbyBxdWUgc2UgaGFnYSBlbiBsb3MgdMOpcm1pbm9zIGRlIGxhIHByZXNlbnRlIGxpY2VuY2lhIHkgZGUgbGEgbGljZW5jaWEgZGUgdXNvIGNvbiBxdWUgc2UgcHVibGljYSAoQ3JlYXRpdmUgQ29tbW9ucykuCgpkKQlMb3MgY29udGVuaWRvcyBwdWJsaWNhZG9zIGVuIGVsIFJJVUQgc29uIG9icmEocykgb3JpZ2luYWwoZXMpIHNvYnJlIGxhIGN1YWwoZXMpIGVsKG9zKSBhdXRvcihlcykgY29tbyB0aXR1bGFyZXMgZGUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCBhc3VtZW4gdG90YWwgcmVzcG9uc2FiaWxpZGFkIHBvciBlbCBjb250ZW5pZG8gZGUgc3Ugb2JyYSBhbnRlIExBIFVOSVZFUlNJREFEIHkgYW50ZSB0ZXJjZXJvcy4gRW4gdG9kbyBjYXNvIExBIFVOSVZFUlNJREFEIHNlIGNvbXByb21ldGUgYSBpbmRpY2FyIHNpZW1wcmUgbGEgYXV0b3LDrWEgaW5jbHV5ZW5kbyBlbCBub21icmUgZGVsIGF1dG9yIHkgbGEgZmVjaGEgZGUgcHVibGljYWNpw7NuLgoKZSkJTEEgVU5JVkVSU0lEQUQgcG9kcsOhIGluY2x1aXIgbGEgb2JyYSBlbiBsb3Mgw61uZGljZXMgeSBidXNjYWRvcmVzIHF1ZSBlc3RpbWVuIG5lY2VzYXJpb3MgcGFyYSBtYXhpbWl6YXIgbGEgdmlzaWJpbGlkYWQgZWwgdXNvIHkgZWwgaW1wYWN0byBkZSBsYSBwcm9kdWNjacOzbiBjaWVudMOtZmljYSwgYXJ0w61zdGljYSB5IGFjYWTDqW1pY2EgZW4gbGEgY29tdW5pZGFkIGxvY2FsLCBuYWNpb25hbCBvIGludGVybmFjaW9uYWwuCgoKZikJTEEgVU5JVkVSU0lEQUQgcG9kcsOhIGNvbnZlcnRpciBsYSBvYnJhIGEgY3VhbHF1aWVyIG1lZGlvIG8gZm9ybWF0byBjb24gZWwgZmluIGRlIHN1IHByZXNlcnZhY2nDs24gZW4gZWwgdGllbXBvIHF1ZSBsYSBwcmVzZW50ZSBsaWNlbmNpYSB5IGxhIGRlIHN1cyBwcsOzcnJvZ2FzLgoKCkNvbiBiYXNlIGVuIGxvIGFudGVyaW9yIGF1dG9yaXpvKGFtb3MpLCBhIGZhdm9yIGRlbCBSSVVEIHkgZGUgc3VzIHVzdWFyaW9zLCBsYSBwdWJsaWNhY2nDs24geSBjb25zdWx0YSBkZSBsYSBzaWd1aWVudGUgb2JyYToKClRpdHVsbwoKQXV0b3IgICAgICAgQXBlbGxpZG9zICAgICAgICAgTm9tYnJlcwoKMQoKMgoKMwoKCmcpCUF1dG9yaXpvKGFtb3MpLCBxdWUgbGEgb2JyYSBzZWEgcHVlc3RhIGEgZGlzcG9zaWNpw7NuIGRlbCBww7pibGljbyBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsb3MgbGl0ZXJhbGVzIGFudGVyaW9yZXMsIGJham8gbG9zIGzDrW1pdGVzIGRlZmluaWRvcyBwb3IgTEEgVU5JVkVSU0lEQUQsIGVuIGxhcyDigJxDb25kaWNpb25lcyBkZSB1c28gZGUgZXN0cmljdG8gY3VtcGxpbWllbnRv4oCdIGRlIGxvcyByZWN1cnNvcyBwdWJsaWNhZG9zIGVuIGVsIFJJVUQsIGN1eW8gdGV4dG8gY29tcGxldG8gc2UgcHVlZGUgY29uc3VsdGFyIGVuIGh0dHA6Ly9yZXBvc2l0b3J5LnVkaXN0cml0YWwuZWR1LmNvLwoKaCkJQ29ub3pjbyhjZW1vcykgeSBhY2VwdG8oYW1vcykgcXVlIG90b3JnbyhhbW9zKSB1bmEgbGljZW5jaWEgZXNwZWNpYWwgcGFyYSBwdWJsaWNhY2nDs24gZGUgb2JyYXMgZW4gZWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBkZSBsYSBVbml2ZXJzaWRhZCBEaXN0cml0YWwgRnJhbmNpc2NvIEpvc8OpIGRlIENhbGRhcywgbGljZW5jaWEgICBkZSBsYSBjdWFsIGhlIChoZW1vcykgb2J0ZW5pZG8gdW5hIGNvcGlhLgoKaSkJTWFuaWZpZXN0byhhbW9zKSBtaSAobnVlc3RybykgdG90YWwgYWN1ZXJkbyBjb24gbGFzIGNvbmRpY2lvbmVzIGRlIHVzbyB5IHB1YmxpY2FjacOzbiBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIGRlIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzIHF1ZSBzZSBkZXNjcmliZW4geSBleHBsaWNhbiBlbiBlbCBwcmVzZW50ZSBkb2N1bWVudG8uCgpqKQlDb25vemNvKGNlbW9zKSBsYSBub3JtYXRpdmlkYWQgaW50ZXJuYSBkZSAgTEEgVU5JVkVSU0lEQUQ7IGVuIGNvbmNyZXRvLCBlbCBBY3VlcmRvIDAwNCBkZSAyMDEyIGRlbCBDU1UsIEFjdWVyZG8gMDIzIGRlIDIwMTIgZGVsIENTVSBzb2JyZSBQb2zDrXRpY2EgRWRpdG9yaWFsLCBBY3VlcmRvIDAyNiAgZGVsIDMxIGRlIGp1bGlvIGRlIDIwMTIgc29icmUgZWwgcHJvY2VkaW1pZW50byBwYXJhIGxhIHB1YmxpY2FjacOzbiBkZSB0ZXNpcyBkZSBwb3N0Z3JhZG8gZGUgbG9zIGVzdHVkaWFudGVzIGRlIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzLCAgQWN1ZXJkbyAwMzAgZGVsIDAzIGRlIGRpY2llbWJyZSBkZSAyMDEzIHBvciBtZWRpbyBkZWwgY3VhbCBzZSBjcmVhIGVsIFJlcG9zaXRvcmlvIEluc3RpdHVjaW9uYWwgZGUgbGEgVW5pdmVyc2lkYWQgRGlzdHJpdGFsIEZyYW5jaXNjbyBKb3PDqSBkZSBDYWxkYXMsIEFjdWVyZG8gMDM4IGRlIDIwMTUgMjAxNSDigJxwb3IgZWwgY3VhbCBzZSBtb2RpZmljYSBlbCBBY3VlcmRvIDAzMSBkZSAyMDE0IGRlIDIwMTQgcXVlIHJlZ2xhbWVudGEgZWwgdHJhYmFqbyBkZSBncmFkbyBwYXJhIGxvcyBlc3R1ZGlhbnRlcyBkZSBwcmVncmFkbyBkZSBsYSBVbml2ZXJzaWRhZCBEaXN0cml0YWwgRnJhbmNpc2NvIEpvc8OpIGRlIENhbGRhcyB5IHNlIGRpY3RhbiBvdHJhcyBkaXJlY3RyaWNlc+KAnSB5IGxhcyBkZW3DoXMgbm9ybWFzIGNvbmNvcmRhbnRlIHkgY29tcGxlbWVudGFyaWFzIHF1ZSByaWdlbiBhbCByZXNwZWN0bywgZXNwZWNpYWxtZW50ZSBsYSBsZXkgMjMgZGUgMTk4MiwgbGEgbGV5IDQ0IGRlIDE5OTMgeSBsYSBkZWNpc2nDs24gQW5kaW5hIDM1MSBkZSAxOTkzLiBFc3RvcyBkb2N1bWVudG9zIHBvZHLDoW4gc2VyIGNvbnN1bHRhZG9zIHkgZGVzY2FyZ2Fkb3MgZW4gZWwgcG9ydGFsIHdlYiBkZSBsYSBiaWJsaW90ZWNhIGh0dHA6Ly9zaXN0ZW1hZGViaWJsaW90ZWNhcy51ZGlzdHJpdGFsLmVkdS5jby8KCmspCUFjZXB0byhhbW9zKSBxdWUgTEEgVU5JVkVSU0lEQUQgbm8gc2UgcmVzcG9uc2FiaWxpemEgcG9yIGxhcyBpbmZyYWNjaW9uZXMgYSBsYSBwcm9waWVkYWQgaW50ZWxlY3R1YWwgbyBEZXJlY2hvcyBkZSBBdXRvciBjYXVzYWRhcyBwb3IgbG9zIHRpdHVsYXJlcyBkZSBsYSBwcmVzZW50ZSBMaWNlbmNpYSB5IGRlY2xhcmFtb3MgcXVlIG1hbnRlbmRyw6kgKGVtb3MpIGluZGVtbmUgYSBMQSBVTklWRVJTSURBRCBwb3IgbGFzIHJlY2xhbWFjaW9uZXMgbGVnYWxlcyBkZSBjdWFscXVpZXIgdGlwbyBxdWUgbGxlZ2FyZW4gYSBwcmVzZW50YXJzZSBwb3IgdmlvbGFjacOzbiBkZSBkZXJlY2hvcyBhIGxhIHByb3BpZWRhZCBpbnRlbGVjdHVhbCBvIGRlIEF1dG9yIHJlbGFjaW9uYWRvcyBjb24gbG9zIGRvY3VtZW50b3MgcmVnaXN0cmFkb3MgZW4gZWwgUklVRC4KCmwpCUVsIChsb3MpIGF1dG9yKGVzKSBtYW5pZmllc3RhKG1vcykgcXVlIGxhIG9icmEgb2JqZXRvIGRlIGxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gZXMgb3JpZ2luYWwsIGRlIGV4Y2x1c2l2YSBhdXRvcsOtYSwgeSBzZSByZWFsaXrDsyBzaW4gdmlvbGFyIG8gdXN1cnBhciBkZXJlY2hvcyBkZSBhdXRvciBkZSB0ZXJjZXJvczsgZGUgdGFsIHN1ZXJ0ZSwgZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBjdWFscXVpZXIgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybyBlbiBjdWFudG8gYSBsb3MgZGVyZWNob3MgZGUgYXV0b3Igc29icmUgbGEgb2JyYSwgZWwgKGxvcykgZXN0dWRpYW50ZShzKSDigJMgYXV0b3IoZXMpIGFzdW1pcsOhKG4pIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkIHkgc2FsZHLDoShuKSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcy4gUGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgTEEgVU5JVkVSU0lEQUQgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4KCgptKQlFbCAobG9zKSBhdXRvcihlcykgbWFuaWZpZXN0YShtb3MpIHF1ZSBjb25vemNvKGNlbW9zKSBsYSBhdXRvbm9tw61hIHkgbG9zIGRlcmVjaG9zLCBxdWUgcG9zZWUobW9zKSBzb2JyZSBsYSBvYnJhIHksIGNvbW8gdGFsLCBlcyAoc29tb3MpIHJlc3BvbnNhYmxlKHMpIGRlbCBhbGNhbmNlIGp1csOtZGljbyB5IGxlZ2FsLCBkZSBlc2NvZ2VyIGxhIG9wY2nDs24gZGUgbGEgcHVibGljYWNpw7NuIG8gZGUgcmVzdHJpY2Npw7NuIGRlIGxhIHB1YmxpY2FjacOzbiBkZWwgZG9jdW1lbnRvIHJlZ2lzdHJhZG8gZW4gZWwgUklVRC4KCgoKCgoKU0kgRUwgRE9DVU1FTlRPIFNFIEJBU0EgRU4gVU4gVFJBQkFKTyBRVUUgSEEgU0lETyBQQVRST0NJTkFETyBPIEFQT1lBRE8gUE9SIFVOQSBBR0VOQ0lBIE8gVU5BIE9SR0FOSVpBQ0nDk04sIENPTiBFWENFUENJw5NOIERFIExBIFVOSVZFUlNJREFEIERJU1RSSVRBTCBGUkFOQ0lTQ08gSk9TRSBERSBDQUxEQVMsIExPUyBBVVRPUkVTIEdBUkFOVElaQU4gUVVFIFNFIEhBIENVTVBMSURPIENPTiBMT1MKREVSRUNIT1MgWSBPQkxJR0FDSU9ORVMgUkVRVUVSSURPUyBQT1IgRUwgUkVTUEVDVElWTyBDT05UUkFUTyBPIEFDVUVSRE8uCgoKCgoKCgoKCgoKCgoKCgoKCgoKCkVuIGNvbnN0YW5jaWEgZGUgbG8gYW50ZXJpb3IsIGZpcm1vKGFtb3MpIGVsIHByZXNlbnRlIGRvY3VtZW50bywgZW4gbGEgY2l1ZGFkIGRlIEJvZ290w6EsIEQuQy4sIGEgbG9zCgoKRklSTUEgREUgTE9TIFRJVFVMQVJFUyBERSBERVJFQ0hPUyBERSBBVVRPUgoKX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fICAgQy5DLiBOby4gX19fX19fX19fX19fX19fX19fCgpfX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX18gICBDLkMuIE5vLiBfX19fX19fX19fX19fX19fX18KCl9fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fXyAgIEMuQy4gTm8uIF9fX19fX19fX19fX19fX19fXwoKCgpDb3JyZW8gRWxlY3Ryw7NuaWNvIEluc3RpdHVjaW9uYWwgZGVsIChkZSBsb3MpIEF1dG9yKGVzKToKCkF1dG9yCSAgICAgIENvcnJlbyBFbGVjdHLDs25pY28KCjEKCjIKCjMKCk5vbWJyZSBkZSBEaXJlY3RvcihlcykgZGUgR3JhZG86CgoxCgoyCgozCgpOb21icmUgRmFjdWx0YWQgeSBQcm95ZWN0byBDdXJyaWN1bGFyOgoKRmFjdWx0YWQJUHJveWVjdG8gQ3VycmljdWxhcgoKCgoKCgoKCk5vdGE6IEVuIGNhc28gcXVlIG5vIGVzdMOpIGRlIGFjdWVyZG8gY29uIGxhcyBjb25kaWNpb25lcyBkZSBsYSBwcmVzZW50ZSBsaWNlbmNpYSwgeSBtYW5pZmllc3RlIGFsZ3VuYSByZXN0cmljY2nDs24gc29icmUgbGEgb2JyYSwganVzdGlmaXF1ZSBsb3MgbW90aXZvcyBwb3IgbG9zIGN1YWxlcyBlbCBkb2N1bWVudG8geSBzdXMgYW5leG9zIG5vIHB1ZWRlbiBzZXIgcHVibGljYWRvcyBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIGRlIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzIFJJVUQuCgoKU2kgcmVxdWllcmUgbcOhcyBlc3BhY2lvLCBwdWVkZSBhbmV4YXIgdW5hIGNvcGlhIHNpbWlsYXIgYSBlc3RhIGhvamEK |