Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales
Actualmente una porción considerable de proyectos de investigación en el contexto de procesamiento de imágenes, se abordan con algoritmos de aprendizaje profundo. Algunos estudios realizados por científicos analistas de datos como Meiyin Wu [1], enuncian que al utilizar en particular las redes convo...
- Autores:
-
Zárate Luna, Paola Andrea
- Tipo de recurso:
- Doctoral thesis
- Fecha de publicación:
- 2023
- Institución:
- Universidad Autónoma de Occidente
- Repositorio:
- RED: Repositorio Educativo Digital UAO
- Idioma:
- spa
- OAI Identifier:
- oai:red.uao.edu.co:10614/15483
- Acceso en línea:
- https://hdl.handle.net/10614/15483
https://red.uao.edu.co/
- Palabra clave:
- Doctorado en Ingeniería
Aprendizaje profundo
Satélite
Imágenes
Algoritmos
Redes neuronales
Píxel
Error
Radiométrico
Geométrico
Atmosférico
Deep learning
Satellite
Images
Algorithms
Neural networks
Pixel
Error
Radiometric
Geometric
Atmosphere
- Rights
- closedAccess
- License
- Derechos reservados - Universidad Autónoma de Occidente, 2023
id |
REPOUAO2_eb2ae31dd5c43485710e6397dc1d84a3 |
---|---|
oai_identifier_str |
oai:red.uao.edu.co:10614/15483 |
network_acronym_str |
REPOUAO2 |
network_name_str |
RED: Repositorio Educativo Digital UAO |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales |
title |
Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales |
spellingShingle |
Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales Doctorado en Ingeniería Aprendizaje profundo Satélite Imágenes Algoritmos Redes neuronales Píxel Error Radiométrico Geométrico Atmosférico Deep learning Satellite Images Algorithms Neural networks Pixel Error Radiometric Geometric Atmosphere |
title_short |
Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales |
title_full |
Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales |
title_fullStr |
Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales |
title_full_unstemmed |
Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales |
title_sort |
Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales |
dc.creator.fl_str_mv |
Zárate Luna, Paola Andrea |
dc.contributor.advisor.none.fl_str_mv |
López Sotelo, Jesús Alfonso Jiménez Sánchez Jorge Giovanni, codirector |
dc.contributor.author.none.fl_str_mv |
Zárate Luna, Paola Andrea |
dc.contributor.corporatename.spa.fl_str_mv |
Universidad Autónoma de Occidente |
dc.contributor.jury.none.fl_str_mv |
Gillen Rondón, Pablo Orjuela Cañón, Álvaro David |
dc.subject.proposal.spa.fl_str_mv |
Doctorado en Ingeniería Aprendizaje profundo Satélite Imágenes Algoritmos Redes neuronales Píxel Error Radiométrico Geométrico Atmosférico |
topic |
Doctorado en Ingeniería Aprendizaje profundo Satélite Imágenes Algoritmos Redes neuronales Píxel Error Radiométrico Geométrico Atmosférico Deep learning Satellite Images Algorithms Neural networks Pixel Error Radiometric Geometric Atmosphere |
dc.subject.proposal.eng.fl_str_mv |
Deep learning Satellite Images Algorithms Neural networks Pixel Error Radiometric Geometric Atmosphere |
description |
Actualmente una porción considerable de proyectos de investigación en el contexto de procesamiento de imágenes, se abordan con algoritmos de aprendizaje profundo. Algunos estudios realizados por científicos analistas de datos como Meiyin Wu [1], enuncian que al utilizar en particular las redes convolucionales y generativas, se han logrado resultados significativos en el tratamiento de imágenes, con identificación rápida y asertiva, detección de patrones y generación de nuevos contenidos. La presente investigación tiene como propósito implementar modelos de redes neuronales generativos en procesos de tratamiento de imágenes satelitales, que permitan mejorar u obtener un resultado similar al realizado a través de métodos convencionales al corregir errores radiométricos, geométricos y otras alteraciones causadas por la atmósfera en los pixeles de una imagen. La problemática fue analizada como un todo, donde a través de la experimentación y procedimientos de redes neuronales aplicados a imágenes satelitales, se abordaron algoritmos generativos que luego permitieron establecer comparaciones respecto a otros modelos tradicionales. Gracias a la adecuación e implementación de algoritmos basados en las técnicas de aprendizaje profundo, se mejoró significativamente la calidad de las imágenes satelitales captadas por sensores multiespectrales de baja resolución, así como, la corrección de píxeles distorsionados causados por errores radiométricos, geométricos, y otras alteraciones fijadas por la interferencia de la atmósfera. Finalmente, con esta investigación, se afirma la importancia de generar proyectos que permitan tratar, detectar y cuantificar elementos de la superficie terrestre, de forma automática y en tiempos más reducidos, motivo por el que, en el presente trabajo se muestra el resultado de la aplicación de técnicas de aprendizaje profundo como una alternativa confiable y eficaz, que brinda la posibilidad de procesamiento de imágenes satelitales, poniéndolas a disposición en proyectos de diferente índole, con las siguientes ventajas: aumento de la resolución espacial hasta cuatro veces más en comparación con su tamaño inicial, aplicación de filtros y mejoras con resultados de precisión superiores a los obtenidos tras aplicar métodos convencionales (92,64%), corrección de errores radiométricos como el bandeo con un índice de similitud estructural medio igual al 90%, atenuación de la presencia de factores atmosféricos como la nubosidad con un índice de similitud estructural en promedio de 0.78% y un índice BRISQUE de 17.21% en promedio igualmente. Adicionalmente se logra la generación de modelos de elevación digital con un error cuadrático medio (RMSE) de 124 metros en promedio sobre terrenos en los que no se cuenta con dimensiones o puntos de control tomados en sitio o sobre el terreno. |
publishDate |
2023 |
dc.date.issued.none.fl_str_mv |
2023-12-05 |
dc.date.accessioned.none.fl_str_mv |
2024-03-07T16:39:13Z |
dc.date.available.none.fl_str_mv |
2024-03-07T16:39:13Z |
dc.type.spa.fl_str_mv |
Trabajo de grado - Doctorado |
dc.type.coarversion.fl_str_mv |
http://purl.org/coar/version/c_970fb48d4fbd8a85 |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_db06 |
dc.type.content.none.fl_str_mv |
Text |
dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/doctoralThesis |
dc.type.redcol.none.fl_str_mv |
http://purl.org/redcol/resource_type/TD |
dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
format |
http://purl.org/coar/resource_type/c_db06 |
status_str |
publishedVersion |
dc.identifier.citation.spa.fl_str_mv |
Zárate Luna, P. A. (2023). Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales. (Tesis). Universidad Autónoma de Occidente. Cali. Colombia. https://hdl.handle.net/10614/15483 |
dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/10614/15483 |
dc.identifier.instname.spa.fl_str_mv |
Universidad Autónoma de Occidente |
dc.identifier.reponame.spa.fl_str_mv |
Respositorio Educativo Digital UAO |
dc.identifier.repourl.none.fl_str_mv |
https://red.uao.edu.co/ |
identifier_str_mv |
Zárate Luna, P. A. (2023). Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales. (Tesis). Universidad Autónoma de Occidente. Cali. Colombia. https://hdl.handle.net/10614/15483 Universidad Autónoma de Occidente Respositorio Educativo Digital UAO |
url |
https://hdl.handle.net/10614/15483 https://red.uao.edu.co/ |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.references.none.fl_str_mv |
[1] M. Wu y L. Chen, “Image recognition based on deep learning”, en 2015 Chinese Automation Congress (CAC), IEEE, 2015, pp. 542-546. DOI: 10.1109/CAC.2015.7382560. [2] L. Bleacher y L. Aguiar, “NASA Announces New CubeSat Launch Initiative Partnership Opportunities”. [Internet]. Disponible en: https://www.nasa.gov/press-release/nasa-announces-new-cubesat-launchinitiative-partnership-opportunities [3] P. A. Z. Luna y J. A. L. Sotelo, “Systematic Literature Review: Artificial Neural Networks Applied in Satellite Images”, en 2020 IEEE Colombian Conference on Applications of Computational Intelligence (IEEE ColCACI 2020), IEEE, 2020, pp. 1-6. DOI: 10.1109/ColCACI50549.2020.9247916. [4] Z. L. Paola, L. S. Jesús, A. H. Christian, y R. U. Sonia, “Correction of Banding Errors in Satellite Images with Generative Adversarial Networks (GAN)”, IEEE Access, vol. 11, pp. 51960-51970, 2023, DOI: 10.1109/ACCESS.2023.3279265. [5] “SIG y Teledetección en la Universidad de Murcia (s.f.).” [Internet]. Disponible en: https://www.um.es/geograf/sigmur/index.html [6] J. W. Percival y V. Castelli, “Transmission of Digital Imagery”, en Image Databases, 2002, pp. 241-260. DOI: 10.1002/0471224634.ch9. [7] D. Vargas-Sanabria y C. Campos-Vargas, “Sistema multi-algoritmo para la clasificación de coberturas de la tierra en el bosque seco tropical del Área de Conservación Guanacaste, Costa Rica”, Revista Tecnología en Marcha, vol. 31, n.o 1, p. 58, mar. 2018, DOI: 10.18845/tm.v31i1.3497. [8] Departamento Administrativo de Estadística DANE y Instituto Geográfico Agustín Codazzi IGAC, “CONPES 3585”, 2009, [Internet]. Disponible en: chromeextension://efaidnbmnnnibpcajpcglclefindmkaj/https://colaboracion.dnp.gov. co/CDT/CONPES/Econ%C3%B3micos/3585.pdf 190 [9] Departamento Nacional de Planeación (DPN), Departamento Administrativo de la Presidencia de la República, Ministerio de Defensa Nacional, I. y T. Ministerio de Comercio, Ministerio de Tecnologías de la Información y las Comunicaciones, y T. e I. Ministerio de Ciencia, “CONPES 3983”, 2020. [Internet]. Disponible en: chromeextension://efaidnbmnnnibpcajpcglclefindmkaj/https://colaboracion.dnp.gov. co/CDT/Conpes/Econ%C3%B3micos/3983.pdf [10] Fuerza Aérea Colombiana, Estrategia Espacial de la FAC 2022- 2042. 2021. [Internet]. Disponible en: https://www.fac.mil.co/es/edaesfac2042#:~:text=La%20Estrategia%20para %20el%20desarrollo,internacionales%20y%20se%20consolide%20como [11] J. Lopez, Deep Learning Teoria y Aplicaciones, Alphaeditorial. Calí, 2021. [12] E. P. Superior, F. Arribas, J. Tutor, : Daniel, y H. Lobato, “Trabajo de Grado Aprendizaje No-Supervisado con Modelos Generativos Profundos”, 2018. [Internet]. Disponible en: https://repositorio.uam.es/bitstream/handle/10486/688035/arribas_jara_fern ando_tfg.pdf?sequence=1&isAllowed=y [13] M. Pritt y G. Chern, “Satellite Image Classification with Deep Learning”, IEEE Applied Imagery Pattern Recognition Workshop (AIPR), pp. 1-7, 2020. [14] H. M. Keshk y X.-C. Yin, “Satellite super-resolution images depending on deep learning methods: A comparative study”, en 2017 IEEE International Conference on Signal Processing, Communications and Computing (ICSPCC), IEEE, 2017, pp. 1-7. DOI: 10.1109/ICSPCC.2017.8242625. [15] MathWorks, “What is a Convolutional Neural Network?”, Accelerating the pace of engineering and science. [Internet]. Disponible en: https://www.mathworks.com/discovery/convolutional-neural-network.html [16] V. Badrinarayanan, A. Kendall, y R. Cipolla, “SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation”, IEEE Trans Pattern Anal Mach Intell, vol. 39, n.o 12, pp. 2481-2495, 2017, DOI: 10.1109/TPAMI.2016.2644615. [17] A. Zhang, Z. C. Lipton, y M. Li, Dive into Deep Learning, vol. 2. 2021. Accedido: 7 de mayo de 2023. [Internet]. Disponible en: http://preview.d2l.ai/d2l-en/master/ 191 [18] D. Foster, Generative deep learning: Teaching Machines to paint, Write, Compose and Play. Estados Unidos: O´Reilly, 2019. [19] S. Pattanayak, Pro Deep Learning with TensorFlow, A Mathematical Approach to Advanced Artificial Intelligence in Python. Bangalore: Apress, 2017. [20] V. Castelli y L. Bergman, Images Databases Search and Retrieval of Digital Imagery. New York: Jonh Willey & Sons, Inc, 2002. [21] D. J. Rezende, S. Mohamed, y D. Wierstra, “Stochastic Backpropagation and Approximate Inference in Deep Generative Models”, 2014. [22] I. Goodfellow et al., “Generative adversarial networks”, Commun ACM, vol. 63, n.o 11, pp. 139-144, 2020, DOI: 10.1145/3422622. [23] ESANN 26. 2018 Brügge et al., Latent representations of transient candidates from an astronomical image difference pipeline using Variational Autoencoders [24] M. Kana, “Generative Adversarial Network (GAN) for Dummies — A Step By Step Tutorial”. Accedido: 13 de noviembre de 2022. [Internet]. Disponible en: https://towardsdatascience.com/generative-adversarial-network-gan-fordummies-a-step-by-step-tutorial-fdefff170391 [25] M. Merino, “Conceptos de inteligencia artificial: qué son las GANs o redes generativas antagónicas”, Xataka México. [Internet]. Disponible en: https://www.xataka.com/inteligencia-artificial/conceptos-inteligencia-artificialque-gans-redes-generativas-antagonicas [26] Y. Alshevskaya, “Super-Resolution Image Reconstruction: A Technical Overview Related papers”, 2003. DOI: 10.1109/MSP.2003.1203207. [27] C. Dong, C. C. Loy, K. He, y X. Tang, “Image Super-Resolution Using Deep Convolutional Networks”, 2014, [Internet]. Disponible en: http://arxiv.org/abs/1501.00092 [28] H. M. Keshk y X.-C. Yin, “Satellite super-resolution images depending on deep learning methods: A comparative study”, en 2017 IEEE International Conference on Signal Processing, Communications and Computing (ICSPCC), IEEE, 2017, pp. 1-7. DOI: 10.1109/ICSPCC.2017.8242625. [29] J. Hui, “Super Resolution GAN (SRGAN). “. [Internet]. Disponible en: https://jonathan-hui.medium.com/gan-super-resolution-gan-srganb471da7270ec [30] B. Lim, S. Son, H. Kim, S. Nah, y K. M. Lee, “Enhanced Deep Residual Networks for Single Image Super-Resolution”, 2017. [31] S. Tagadiya, “Image Super-Resolution Using EDSR and WDSR”. [Internet]. Disponible en: https://medium.com/mlearning-ai/image-super-resolutionusing-edsr-and-wdsr-f4de0b00e039 [32] A. Sharma, “Pix2Pix: Image-to-Image Translation in PyTorch & TensorFlow”, LearnOpenCV, 2021. [33] P. Isola, J.-Y. Zhu, T. Zhou, A. A. Efros, y B. A. Research, “Image-to-Image Translation with Conditional Adversarial Networks”, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1125- 1134, 2017, [Internet]. Disponible en: https://github.com/phillipi/pix2pix. [34] H. Fordjour, “Unpaired Image to Image Translation with CycleGAN”, Paperblog. Accedido: 13 de noviembre de 2022. [Internet]. Disponible en: https://blog.paperspace.com/unpaired-image-to-image-translation-withcyclegan/ [35] O. Ronneberger, P. Fischer, y T. Brox, “U-Net: Convolutional Networks for Biomedical Image Segmentation”, 2015, [Internet]. Disponible en: http://arxiv.org/abs/1505.04597 [36] D. Bank, N. Koenigstein, y R. Giryes, “Autoencoders”, ArXiv, 2020, [Internet]. Disponible en: http://arxiv.org/abs/2003.05991 [37] R. Khosla, “Auto-Encoders for Computer Vision: An Endless world of Possibilities”, Data Science Blogathon, 2021. [38] Y. Zhang, “A Better Autoencoder for Image: Convolutional Autoencoder”, 2018. [Internet]. Disponible en: https://www.semanticscholar.org/paper/ABetter-Autoencoder-for-Image%3A-ConvolutionalZhang/b1786e74e233ac21f503f59d03f6af19a3699024 [39] K. He y X. Zhang, “Deep residual learning for image recognition”, Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 770- 778, 2016 [40] J.-Y. Zhu, T. Park, P. Isola, y A. A. Efros, “Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks”, mar. 2017, [Internet]. Disponible en: http://arxiv.org/abs/1703.10593 [41] H. Bansal y A. Rathore, “Understanding and Implementing CycleGAN in TensorFlow”. Accedido: 13 de noviembre de 2022. [Internet]. Disponible en: https://hardikbansal.github.io/CycleGANBlog/#Understanding-andImplementing-CycleGAN-in-TensorFlow [42] Shahil, “Understanding PatchGAN”. Accedido: 19 de noviembre de 2022. [Internet]. Disponible en: https://sahiltinky94.medium.com/understandingpatchgan-9f3c8380c207 [43] T. Ganokratanaa, S. Aramvith, y N. Sebe, “Unsupervised Anomaly Detection and Localization Based on Deep Spatiotemporal Translation Network”, IEEE Access, vol. 8, pp. 50312-50329, 2020, DOI: 10.1109/ACCESS.2020.2979869. [44] Y. Jia et al., “Multipath Ghost and Side/Grating Lobe Suppression Based on Stacked Generative Adversarial Nets in MIMO Through-Wall Radar Imaging”, IEEE Access, vol. 7, pp. 143367-143380, 2019, DOI: 10.1109/ACCESS.2019.2945859. [45] J.-Y. Zhu, T. Park, P. Isola, y A. A. Efros, “Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks Monet Photos”, en 2017 IEEE International Conference on Computer Vision (ICCV), IEEE, oct. 2017, pp. 2242-2251. DOI: 10.1109/ICCV.2017.244. [46] Y. Taigman, A. Polyak, y L. Wolf, “Unsupervised Cross-Domain Image Generation”, ArXiv, 2016. [47] Sahil, “Understanding PatchGAN”. Medium”. [Internet]. Disponible en: https://sahiltinky94.medium.com/understanding-patchgan-9f3c8380c207 [48] A. Horé y D. Ziou, “Image quality metrics: PSNR vs. SSIM”, en Proceedings - International Conference on Pattern Recognition, 2010, pp. 2366-2369. DOI: 10.1109/ICPR.2010.579. [49] Engineer Ambitiously, “Peak Signal-to-Noise Ratio as an Image Quality Metric”. Accedido: 10 de noviembre de 2022. [Internet]. Disponible en: https://www.ni.com/en-gb/innovations/white-papers/11/peak-signal-to-noiseratio-as-an-image-quality-metric.html [50] The Institution of Engineering and Technology, “Is there a relationship between peak-signal-to-noise ratio and structural similarity index measure?” Accedido: 10 de noviembre de 2022. [Internet]. Disponible en: https://ietresearch.onlinelibrary.wiley.com/DOI/full/10.1049/iet-ipr.2012.0489 [51] Z. Wang, A. C. Bovik, H. R. Sheikh, y E. P. Simoncelli, “Image quality assessment: From error visibility to structural similarity”, IEEE Transactions on Image Processing, vol. 13, n.o 4, pp. 600-612, abr. 2004, DOI: 10.1109/TIP.2003.819861. [52] H. Yeganeh, “Cross Dynamic Range And Cross Resolution Objective Image Quality Assessment With Applications”, UWSpace, 2014, [Internet]. Disponible en: http://hdl.handle.net/10012/8667 [53] S. Sonawane y A. Deshpande, “Image Quality Assessment Techniques: An Overview”, International Journal of Engineering Research & Technology (IJERT) ISSN: 2278-0181, vol. 3, abr. 2014, Accedido: 19 de abril de 2023. [Internet]. Disponible en: https://www.ijert.org/research/image-qualityassessment-techniques-an-overview-IJERTV3IS041919.pdf [54] K. Shrimali, “Image Quality Assessment: BRISQUE”. Accedido: 19 de abril de 2023. [Internet]. Disponible en: https://learnopencv.com/image-qualityassessment-brisque/ [55] E. Eldarova y V. Starovoitov, “Comparative analysis of universal methods no reference quality assessment of digital images”, J Theor Appl Inf Technol, vol. 99, may 2021, Accedido: 19 de abril de 2023. [Internet]. Disponible en: http://www.jatit.org/volumes/Vol99No9/5Vol99No9.pdf [56] J.-Y. Zhu et al., “Toward Multimodal Image-to-Image Translation”, Advances in Neural Information Processing Systems NIPS, nov. 2017, DOI: 10.48550/arXiv.1711.11586. [57] C. Rosado, Comunicación por satélite: principios, tecnología y sistemas, Second Ed. Mexico: Limusa, 2009. [58] J. D. Lencinas y G. M. Díaz, “Corrección geométrica de datos satelitales QuickBird, incidencia de los modelos digitales de elevación SRTM-C/X y ASTER GDEM”, [Internet]. Disponible en: www.geo-focus.org [59] J. A. Richards, Remote Sensing Digital Image Analysis, Sixth Ed. Switzerland, 2022. [60] V. Olaya, “Sistemas de Información Geográfica libres y geodatos libres como elementos de desarrollo”, pp. 337-375, 2020, Accedido: 3 de octubre de 2022. [Internet]. Disponible en: https://upcommons.upc.edu/bitstream/handle/2099/7584/08_TIG_05_victor. pdf;jsessionid=3930436456DA616DF65040040167D9F7?sequence=1 [61] J. Vila y D. Varga, “Capítulo 15 Los Sistemas De Información Geográfica “, en Evaluación y prevención de riesgos Ambientales en Centroamérica, Spanish Ed., Pilar Andrés Pastor y Ramona Rodríguez Pérez, Eds., Documenta Universitaria, 2008. [62] F. Dávila, “Georreferenciación de documentos cartográficos para la gestión de Archivos y Cartotecas. Propuesta Metodológica”, 2012, [Internet]. Disponible en: http://www.ign.es/web/resources/docs/IGNCnig/CTCIbercarto-V-Georreferenciacion.pdf [63] Roberto, “Corrección radiométrica de imágenes satélite”. 6 de febrero de 2018. Accedido: 3 de octubre de 2022. [Internet]. Disponible en: http://www.gisandbeers.com/correccion-radiometrica-imagenes-satelite/ [64] M. Sanabria, “La Corrección Atmosférica en las Imágenes de Satélite, una Necesidad para Mejorar la Interpretación de Coberturas Boscosas en Colombia”, Feria Geomática Andina, 2018. [65] M. Ángel, M. Callejo, y B. Poveda, “Metadatos Implícitos de la Información Geográfica: Caracterización del Coste Temporal y de los Tipos y Tasas de Errores en la Compilación Manual”, 2009, [Internet]. Disponible en: www.geofocus.org [66] F. Radilla López, S. V. Chapa, y V. México, “Modelado de datos para base de datos espaciales. Caso de estudio: sistemas de información geográfica”, Trabajo de Investigación, Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional, México, 2008. [Internet]. Disponible en: http://webserver.cs.cinvestav.mx/Estudiantes/TesisGraduados/2008/tesisFlo rRadilla.pdf [67] L. Hawker, P. Bates, J. Neal, y J. Rougier, “Perspectives on Digital Elevation Model (DEM) Simulation for Flood Modeling in the Absence of a HighAccuracy Open Access Global DEM”, Front Earth Sci (Lausanne), vol. 6, dic. 2018, DOI: 10.3389/feart.2018.00233. [68] N. A. Sulaiman, F. Husain, K. A. Hashim, I. Ma’arof, y Abd. M. Samad, “A study on the extraction of Digital Elevation Model (DEM) using Remote Sensing and Geographic Information System (GIS) for flood risk assessment”, en 2012 IEEE International Conference on Control System, Computing and Engineering, IEEE, 2012, pp. 568-573. DOI: 10.1109/ICCSCE.2012.6487210. [69] J. Fallas, “Modelos digitales de elevación: Teoría, métodos de interpolación y aplicaciones”, Academia. Accedido: 29 de abril de 2023. [Internet]. Disponible en: https://www.academia.edu/35199035/Modelos_digitales_de_elevaci%C3%B 3n_Teor%C3%ADa_m%C3%A9todos_de_interpolaci%C3%B3n_y_aplicaci ones [70] I. Buitrago Arévalo, “Clasificación y Evaluación de una Imagen Satelital Utilizando los Métodos de Redes Neuronales Artificiales y Segmentación Espacial”, Revista de Topografía AZIMUT, vol. 5, n.o 1, pp. 59-67, 2016. [71] K. He, X. Zhang, S. Ren, y J. Sun, “Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition”, China, 2015. DOI: 10.1109/TPAMI.2015.2389824. [72] G. Rodríguez y M. Chica Rivas, “Clasificación de imágenes de satélite mediante software libre nuevas tendencias en algoritmos de Inteligencia Artificial”, en XV Congreso Nacional de Tecnologías de Información Geográfica, Prisma, Ed., Madrid, 2012, pp. 627-634. [73] W. Han, R. Feng, L. Wang, y Y. Cheng, “A semi-supervised generative framework with deep learning features for high-resolution remote sensing image scene classification”, ISPRS Journal of Photogrammetry and Remote Sensing, vol. 145, pp. 23-43, 2018, DOI: 10.1016/j.isprsjprs.2017.11.004. [74] E. Kalinicheva, J. Sublime, y M. Trocan, “Neural Network Autoencoder for Change Detection in Satellite Image Time Series”, en 2018 25th IEEE International Conference on Electronics, Circuits and Systems (ICECS), IEEE, dic. 2018, pp. 641-642. DOI: 10.1109/ICECS.2018.8617850. [75] O. Russakovsky et al., “ImageNet Large Scale Visual Recognition Challenge”, ArXiv Computer Vision and Pattern Recognition, 2014, [Internet]. Disponible en: http://arxiv.org/abs/1409.0575 [76] Y. LeCun, Y. Bengio, y G. Hinton, “Deep learning”, Nature, vol. 521, n.o 7553, pp. 436-444, 2015, DOI: 10.1038/nature14539. [77] G. Hinton et al., “Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups”, IEEE Signal Process Mag, vol. 29, n.o 6, pp. 82-97, 2012, DOI: 10.1109/MSP.2012.2205597. [78] T. Karras NVIDIA y S. Laine NVIDIA, “A Style-Based Generator Architecture for Generative Adversarial Networks Timo Aila NVIDIA”, Neural and Evolutionary Computing, 2019, [Internet]. Disponible en: https://github.com/NVlabs/stylegan [79] C. Ledig et al., “Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network”. ArXiv Computer Vision and Pattern Recognition, 2017, pp.19, ArXiv:1609.04802v5. [80] F. Li, L. Ma, y J. Cai, “Multi-Discriminator Generative Adversarial Network for High Resolution Gray-Scale Satellite Image Colorization”, en IGARSS 2018 - 2018 IEEE International Geoscience and Remote Sensing Symposium, Valencia: IEEE, jul. 2018, pp. 3489-3492. DOI: 10.1109/IGARSS.2018.8517930. [81] M. Chu, Y. Xie, J. Mayer, L. Leal-Taixé, y N. Thuerey, “Learning temporal coherence via self-supervision for GAN-based video generation”, ACM Trans Graph, vol. 39, n.o 4, 2020, DOI: 10.1145/3386569.3392457. [82] J.-Y. Zhu, T. Park, P. Isola, A. A. Efros, y B. A. Research, “Unpaired Imageto-Image Translation using Cycle-Consistent Adversarial Networks Monet Photos”. [Internet]. Disponible en: https://github.com/junyanz/CycleGAN. [83] Y. Pang, J. Lin, T. Qin, y Z. Chen, “Image-to-Image Translation: Methods and Applications”, ArXiv Computer Vision and Pattern Recognition, ene. 2021, [Internet]. Disponible en: http://arxiv.org/abs/2101.08629 [84] B. Liu, “Generative Adversarial Networks in Tensorflow 2.0”, TensorFlow.org. Accedido: 13 de noviembre de 2022. [Internet]. Disponible en: https://www.springml.com/blog/generative-adversarial-networks-tensorflow2/ [85] M.-Y. Liu et al., “Few-Shot Unsupervised Image-to-Image Translation”, ArXiv Computer Vision and Pattern Recognition, 2019, [Internet]. Disponible en: https://github.com/NVlabs/FUNIT. [86] C. Pacheco, H. Francisco, D. Valle, C. Delrieux, y G. Bianchi, “Procesamiento Inteligente de Imágenes Satelitales Métodos avanzados y acelerados de segmentación y fusión de información”, XVI Workshop de Investigadores en Ciencias de la Computación, 2014, DOI: 10.13140/2.1.4380.5764. [87] S. Kumar y R. K. Aggarwal, “Object Recognition using Sparse Autoencoder with Convolutional Neural Network”, en 2018 2nd International Conference on I-SMAC (IoT in Social, Mobile, Analytics and Cloud) (I-SMAC)I-SMAC (IoT in Social, Mobile, Analytics and Cloud) (I-SMAC), 2018 2nd International Conference on, IEEE, 2018, pp. 241-246. DOI: 10.1109/ISMAC.2018.8653649. [88] H. Ghassemian, “A review of remote sensing image fusion methods”, Information Fusion, vol. 32, pp. 75-89, 2016, DOI: 10.1016/j.inffus.2016.03.003. [89] A. Azarang, H. E. Manoochehri, y N. Kehtarnavaz, “Convolutional Autoencoder-Based Multispectral Image Fusion”, IEEE Access, vol. 7, pp. 35673-35683, 2019, DOI: 10.1109/ACCESS.2019.2905511. [90] M. Lavreniuk, N. Kussul, y A. Novikov, “Deep Learning Crop Classification Approach Based on Sparse Coding of Time Series of Satellite Data”, en IGARSS 2018 - 2018 IEEE International Geoscience and Remote Sensing Symposium, IEEE, 2018, pp. 4812-4815. DOI: 10.1109/IGARSS.2018.8518263. [91] A. O. B. Özdemir, B. E. Gedik, y C. Y. Y. Çetin, “Hyperspectral classification using stacked autoencoders with deep learning”, en Workshop on Hyperspectral Image and Signal Processing, Evolution in Remote Sensing, IEEE Computer Society, oct. 2017. DOI: 10.1109/WHISPERS.2014.8077532. [92] I. P. Yamshchikov y A. Tikhonov, “Music generation with variational recurrent autoencoder supported by history”, SN Appl Sci, vol. 2, n.o 12, 2020, DOI: 10.1007/s42452-020-03715-w. [93] Q. Meng, D. Catchpoole, D. Skillicorn, y P. J. Kennedy, “Relational Autoencoder for Feature Extraction”, 2017 International Joint Conference on Neural Networks (IJCNN), 2018, DOI: 10.1109/IJCNN.2017.7965877. [94] D. P. Kingma y M. Welling, “Auto-Encoding Variational Bayes”, Statistics Machine Learning, 2022, [Internet]. Disponible en: http://arxiv.org/abs/1312.6114 [95] A. Krizhevsky, I. Sutskever, y G. E. Hinton, “ImageNet classification with deep convolutional neural networks”, Advances in Neural Information Processing Systems 25 (NIPS 2012), vol. 60, n.o 6, pp. 84-90, 2017, DOI: 10.1145/3065386. [96] K. Simonyan y A. Zisserman, “Very Deep Convolutional Networks for LargeScale Image Recognition”, ArXiv Computer Vision and Pattern Recognition, 2014, [Internet]. Disponible en: http://arxiv.org/abs/1409.1556 [97] D. Woodward, E. Stevens, y E. Linstead, “Generating Transit Light Curves with Variational Autoencoders”, en 2019 IEEE International Conference on Space Mission Challenges for Information Technology (SMC-IT), IEEE, 2019, pp. 24-32. DOI: 10.1109/SMC-IT.2019.00008. [98] K. Enomoto et al., “Filmy Cloud Removal on Satellite Imagery with Multispectral Conditional Generative Adversarial Nets”, Computer Vision and Pattern Recognition, 2017, DOI: 10.1109/CVPRW.2017.197. 200 [99] M. Mirza y S. Osindero, “Conditional Generative Adversarial Nets”, nov. 2014, [Internet]. Disponible en: http://arxiv.org/abs/1411.1784 [100] P. Singh, N. Komodakis, y N. Komodakisécole, “Cloud-GAN: Cloud Removal for Sentinel-2 Imagery Using a Cyclic Consistent Generative Adversarial Network”, IEEE International Geoscience and Remote Sensing Symposium, 2018, DOI: 10.1109/IGARSS.2018.8519033. [101] B. Uzkent y V. Sarukkai, “Cloud removal in satellite images using Spatiotemporal Generative Networks”, Computer Vision and Pattern Recognition, 2020 [102] M. A. Zaytar y C. El Amrani, “Satellite image inpainting with deep generative adversarial neural networks”, IAES International Journal of Artificial Intelligence, vol. 10, n.o 1, pp. 121-130, 2021, DOI: 10.11591/ijai.v10.i1.pp121-130. [103] R. Suvorov et al., “Resolution-robust Large Mask Inpainting with Fourier Convolutions”, Computer Vision and Pattern Recognition, vol. 2, 2022, [Internet]. Disponible en: https://github.com/saic-mdal/lama. [104] Comisión Europea, “Propuesta de Normas Armonizadas en Materia de Inteligencia Artificial”, Bruselas, 2021. [Internet]. Disponible en: https://ec.europa.eu/info/sites/default/files/political-guidelines-nextcommission_es_0.pdf. [105] Presidencia de la República de Colombia, “Decreto 2442 por el cual se crea la política espacial del país, Bogotá, Colombia”. Colombia, 21 de julio de 2006. [Internet]. Disponible en: https://www.funcionpublica.gov.co/eva/gestornormativo/norma.php?i=66645 [106] Función Pública de la República de Colombia, “Decreto 2516 de 2013”. 15 de noviembre de 2013. [Internet]. Disponible en: https://www.funcionpublica.gov.co/eva/gestornormativo/norma.php?i=67836 [107] Sector Administrativo de Defensa y Presidencia de Colombia, Decreto 2258 de 2018. Colombia: https://www.funcionpublica.gov.co/eva/gestornormativo/norma.php?i=89940 , 2018. [108] Consejo Nacional de Política Económica y Social República de Colombia Departamento Nacional de Planeación, “Documento CONPES 3683”. 6 de agosto de 2010. [109] Departamento Nacional de Planeación, Departamento Administrativo de la Presidencia de la República, y Ministerio de Defensa Nacional, “Política de Desarrollo Espacial: Condiciones Habilitantes para el Impulso de la Competitividad Nacional”, ene. 2020, Accedido: 29 de abril de 2023. [Internet]. Disponible en: https://colaboracion.dnp.gov.co/CDT/Conpes/Econ%C3%B3micos/3983.pdf [110] Congreso de Colombia y Función Pública, “Ley 23 de 1982”. 28 de enero de 1982. [Internet]. Disponible en: https://www.funcionpublica.gov.co/eva/gestornormativo/norma.php?i=3431 [111] Función Pública, “Constitución Política de Colombia 1991. Articulo 216”. 1991. Accedido: 17 de octubre de 2022. [Internet]. Disponible en: https://pdba.georgetown.edu/Constitutions/Colombia/colombia91.pdf [112] J. Méndez, “Propuesta de una estrategia para contrarrestar la dependencia de Colombia en sistemas de navegación satelital no propios, una perspectiva militar”, Trabajo de Investigación, Fuerza Aérea Colombiana, Cali, 2022. [Internet]. Disponible en: https://repositorio.craifac.com/xmlui/handle/20.500.12963/822 [113] J. Delgado y S. Muñoz, “Determination of an Operational Orbit for the FACSAT 2 Earth Observation Satellite Mission”, Fuerza Aérea Colombiana, Cali, 2023. DOI: https://DOI.org/10.11144/Javeriana.iued27.doof. [114] L. Durango, “Diseño de un sistema de planeación para la adquisición de partes y componentes para ensamblar un satélite CubeSAT de 3U”, Fuerza Aérea Colombiana, Cali, 2021. [115] L. Jaramillo, A. Moreno, Y. Gallardo de Parada, M. Tamayo, y L. Uribe, Aprender a Investigar, 3.a ed. ICFES, 1999. [Internet]. Disponible en: https://academia.utp.edu.co/grupobasicoclinicayaplicadas/files/2013/06/2.- La-Investigaci%C3%B3n-APRENDER-A-INVESTIGAR-ICFES.pdf [116] C. Tamayo y I. Siesquén, Técnicas e Instrumentos de Recolección de Datos. [Internet]. Disponible en: https://gc.scalahed.com/recursos/files/r161r/w24860w/Tecnicas_Instrument osS2.pdf [117] J. Brownlee, “A Gentle Introduction to Generative Adversarial Networks (GANs)”, Machine Learning Mastery. [Internet]. Disponible en: https://machinelearningmastery.com/what-are-generative-adversarialnetworks-gans/ [118] K. M. Kahloot y P. Ekler, “Algorithmic Splitting: A Method for Dataset Preparation”, IEEE Access, vol. 9, pp. 125229-125237, 2021, DOI: 10.1109/ACCESS.2021.3110745. [119] J. Tan, J. Yang, S. Wu, G. Chen, y J. Zhao, “A critical look at the current train/test split in machine learning”, 2021, [Internet]. Disponible en: http://arxiv.org/abs/2106.04525 [120] G. Ambrosio, J. González-Jiménez, y V. Arévalo, “Corrección Radiométrica y Geométrica de Imágenes para la Detección de Cambios en una Serie Temporal”, 2002. [Internet]. Disponible en: https://www.researchgate.net/publication/266478620 [121] U.S. Geological Survey, LandSat7 Image Area Rio Mississippi frontera Tennessee y Arkansas, Estados Unidos, (2016). [Internet Video]. Disponible en: https://earthexplorer.usgs.gov/ [122] U.S. Geological Survey, “LandSat 7 Image Oeste de Colt, Arkansas, Estados Unidos”, https://earthexplorer.usgs.gov/. 2019. [123] U.S. Geological Survey, “LandSat 7 Image Hunter, Arkansas, Estados Unidos”, https://earthexplorer.usgs.gov/. 2019. [124] U.S. Geological Survey, “LandSat 7 Image Pacífico Colombiano, Chocó - Valle del Cauca, Colombia”, https://earthexplorer.usgs.gov/. 2019. [125] R. Mourya, “Resolving CUDA Being Out of Memory with Gradient Accumulation and AMP”, Towards Data Science, 2020, [Internet]. Disponible en: https://towardsdatascience.com/i-am-so-done-with-cuda-out-of-memoryc62f42947dca [126] J. Brownlee, “How to Implement Pix2Pix GAN Models from Scratch With Keras”, Machine Learning Mastery, 2019, [Internet]. Disponible en: https://machinelearningmastery.com/how-to-implement-pix2pix-gan-modelsfrom-scratch-with-keras/ [127] U.S. Geological Survey, “LandSat 7 Image Hernando, Misisipi, Estados Unidos”, https://earthexplorer.usgs.gov/. 2019. [128] U.S. Geological Survey, “LandSat 7 Image Mande - Urrao, Antioquia, Colombia”, https://earthexplorer.usgs.gov/. 2019. [129] U.S. Geological Survey, “LandSat 7 Image Reposo - Puerto Rico, Meta, Colombia”, https://earthexplorer.usgs.gov/. 2021. [130] U.S. Geological Survey, “LandSat 7 Image Ahaggar National Park, Tamanrasset, Argelia “, https://earthexplorer.usgs.gov/. 2021. [131] U.S. Geological Survey, “LandSat 7 Image Tangui - Medio Atrato, Chocó, Colombia”, https://earthexplorer.usgs.gov/. 2022. [132] U.S. Geological Survey, “LandSat 7 Image Bahía Solano, Chocó, Colombia “, https://earthexplorer.usgs.gov/. 2021. [133] U.S. Geological Survey, “LandSat 7 Image Memphis, Tennessee, Estados Unidos”, https://earthexplorer.usgs.gov/. 2021. [134] U.S. Geological Survey, “LandSat 7 Image Cartagena del Chairá, Caquetá, Colombia”, https://earthexplorer.usgs.gov/. 2022. [135] Y. Wang, C. Wu, L. Herranz, y A. Gonzalez, “Transferring gans: generating images from limited data.”, Proceedings of the European Conference on Computer Vision, pp. 218-234, 2018. [136] S. Barreto, “What is Fine-tuning in Neural Networks?”, Baeldung. [Internet]. Disponible en: https://www.baeldung.com/cs/fine-tuning-nn [137] S. Mo, M. Cho, y J. Shin, “Freeze the discriminator: a simple baseline for finetuning GANS”, 2020. [138] U.S. Geological Survey, “LandSat 7 Image Crenshaw, Misisipi, Estados Unidos”, https://earthexplorer.usgs.gov/, 2022. [139] U.S. Geological Survey, “LandSat 7 Image Florián, Santander, Colombia”, https://earthexplorer.usgs.gov/, 2022. [140] E. Chuvieco, N. Koutsias, y M. Karteris, “The Use of Intensity-Hue-Saturation Transformation of Landsat-5 Thematic Mapper Data for Burned Land Mapping”, Photogramm Eng Remote Sensing, vol. 66, pp. 829-839, 2000, [Internet]. Disponible en: https://www.asprs.org/wpcontent/uploads/pers/2000journal/july/2000_jul_829-839.pdf [141] Fuerza Aeroespacial Colombiana, “FACSAT-1 Image Departamento de Caldas-Colombia. “. 2021. [142] Fuerza Aeroespacial Colombiana, “FACSAT-1 Image BarranquillaColombia”. 2019. [143] Fuerza Aeroespacial Colombiana, “FACSAT-1 Image Pereira-Manizales”. 2020. [144] Fuerza Aeroespacial Colombiana, “FACSAT-1 Image Maracaibo-Venezuela”. 2020. [145] Fuerza Aeroespacial Colombiana, “FACSAT-1 Image Boyacá-Colombia”. 2021. [146] C. Shorten y T. M. Khoshgoftaar, “A survey on Image Data Augmentation for Deep Learning”, J Big Data, vol. 6, n.o 1, p. 60, dic. 2019, DOI: 10.1186/s40537-019-0197-0. [147] L. Wei, “Image Data Augmentation for Deep Learning”, Towards Data Science. [Internet]. Disponible en: https://towardsdatascience.com/imagedata-augmentation-for-deep-learning77a87fabd2bf#:~:text=What%20is%20Image%20Data%20Augmentation%3 F,the%20image%20horizontally%20or%20vertically [148] M. T. García-Ordás, J. A. Benítez-Andrades, I. García-Rodríguez, C. Benavides, y H. Alaiz-Moretón, “Detecting Respiratory Pathologies Using Convolutional Neural Networks and Variational Autoencoders for Unbalancing Data”, Sensors, vol. 20, n.o 4, p. 1214, 2020, DOI: 10.3390/s20041214. [149] D. Ulyanov, A. Vedaldi, y V. Lempitsky, “Instance Normalization: The Missing Ingredient for Fast Stylization”, jul. 2016. [150] C. Tian, Y. Xu, L. Fei, J. Wang, J. Wen, y N. Luo, “Enhanced CNN for image denoising”, ArXiv Computer Vision and Pattern Recognition, vol. 4, 2019, DOI: 10.1049/trit.2018.1054. [151] C. Thomas, “Deep learning image enhancement insights on loss function engineering”, Toward the Data Science, 2020, [Internet]. Disponible en: https://towardsdatascience.com/deep-learning-image-enhancementinsights-on-loss-function-engineering-f57ccbb585d7 [152] Fuerza Aeroespacial Colombiana, “FACSA-1 Image Zulia-Venezuela”. 2021. [153] Fuerza Aeroespacial Colombiana, “FACSAT-1 Image Santander-Puerto Wilches”, 2021. [154] L. Santillán, “¿Cómo afectan las nubes el clima en la Tierra?”, Universidad Nacional de Mexico. Accedido: 19 de noviembre de 2022. [Internet]. Disponible en: https://ciencia.unam.mx/leer/1136/-como-afectan-las-nubesel-clima-en-la-tierra- [155] Organización Meteorológica Mundial (OMM), Atlas Internacional de Nubes Manual de observación de nubes y otros meteoros (OMM-No 407). [Internet]. Disponible en: https://www.divulgameteo.es/fotos/meteoroteca/Manual-nubes-meteorosOMM.pdf [156] M. D. King, S. Platnick, W. P. Menzel, S. A. Ackerman, y P. A. Hubanks, “Spatial and temporal distribution of clouds observed by MODIS onboard the terra and aqua satellites”, IEEE Transactions on Geoscience and Remote Sensing, vol. 51, n.o 7, pp. 3826-3852, 2013, DOI: 10.1109/TGRS.2012.2227333. [157] V. Dessi, “How much cloud cover is there? Readers give their answers”, NewScientist, 2020. Accedido: 20 de noviembre de 2022. [Internet]. Disponible en: https://www.newscientist.com/lastword/mg24632872-100- how-much-cloud-cover-is-there-readers-give-their-answers/ [158] J. Liedtke, “The Cloud Eradicator”, ArcGIS Blog. ESRI. Accedido: 20 de noviembre de 2022. [Internet]. Disponible en: https://www.esri.com/arcgisblog/products/arcgis-pro/imagery/the-cloud-eradicator/ [159] C. Danang, S. Phinn, y P. Scarth, “Cloud and cloud shadow removal of landsat 8 images using Multitemporal Cloud Removal method”, 2017 6th International Conference on Agro-Geoinformatics, vol. 6, 2017, DOI: 10.1109/Agro-Geoinformatics.2017.8047007. [160] W. Du, Z. Qin, J. Fan, M. Gao, F. Wang, y B. Abbasi, “An efficient approach to remove thick cloud in VNIR bands of multi-temporal remote sensing images”, Remote Sens (Basel), vol. 11, n.o 11, 2019, DOI: 10.3390/rs11111284. [161] NV5 GeoSpatial, “Build Layer Stacks”. [Internet]. Disponible en: https://www.nv5geospatialsoftware.com/docs/BuildBandStacks.html [162] Repository University Technical Munich, “Sentinel-2, Colombia”. 2021. [163] Y. Kang, S. Gao, y R. E. Roth, “Transferring multiscale map styles using generative adversarial networks”, International Journal of Cartography, vol. 5, n.o 2-3, 2019, DOI: 10.1080/23729333.2019.1615729. [164] O. Ronneberger, P. Fischer, y T. Brox, “U-Net: Convolutional Networks for Biomedical Image Segmentation”, vol. 9351, pp. 234-241, 2015. DOI: 10.48550/arXiv.1505.04597. [165] S. Faiyaz, “Understanding PatchGAN.” [Internet]. Disponible en: https://sahiltinky94.medium.com/understanding-patchgan-9f3c8380c207 [166] B. Zhou, A. Lapedriza, A. Khosla, A. Oliva, y A. Torralba, “Places: A 10 million Image Database for Scene Recognition”, 2018. DOI: 10.1109/TPAMI.2017.2723009. [167] U.S. Geological Survey, “LandSat 8 Image Villa del Rosario, Zulia, Venezuela”, https://earthexplorer.usgs.gov/. 2022. [168] Repository University Technical of Munich, “Sentinel-2, Image Alemania”. 2021. [169] U.S. Geological Survey, “Sentinel 2 Image Ghent, Belgica”, https://earthexplorer.usgs.gov/. 2022. [170] NASA, “USGS EarthExplorer”. [Internet]. Disponible en: https://lpdaac.usgs.gov/tools/usgsearthexplorer/#:~:text=The%20EarthExplorer%20(EE)%20user%20interface ,and%20other%20remote%20sensing%20inventories. [171] U.S. Geological Survey, “LandSat-8, Image La Felisa - La Merced, Caldas, Colombia”, https://earthexplorer.usgs.gov/. [172] U.S. Geological Survey, “LandSat 8 Image El Porvenir - Santa Ana, Magdalena, Colombia “, https://developers.google.com/earthengine/datasets/catalog/landsat-8. [173] U.S. Geological Survey, “LandSat 8 Image Polacos - Valdivia, Antioquia, Colombia “, https://developers.google.com/earthengine/datasets/catalog/landsat-8. 2021. [174] U.S. Geological Survey, “LandSat 8 Image Parque Cerro del Santísimo - Floridablanca, Santander, Colombia “, https://developers.google.com/earthengine/datasets/catalog/landsat-8. [175] E. E. Cortés, A. P. Pinzon, M. E. Melo, Y. Morales, G. Contratista, y E. I. Granados, “Procedimiento para la evaluación y reporte de Calidad de datos geográficos”, 2021. [Internet]. Disponible en: https://www.ideca.gov.co/sites/default/files/20210422ProceReporteCalidadD atosgeoAprovPublicacion2_0.pdf [176] W. Zheng, Q. Li, G. Zhang, P. Wan, y Z. Wang, “ITTR: Unpaired Image-toImage Translation with Transformers”, ArXiv, 2022, DOI: https://DOI.org/10.48550/arXiv.2203.16015. 208 [177] Y. Jiang, S. Chang, y Z. Wang, “TransGAN: Two Pure Transformers Can Make One Strong GAN, and That Can Scale Up”, ArXiv, n.o 4, 2021, [Internet]. Disponible en: http://arxiv.org/abs/2102.07074 |
dc.rights.spa.fl_str_mv |
Derechos reservados - Universidad Autónoma de Occidente, 2023 |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_14cb |
dc.rights.uri.eng.fl_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0/ |
dc.rights.accessrights.eng.fl_str_mv |
info:eu-repo/semantics/closedAccess |
dc.rights.creativecommons.spa.fl_str_mv |
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) |
rights_invalid_str_mv |
Derechos reservados - Universidad Autónoma de Occidente, 2023 https://creativecommons.org/licenses/by-nc-nd/4.0/ Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) http://purl.org/coar/access_right/c_14cb |
eu_rights_str_mv |
closedAccess |
dc.format.extent.spa.fl_str_mv |
210 páginas |
dc.format.mimetype.none.fl_str_mv |
application/pdf |
dc.publisher.spa.fl_str_mv |
Universidad Autónoma de Occidente |
dc.publisher.program.spa.fl_str_mv |
Doctorado en Ingeniería |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ingeniería |
dc.publisher.place.spa.fl_str_mv |
Cali |
institution |
Universidad Autónoma de Occidente |
bitstream.url.fl_str_mv |
https://red.uao.edu.co/bitstreams/7c9e94f3-95c9-4bfc-803f-7e411c6dae3b/download https://red.uao.edu.co/bitstreams/6c7b3f74-fdb1-4172-bb7b-e0fb256c5380/download https://red.uao.edu.co/bitstreams/da9797a8-cb71-467a-993e-14b3b2b08eda/download https://red.uao.edu.co/bitstreams/3d23086e-9a77-4fea-aebd-0e3b94865105/download https://red.uao.edu.co/bitstreams/574090fb-d955-4d76-8480-b5b54ec12d1f/download https://red.uao.edu.co/bitstreams/490ca799-64d2-473c-b54c-f222d5790a59/download https://red.uao.edu.co/bitstreams/265c4abf-e0f5-41bc-a001-87b183d4ce3a/download |
bitstream.checksum.fl_str_mv |
6987b791264a2b5525252450f99b10d1 3dab548623f6175af0ed925ec3b18fc5 91df55aeff8e717e8d7fae9eec27d43d 7006879391c458280eebd35ae0129df7 ff4c8ff01d544500ea4bfea43e6108c1 008f1f1184b4bf344b6fc67e5c1d4633 da7fbfba579f5cf3223c62a775bac6ea |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Digital Universidad Autonoma de Occidente |
repository.mail.fl_str_mv |
repositorio@uao.edu.co |
_version_ |
1814260025278857216 |
spelling |
López Sotelo, Jesús Alfonsovirtual::2811-1Jiménez Sánchez Jorge Giovanni, codirectorZárate Luna, Paola AndreaUniversidad Autónoma de OccidenteGillen Rondón, PabloOrjuela Cañón, Álvaro David2024-03-07T16:39:13Z2024-03-07T16:39:13Z2023-12-05Zárate Luna, P. A. (2023). Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales. (Tesis). Universidad Autónoma de Occidente. Cali. Colombia. https://hdl.handle.net/10614/15483https://hdl.handle.net/10614/15483Universidad Autónoma de OccidenteRespositorio Educativo Digital UAOhttps://red.uao.edu.co/Actualmente una porción considerable de proyectos de investigación en el contexto de procesamiento de imágenes, se abordan con algoritmos de aprendizaje profundo. Algunos estudios realizados por científicos analistas de datos como Meiyin Wu [1], enuncian que al utilizar en particular las redes convolucionales y generativas, se han logrado resultados significativos en el tratamiento de imágenes, con identificación rápida y asertiva, detección de patrones y generación de nuevos contenidos. La presente investigación tiene como propósito implementar modelos de redes neuronales generativos en procesos de tratamiento de imágenes satelitales, que permitan mejorar u obtener un resultado similar al realizado a través de métodos convencionales al corregir errores radiométricos, geométricos y otras alteraciones causadas por la atmósfera en los pixeles de una imagen. La problemática fue analizada como un todo, donde a través de la experimentación y procedimientos de redes neuronales aplicados a imágenes satelitales, se abordaron algoritmos generativos que luego permitieron establecer comparaciones respecto a otros modelos tradicionales. Gracias a la adecuación e implementación de algoritmos basados en las técnicas de aprendizaje profundo, se mejoró significativamente la calidad de las imágenes satelitales captadas por sensores multiespectrales de baja resolución, así como, la corrección de píxeles distorsionados causados por errores radiométricos, geométricos, y otras alteraciones fijadas por la interferencia de la atmósfera. Finalmente, con esta investigación, se afirma la importancia de generar proyectos que permitan tratar, detectar y cuantificar elementos de la superficie terrestre, de forma automática y en tiempos más reducidos, motivo por el que, en el presente trabajo se muestra el resultado de la aplicación de técnicas de aprendizaje profundo como una alternativa confiable y eficaz, que brinda la posibilidad de procesamiento de imágenes satelitales, poniéndolas a disposición en proyectos de diferente índole, con las siguientes ventajas: aumento de la resolución espacial hasta cuatro veces más en comparación con su tamaño inicial, aplicación de filtros y mejoras con resultados de precisión superiores a los obtenidos tras aplicar métodos convencionales (92,64%), corrección de errores radiométricos como el bandeo con un índice de similitud estructural medio igual al 90%, atenuación de la presencia de factores atmosféricos como la nubosidad con un índice de similitud estructural en promedio de 0.78% y un índice BRISQUE de 17.21% en promedio igualmente. Adicionalmente se logra la generación de modelos de elevación digital con un error cuadrático medio (RMSE) de 124 metros en promedio sobre terrenos en los que no se cuenta con dimensiones o puntos de control tomados en sitio o sobre el terreno.Currently a considerable portion of research projects in the image processing context are addressed with deep learning algorithms. Some studies conducted by data analyst scientists such as Meiyin Wu [1], state that by using convolutional and generative networks, significant results have been achieved in the treatment of images, with rapid and assertive identification, detection of patterns and generation of new content. The purpose of this research is to implement models of generative neural networks in processes of treatment of satellite images, which allow improved or obtaining a similar result of processing it, through conventional methods to correct radiometric errors, geometric and other alterations caused by the atmosphere in the pixels of an image. The problem was analyzed as a whole, where through experimentation and neural network procedures applied to satellite images, generative algorithms were addressed, which later allowed comparisons with other traditional models. Thanks to the adaptation and implementation of algorithms based on deep learning techniques, the quality of satellite images captured by low-resolution multispectral sensors was significantly optimized, also correcting the distorted pixels caused by radiometric, geometric, and other alterations due to atmospheric interference. Finally, with this research, the importance of generating projects that allow to treat, detect and quantify elements of the earth’s surface, automatically and in shorter times is affirmed, reason why, in the present work the result of the application of deep learning techniques is shown as a reliable and effective alternative, which offers the possibility of processing satellite images, making them available in different types of projects, with the following advantages: increasing the spatial resolution by up to four times compared to its initial size, application of filters and improvements with precision results higher than those obtained after applying conventional methods (92.64%), correction of radiometric errors such as the banding with an average structural similarity index equal to 90%, diffusion of the presence of atmospheric factors such as cloudiness with an average structural similarity index of 0.78% and a BRISQUE index of 17.21% on average. Additionally, the generation of digital elevation models is achieved with an average RMSE error of 124 meters on terrain where there are no dimensions or control points taken on site or in the fieldTesis (Doctor en Ingeniería)-- Universidad Autónoma de Occidente, 2023DoctoradoDoctor(a) en Ingeniería210 páginasapplication/pdfspaUniversidad Autónoma de OccidenteDoctorado en IngenieríaFacultad de IngenieríaCaliDerechos reservados - Universidad Autónoma de Occidente, 2023https://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/closedAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_14cbRedes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectralesTrabajo de grado - Doctoradohttp://purl.org/coar/resource_type/c_db06Textinfo:eu-repo/semantics/doctoralThesishttp://purl.org/redcol/resource_type/TDinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a85[1] M. Wu y L. Chen, “Image recognition based on deep learning”, en 2015 Chinese Automation Congress (CAC), IEEE, 2015, pp. 542-546. DOI: 10.1109/CAC.2015.7382560.[2] L. Bleacher y L. Aguiar, “NASA Announces New CubeSat Launch Initiative Partnership Opportunities”. [Internet]. Disponible en: https://www.nasa.gov/press-release/nasa-announces-new-cubesat-launchinitiative-partnership-opportunities[3] P. A. Z. Luna y J. A. L. Sotelo, “Systematic Literature Review: Artificial Neural Networks Applied in Satellite Images”, en 2020 IEEE Colombian Conference on Applications of Computational Intelligence (IEEE ColCACI 2020), IEEE, 2020, pp. 1-6. DOI: 10.1109/ColCACI50549.2020.9247916.[4] Z. L. Paola, L. S. Jesús, A. H. Christian, y R. U. Sonia, “Correction of Banding Errors in Satellite Images with Generative Adversarial Networks (GAN)”, IEEE Access, vol. 11, pp. 51960-51970, 2023, DOI: 10.1109/ACCESS.2023.3279265.[5] “SIG y Teledetección en la Universidad de Murcia (s.f.).” [Internet]. Disponible en: https://www.um.es/geograf/sigmur/index.html [6] J. W. Percival y V. Castelli, “Transmission of Digital Imagery”, en Image Databases, 2002, pp. 241-260. DOI: 10.1002/0471224634.ch9.[7] D. Vargas-Sanabria y C. Campos-Vargas, “Sistema multi-algoritmo para la clasificación de coberturas de la tierra en el bosque seco tropical del Área de Conservación Guanacaste, Costa Rica”, Revista Tecnología en Marcha, vol. 31, n.o 1, p. 58, mar. 2018, DOI: 10.18845/tm.v31i1.3497.[8] Departamento Administrativo de Estadística DANE y Instituto Geográfico Agustín Codazzi IGAC, “CONPES 3585”, 2009, [Internet]. Disponible en: chromeextension://efaidnbmnnnibpcajpcglclefindmkaj/https://colaboracion.dnp.gov. co/CDT/CONPES/Econ%C3%B3micos/3585.pdf 190[9] Departamento Nacional de Planeación (DPN), Departamento Administrativo de la Presidencia de la República, Ministerio de Defensa Nacional, I. y T. Ministerio de Comercio, Ministerio de Tecnologías de la Información y las Comunicaciones, y T. e I. Ministerio de Ciencia, “CONPES 3983”, 2020. [Internet]. Disponible en: chromeextension://efaidnbmnnnibpcajpcglclefindmkaj/https://colaboracion.dnp.gov. co/CDT/Conpes/Econ%C3%B3micos/3983.pdf[10] Fuerza Aérea Colombiana, Estrategia Espacial de la FAC 2022- 2042. 2021. [Internet]. Disponible en: https://www.fac.mil.co/es/edaesfac2042#:~:text=La%20Estrategia%20para %20el%20desarrollo,internacionales%20y%20se%20consolide%20como[11] J. Lopez, Deep Learning Teoria y Aplicaciones, Alphaeditorial. Calí, 2021.[12] E. P. Superior, F. Arribas, J. Tutor, : Daniel, y H. Lobato, “Trabajo de Grado Aprendizaje No-Supervisado con Modelos Generativos Profundos”, 2018. [Internet]. Disponible en: https://repositorio.uam.es/bitstream/handle/10486/688035/arribas_jara_fern ando_tfg.pdf?sequence=1&isAllowed=y[13] M. Pritt y G. Chern, “Satellite Image Classification with Deep Learning”, IEEE Applied Imagery Pattern Recognition Workshop (AIPR), pp. 1-7, 2020.[14] H. M. Keshk y X.-C. Yin, “Satellite super-resolution images depending on deep learning methods: A comparative study”, en 2017 IEEE International Conference on Signal Processing, Communications and Computing (ICSPCC), IEEE, 2017, pp. 1-7. DOI: 10.1109/ICSPCC.2017.8242625.[15] MathWorks, “What is a Convolutional Neural Network?”, Accelerating the pace of engineering and science. [Internet]. Disponible en: https://www.mathworks.com/discovery/convolutional-neural-network.html[16] V. Badrinarayanan, A. Kendall, y R. Cipolla, “SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation”, IEEE Trans Pattern Anal Mach Intell, vol. 39, n.o 12, pp. 2481-2495, 2017, DOI: 10.1109/TPAMI.2016.2644615.[17] A. Zhang, Z. C. Lipton, y M. Li, Dive into Deep Learning, vol. 2. 2021. Accedido: 7 de mayo de 2023. [Internet]. Disponible en: http://preview.d2l.ai/d2l-en/master/ 191[18] D. Foster, Generative deep learning: Teaching Machines to paint, Write, Compose and Play. Estados Unidos: O´Reilly, 2019.[19] S. Pattanayak, Pro Deep Learning with TensorFlow, A Mathematical Approach to Advanced Artificial Intelligence in Python. Bangalore: Apress, 2017.[20] V. Castelli y L. Bergman, Images Databases Search and Retrieval of Digital Imagery. New York: Jonh Willey & Sons, Inc, 2002.[21] D. J. Rezende, S. Mohamed, y D. Wierstra, “Stochastic Backpropagation and Approximate Inference in Deep Generative Models”, 2014.[22] I. Goodfellow et al., “Generative adversarial networks”, Commun ACM, vol. 63, n.o 11, pp. 139-144, 2020, DOI: 10.1145/3422622.[23] ESANN 26. 2018 Brügge et al., Latent representations of transient candidates from an astronomical image difference pipeline using Variational Autoencoders[24] M. Kana, “Generative Adversarial Network (GAN) for Dummies — A Step By Step Tutorial”. Accedido: 13 de noviembre de 2022. [Internet]. Disponible en: https://towardsdatascience.com/generative-adversarial-network-gan-fordummies-a-step-by-step-tutorial-fdefff170391[25] M. Merino, “Conceptos de inteligencia artificial: qué son las GANs o redes generativas antagónicas”, Xataka México. [Internet]. Disponible en: https://www.xataka.com/inteligencia-artificial/conceptos-inteligencia-artificialque-gans-redes-generativas-antagonicas[26] Y. Alshevskaya, “Super-Resolution Image Reconstruction: A Technical Overview Related papers”, 2003. DOI: 10.1109/MSP.2003.1203207.[27] C. Dong, C. C. Loy, K. He, y X. Tang, “Image Super-Resolution Using Deep Convolutional Networks”, 2014, [Internet]. Disponible en: http://arxiv.org/abs/1501.00092[28] H. M. Keshk y X.-C. Yin, “Satellite super-resolution images depending on deep learning methods: A comparative study”, en 2017 IEEE International Conference on Signal Processing, Communications and Computing (ICSPCC), IEEE, 2017, pp. 1-7. DOI: 10.1109/ICSPCC.2017.8242625.[29] J. Hui, “Super Resolution GAN (SRGAN). “. [Internet]. Disponible en: https://jonathan-hui.medium.com/gan-super-resolution-gan-srganb471da7270ec[30] B. Lim, S. Son, H. Kim, S. Nah, y K. M. Lee, “Enhanced Deep Residual Networks for Single Image Super-Resolution”, 2017.[31] S. Tagadiya, “Image Super-Resolution Using EDSR and WDSR”. [Internet]. Disponible en: https://medium.com/mlearning-ai/image-super-resolutionusing-edsr-and-wdsr-f4de0b00e039[32] A. Sharma, “Pix2Pix: Image-to-Image Translation in PyTorch & TensorFlow”, LearnOpenCV, 2021.[33] P. Isola, J.-Y. Zhu, T. Zhou, A. A. Efros, y B. A. Research, “Image-to-Image Translation with Conditional Adversarial Networks”, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1125- 1134, 2017, [Internet]. Disponible en: https://github.com/phillipi/pix2pix.[34] H. Fordjour, “Unpaired Image to Image Translation with CycleGAN”, Paperblog. Accedido: 13 de noviembre de 2022. [Internet]. Disponible en: https://blog.paperspace.com/unpaired-image-to-image-translation-withcyclegan/[35] O. Ronneberger, P. Fischer, y T. Brox, “U-Net: Convolutional Networks for Biomedical Image Segmentation”, 2015, [Internet]. Disponible en: http://arxiv.org/abs/1505.04597[36] D. Bank, N. Koenigstein, y R. Giryes, “Autoencoders”, ArXiv, 2020, [Internet]. Disponible en: http://arxiv.org/abs/2003.05991[37] R. Khosla, “Auto-Encoders for Computer Vision: An Endless world of Possibilities”, Data Science Blogathon, 2021.[38] Y. Zhang, “A Better Autoencoder for Image: Convolutional Autoencoder”, 2018. [Internet]. Disponible en: https://www.semanticscholar.org/paper/ABetter-Autoencoder-for-Image%3A-ConvolutionalZhang/b1786e74e233ac21f503f59d03f6af19a3699024[39] K. He y X. Zhang, “Deep residual learning for image recognition”, Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 770- 778, 2016[40] J.-Y. Zhu, T. Park, P. Isola, y A. A. Efros, “Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks”, mar. 2017, [Internet]. Disponible en: http://arxiv.org/abs/1703.10593[41] H. Bansal y A. Rathore, “Understanding and Implementing CycleGAN in TensorFlow”. Accedido: 13 de noviembre de 2022. [Internet]. Disponible en: https://hardikbansal.github.io/CycleGANBlog/#Understanding-andImplementing-CycleGAN-in-TensorFlow[42] Shahil, “Understanding PatchGAN”. Accedido: 19 de noviembre de 2022. [Internet]. Disponible en: https://sahiltinky94.medium.com/understandingpatchgan-9f3c8380c207[43] T. Ganokratanaa, S. Aramvith, y N. Sebe, “Unsupervised Anomaly Detection and Localization Based on Deep Spatiotemporal Translation Network”, IEEE Access, vol. 8, pp. 50312-50329, 2020, DOI: 10.1109/ACCESS.2020.2979869.[44] Y. Jia et al., “Multipath Ghost and Side/Grating Lobe Suppression Based on Stacked Generative Adversarial Nets in MIMO Through-Wall Radar Imaging”, IEEE Access, vol. 7, pp. 143367-143380, 2019, DOI: 10.1109/ACCESS.2019.2945859.[45] J.-Y. Zhu, T. Park, P. Isola, y A. A. Efros, “Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks Monet Photos”, en 2017 IEEE International Conference on Computer Vision (ICCV), IEEE, oct. 2017, pp. 2242-2251. DOI: 10.1109/ICCV.2017.244.[46] Y. Taigman, A. Polyak, y L. Wolf, “Unsupervised Cross-Domain Image Generation”, ArXiv, 2016.[47] Sahil, “Understanding PatchGAN”. Medium”. [Internet]. Disponible en: https://sahiltinky94.medium.com/understanding-patchgan-9f3c8380c207[48] A. Horé y D. Ziou, “Image quality metrics: PSNR vs. SSIM”, en Proceedings - International Conference on Pattern Recognition, 2010, pp. 2366-2369. DOI: 10.1109/ICPR.2010.579.[49] Engineer Ambitiously, “Peak Signal-to-Noise Ratio as an Image Quality Metric”. Accedido: 10 de noviembre de 2022. [Internet]. Disponible en: https://www.ni.com/en-gb/innovations/white-papers/11/peak-signal-to-noiseratio-as-an-image-quality-metric.html[50] The Institution of Engineering and Technology, “Is there a relationship between peak-signal-to-noise ratio and structural similarity index measure?” Accedido: 10 de noviembre de 2022. [Internet]. Disponible en: https://ietresearch.onlinelibrary.wiley.com/DOI/full/10.1049/iet-ipr.2012.0489[51] Z. Wang, A. C. Bovik, H. R. Sheikh, y E. P. Simoncelli, “Image quality assessment: From error visibility to structural similarity”, IEEE Transactions on Image Processing, vol. 13, n.o 4, pp. 600-612, abr. 2004, DOI: 10.1109/TIP.2003.819861.[52] H. Yeganeh, “Cross Dynamic Range And Cross Resolution Objective Image Quality Assessment With Applications”, UWSpace, 2014, [Internet]. Disponible en: http://hdl.handle.net/10012/8667[53] S. Sonawane y A. Deshpande, “Image Quality Assessment Techniques: An Overview”, International Journal of Engineering Research & Technology (IJERT) ISSN: 2278-0181, vol. 3, abr. 2014, Accedido: 19 de abril de 2023. [Internet]. Disponible en: https://www.ijert.org/research/image-qualityassessment-techniques-an-overview-IJERTV3IS041919.pdf[54] K. Shrimali, “Image Quality Assessment: BRISQUE”. Accedido: 19 de abril de 2023. [Internet]. Disponible en: https://learnopencv.com/image-qualityassessment-brisque/[55] E. Eldarova y V. Starovoitov, “Comparative analysis of universal methods no reference quality assessment of digital images”, J Theor Appl Inf Technol, vol. 99, may 2021, Accedido: 19 de abril de 2023. [Internet]. Disponible en: http://www.jatit.org/volumes/Vol99No9/5Vol99No9.pdf[56] J.-Y. Zhu et al., “Toward Multimodal Image-to-Image Translation”, Advances in Neural Information Processing Systems NIPS, nov. 2017, DOI: 10.48550/arXiv.1711.11586.[57] C. Rosado, Comunicación por satélite: principios, tecnología y sistemas, Second Ed. Mexico: Limusa, 2009.[58] J. D. Lencinas y G. M. Díaz, “Corrección geométrica de datos satelitales QuickBird, incidencia de los modelos digitales de elevación SRTM-C/X y ASTER GDEM”, [Internet]. Disponible en: www.geo-focus.org[59] J. A. Richards, Remote Sensing Digital Image Analysis, Sixth Ed. Switzerland, 2022.[60] V. Olaya, “Sistemas de Información Geográfica libres y geodatos libres como elementos de desarrollo”, pp. 337-375, 2020, Accedido: 3 de octubre de 2022. [Internet]. Disponible en: https://upcommons.upc.edu/bitstream/handle/2099/7584/08_TIG_05_victor. pdf;jsessionid=3930436456DA616DF65040040167D9F7?sequence=1[61] J. Vila y D. Varga, “Capítulo 15 Los Sistemas De Información Geográfica “, en Evaluación y prevención de riesgos Ambientales en Centroamérica, Spanish Ed., Pilar Andrés Pastor y Ramona Rodríguez Pérez, Eds., Documenta Universitaria, 2008.[62] F. Dávila, “Georreferenciación de documentos cartográficos para la gestión de Archivos y Cartotecas. Propuesta Metodológica”, 2012, [Internet]. Disponible en: http://www.ign.es/web/resources/docs/IGNCnig/CTCIbercarto-V-Georreferenciacion.pdf[63] Roberto, “Corrección radiométrica de imágenes satélite”. 6 de febrero de 2018. Accedido: 3 de octubre de 2022. [Internet]. Disponible en: http://www.gisandbeers.com/correccion-radiometrica-imagenes-satelite/[64] M. Sanabria, “La Corrección Atmosférica en las Imágenes de Satélite, una Necesidad para Mejorar la Interpretación de Coberturas Boscosas en Colombia”, Feria Geomática Andina, 2018.[65] M. Ángel, M. Callejo, y B. Poveda, “Metadatos Implícitos de la Información Geográfica: Caracterización del Coste Temporal y de los Tipos y Tasas de Errores en la Compilación Manual”, 2009, [Internet]. Disponible en: www.geofocus.org[66] F. Radilla López, S. V. Chapa, y V. México, “Modelado de datos para base de datos espaciales. Caso de estudio: sistemas de información geográfica”, Trabajo de Investigación, Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional, México, 2008. [Internet]. Disponible en: http://webserver.cs.cinvestav.mx/Estudiantes/TesisGraduados/2008/tesisFlo rRadilla.pdf[67] L. Hawker, P. Bates, J. Neal, y J. Rougier, “Perspectives on Digital Elevation Model (DEM) Simulation for Flood Modeling in the Absence of a HighAccuracy Open Access Global DEM”, Front Earth Sci (Lausanne), vol. 6, dic. 2018, DOI: 10.3389/feart.2018.00233.[68] N. A. Sulaiman, F. Husain, K. A. Hashim, I. Ma’arof, y Abd. M. Samad, “A study on the extraction of Digital Elevation Model (DEM) using Remote Sensing and Geographic Information System (GIS) for flood risk assessment”, en 2012 IEEE International Conference on Control System, Computing and Engineering, IEEE, 2012, pp. 568-573. DOI: 10.1109/ICCSCE.2012.6487210.[69] J. Fallas, “Modelos digitales de elevación: Teoría, métodos de interpolación y aplicaciones”, Academia. Accedido: 29 de abril de 2023. [Internet]. Disponible en: https://www.academia.edu/35199035/Modelos_digitales_de_elevaci%C3%B 3n_Teor%C3%ADa_m%C3%A9todos_de_interpolaci%C3%B3n_y_aplicaci ones[70] I. Buitrago Arévalo, “Clasificación y Evaluación de una Imagen Satelital Utilizando los Métodos de Redes Neuronales Artificiales y Segmentación Espacial”, Revista de Topografía AZIMUT, vol. 5, n.o 1, pp. 59-67, 2016.[71] K. He, X. Zhang, S. Ren, y J. Sun, “Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition”, China, 2015. DOI: 10.1109/TPAMI.2015.2389824.[72] G. Rodríguez y M. Chica Rivas, “Clasificación de imágenes de satélite mediante software libre nuevas tendencias en algoritmos de Inteligencia Artificial”, en XV Congreso Nacional de Tecnologías de Información Geográfica, Prisma, Ed., Madrid, 2012, pp. 627-634.[73] W. Han, R. Feng, L. Wang, y Y. Cheng, “A semi-supervised generative framework with deep learning features for high-resolution remote sensing image scene classification”, ISPRS Journal of Photogrammetry and Remote Sensing, vol. 145, pp. 23-43, 2018, DOI: 10.1016/j.isprsjprs.2017.11.004.[74] E. Kalinicheva, J. Sublime, y M. Trocan, “Neural Network Autoencoder for Change Detection in Satellite Image Time Series”, en 2018 25th IEEE International Conference on Electronics, Circuits and Systems (ICECS), IEEE, dic. 2018, pp. 641-642. DOI: 10.1109/ICECS.2018.8617850.[75] O. Russakovsky et al., “ImageNet Large Scale Visual Recognition Challenge”, ArXiv Computer Vision and Pattern Recognition, 2014, [Internet]. Disponible en: http://arxiv.org/abs/1409.0575[76] Y. LeCun, Y. Bengio, y G. Hinton, “Deep learning”, Nature, vol. 521, n.o 7553, pp. 436-444, 2015, DOI: 10.1038/nature14539.[77] G. Hinton et al., “Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups”, IEEE Signal Process Mag, vol. 29, n.o 6, pp. 82-97, 2012, DOI: 10.1109/MSP.2012.2205597.[78] T. Karras NVIDIA y S. Laine NVIDIA, “A Style-Based Generator Architecture for Generative Adversarial Networks Timo Aila NVIDIA”, Neural and Evolutionary Computing, 2019, [Internet]. Disponible en: https://github.com/NVlabs/stylegan[79] C. Ledig et al., “Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network”. ArXiv Computer Vision and Pattern Recognition, 2017, pp.19, ArXiv:1609.04802v5.[80] F. Li, L. Ma, y J. Cai, “Multi-Discriminator Generative Adversarial Network for High Resolution Gray-Scale Satellite Image Colorization”, en IGARSS 2018 - 2018 IEEE International Geoscience and Remote Sensing Symposium, Valencia: IEEE, jul. 2018, pp. 3489-3492. DOI: 10.1109/IGARSS.2018.8517930.[81] M. Chu, Y. Xie, J. Mayer, L. Leal-Taixé, y N. Thuerey, “Learning temporal coherence via self-supervision for GAN-based video generation”, ACM Trans Graph, vol. 39, n.o 4, 2020, DOI: 10.1145/3386569.3392457.[82] J.-Y. Zhu, T. Park, P. Isola, A. A. Efros, y B. A. Research, “Unpaired Imageto-Image Translation using Cycle-Consistent Adversarial Networks Monet Photos”. [Internet]. Disponible en: https://github.com/junyanz/CycleGAN.[83] Y. Pang, J. Lin, T. Qin, y Z. Chen, “Image-to-Image Translation: Methods and Applications”, ArXiv Computer Vision and Pattern Recognition, ene. 2021, [Internet]. Disponible en: http://arxiv.org/abs/2101.08629[84] B. Liu, “Generative Adversarial Networks in Tensorflow 2.0”, TensorFlow.org. Accedido: 13 de noviembre de 2022. [Internet]. Disponible en: https://www.springml.com/blog/generative-adversarial-networks-tensorflow2/[85] M.-Y. Liu et al., “Few-Shot Unsupervised Image-to-Image Translation”, ArXiv Computer Vision and Pattern Recognition, 2019, [Internet]. Disponible en: https://github.com/NVlabs/FUNIT.[86] C. Pacheco, H. Francisco, D. Valle, C. Delrieux, y G. Bianchi, “Procesamiento Inteligente de Imágenes Satelitales Métodos avanzados y acelerados de segmentación y fusión de información”, XVI Workshop de Investigadores en Ciencias de la Computación, 2014, DOI: 10.13140/2.1.4380.5764.[87] S. Kumar y R. K. Aggarwal, “Object Recognition using Sparse Autoencoder with Convolutional Neural Network”, en 2018 2nd International Conference on I-SMAC (IoT in Social, Mobile, Analytics and Cloud) (I-SMAC)I-SMAC (IoT in Social, Mobile, Analytics and Cloud) (I-SMAC), 2018 2nd International Conference on, IEEE, 2018, pp. 241-246. DOI: 10.1109/ISMAC.2018.8653649.[88] H. Ghassemian, “A review of remote sensing image fusion methods”, Information Fusion, vol. 32, pp. 75-89, 2016, DOI: 10.1016/j.inffus.2016.03.003.[89] A. Azarang, H. E. Manoochehri, y N. Kehtarnavaz, “Convolutional Autoencoder-Based Multispectral Image Fusion”, IEEE Access, vol. 7, pp. 35673-35683, 2019, DOI: 10.1109/ACCESS.2019.2905511.[90] M. Lavreniuk, N. Kussul, y A. Novikov, “Deep Learning Crop Classification Approach Based on Sparse Coding of Time Series of Satellite Data”, en IGARSS 2018 - 2018 IEEE International Geoscience and Remote Sensing Symposium, IEEE, 2018, pp. 4812-4815. DOI: 10.1109/IGARSS.2018.8518263.[91] A. O. B. Özdemir, B. E. Gedik, y C. Y. Y. Çetin, “Hyperspectral classification using stacked autoencoders with deep learning”, en Workshop on Hyperspectral Image and Signal Processing, Evolution in Remote Sensing, IEEE Computer Society, oct. 2017. DOI: 10.1109/WHISPERS.2014.8077532.[92] I. P. Yamshchikov y A. Tikhonov, “Music generation with variational recurrent autoencoder supported by history”, SN Appl Sci, vol. 2, n.o 12, 2020, DOI: 10.1007/s42452-020-03715-w.[93] Q. Meng, D. Catchpoole, D. Skillicorn, y P. J. Kennedy, “Relational Autoencoder for Feature Extraction”, 2017 International Joint Conference on Neural Networks (IJCNN), 2018, DOI: 10.1109/IJCNN.2017.7965877.[94] D. P. Kingma y M. Welling, “Auto-Encoding Variational Bayes”, Statistics Machine Learning, 2022, [Internet]. Disponible en: http://arxiv.org/abs/1312.6114[95] A. Krizhevsky, I. Sutskever, y G. E. Hinton, “ImageNet classification with deep convolutional neural networks”, Advances in Neural Information Processing Systems 25 (NIPS 2012), vol. 60, n.o 6, pp. 84-90, 2017, DOI: 10.1145/3065386.[96] K. Simonyan y A. Zisserman, “Very Deep Convolutional Networks for LargeScale Image Recognition”, ArXiv Computer Vision and Pattern Recognition, 2014, [Internet]. Disponible en: http://arxiv.org/abs/1409.1556[97] D. Woodward, E. Stevens, y E. Linstead, “Generating Transit Light Curves with Variational Autoencoders”, en 2019 IEEE International Conference on Space Mission Challenges for Information Technology (SMC-IT), IEEE, 2019, pp. 24-32. DOI: 10.1109/SMC-IT.2019.00008.[98] K. Enomoto et al., “Filmy Cloud Removal on Satellite Imagery with Multispectral Conditional Generative Adversarial Nets”, Computer Vision and Pattern Recognition, 2017, DOI: 10.1109/CVPRW.2017.197. 200[99] M. Mirza y S. Osindero, “Conditional Generative Adversarial Nets”, nov. 2014, [Internet]. Disponible en: http://arxiv.org/abs/1411.1784[100] P. Singh, N. Komodakis, y N. Komodakisécole, “Cloud-GAN: Cloud Removal for Sentinel-2 Imagery Using a Cyclic Consistent Generative Adversarial Network”, IEEE International Geoscience and Remote Sensing Symposium, 2018, DOI: 10.1109/IGARSS.2018.8519033.[101] B. Uzkent y V. Sarukkai, “Cloud removal in satellite images using Spatiotemporal Generative Networks”, Computer Vision and Pattern Recognition, 2020[102] M. A. Zaytar y C. El Amrani, “Satellite image inpainting with deep generative adversarial neural networks”, IAES International Journal of Artificial Intelligence, vol. 10, n.o 1, pp. 121-130, 2021, DOI: 10.11591/ijai.v10.i1.pp121-130.[103] R. Suvorov et al., “Resolution-robust Large Mask Inpainting with Fourier Convolutions”, Computer Vision and Pattern Recognition, vol. 2, 2022, [Internet]. Disponible en: https://github.com/saic-mdal/lama.[104] Comisión Europea, “Propuesta de Normas Armonizadas en Materia de Inteligencia Artificial”, Bruselas, 2021. [Internet]. Disponible en: https://ec.europa.eu/info/sites/default/files/political-guidelines-nextcommission_es_0.pdf.[105] Presidencia de la República de Colombia, “Decreto 2442 por el cual se crea la política espacial del país, Bogotá, Colombia”. Colombia, 21 de julio de 2006. [Internet]. Disponible en: https://www.funcionpublica.gov.co/eva/gestornormativo/norma.php?i=66645[106] Función Pública de la República de Colombia, “Decreto 2516 de 2013”. 15 de noviembre de 2013. [Internet]. Disponible en: https://www.funcionpublica.gov.co/eva/gestornormativo/norma.php?i=67836[107] Sector Administrativo de Defensa y Presidencia de Colombia, Decreto 2258 de 2018. Colombia: https://www.funcionpublica.gov.co/eva/gestornormativo/norma.php?i=89940 , 2018.[108] Consejo Nacional de Política Económica y Social República de Colombia Departamento Nacional de Planeación, “Documento CONPES 3683”. 6 de agosto de 2010.[109] Departamento Nacional de Planeación, Departamento Administrativo de la Presidencia de la República, y Ministerio de Defensa Nacional, “Política de Desarrollo Espacial: Condiciones Habilitantes para el Impulso de la Competitividad Nacional”, ene. 2020, Accedido: 29 de abril de 2023. [Internet]. Disponible en: https://colaboracion.dnp.gov.co/CDT/Conpes/Econ%C3%B3micos/3983.pdf[110] Congreso de Colombia y Función Pública, “Ley 23 de 1982”. 28 de enero de 1982. [Internet]. Disponible en: https://www.funcionpublica.gov.co/eva/gestornormativo/norma.php?i=3431[111] Función Pública, “Constitución Política de Colombia 1991. Articulo 216”. 1991. Accedido: 17 de octubre de 2022. [Internet]. Disponible en: https://pdba.georgetown.edu/Constitutions/Colombia/colombia91.pdf[112] J. Méndez, “Propuesta de una estrategia para contrarrestar la dependencia de Colombia en sistemas de navegación satelital no propios, una perspectiva militar”, Trabajo de Investigación, Fuerza Aérea Colombiana, Cali, 2022. [Internet]. Disponible en: https://repositorio.craifac.com/xmlui/handle/20.500.12963/822[113] J. Delgado y S. Muñoz, “Determination of an Operational Orbit for the FACSAT 2 Earth Observation Satellite Mission”, Fuerza Aérea Colombiana, Cali, 2023. DOI: https://DOI.org/10.11144/Javeriana.iued27.doof.[114] L. Durango, “Diseño de un sistema de planeación para la adquisición de partes y componentes para ensamblar un satélite CubeSAT de 3U”, Fuerza Aérea Colombiana, Cali, 2021.[115] L. Jaramillo, A. Moreno, Y. Gallardo de Parada, M. Tamayo, y L. Uribe, Aprender a Investigar, 3.a ed. ICFES, 1999. [Internet]. Disponible en: https://academia.utp.edu.co/grupobasicoclinicayaplicadas/files/2013/06/2.- La-Investigaci%C3%B3n-APRENDER-A-INVESTIGAR-ICFES.pdf[116] C. Tamayo y I. Siesquén, Técnicas e Instrumentos de Recolección de Datos. [Internet]. Disponible en: https://gc.scalahed.com/recursos/files/r161r/w24860w/Tecnicas_Instrument osS2.pdf[117] J. Brownlee, “A Gentle Introduction to Generative Adversarial Networks (GANs)”, Machine Learning Mastery. [Internet]. Disponible en: https://machinelearningmastery.com/what-are-generative-adversarialnetworks-gans/[118] K. M. Kahloot y P. Ekler, “Algorithmic Splitting: A Method for Dataset Preparation”, IEEE Access, vol. 9, pp. 125229-125237, 2021, DOI: 10.1109/ACCESS.2021.3110745.[119] J. Tan, J. Yang, S. Wu, G. Chen, y J. Zhao, “A critical look at the current train/test split in machine learning”, 2021, [Internet]. Disponible en: http://arxiv.org/abs/2106.04525[120] G. Ambrosio, J. González-Jiménez, y V. Arévalo, “Corrección Radiométrica y Geométrica de Imágenes para la Detección de Cambios en una Serie Temporal”, 2002. [Internet]. Disponible en: https://www.researchgate.net/publication/266478620[121] U.S. Geological Survey, LandSat7 Image Area Rio Mississippi frontera Tennessee y Arkansas, Estados Unidos, (2016). [Internet Video]. Disponible en: https://earthexplorer.usgs.gov/[122] U.S. Geological Survey, “LandSat 7 Image Oeste de Colt, Arkansas, Estados Unidos”, https://earthexplorer.usgs.gov/. 2019.[123] U.S. Geological Survey, “LandSat 7 Image Hunter, Arkansas, Estados Unidos”, https://earthexplorer.usgs.gov/. 2019.[124] U.S. Geological Survey, “LandSat 7 Image Pacífico Colombiano, Chocó - Valle del Cauca, Colombia”, https://earthexplorer.usgs.gov/. 2019.[125] R. Mourya, “Resolving CUDA Being Out of Memory with Gradient Accumulation and AMP”, Towards Data Science, 2020, [Internet]. Disponible en: https://towardsdatascience.com/i-am-so-done-with-cuda-out-of-memoryc62f42947dca[126] J. Brownlee, “How to Implement Pix2Pix GAN Models from Scratch With Keras”, Machine Learning Mastery, 2019, [Internet]. Disponible en: https://machinelearningmastery.com/how-to-implement-pix2pix-gan-modelsfrom-scratch-with-keras/[127] U.S. Geological Survey, “LandSat 7 Image Hernando, Misisipi, Estados Unidos”, https://earthexplorer.usgs.gov/. 2019.[128] U.S. Geological Survey, “LandSat 7 Image Mande - Urrao, Antioquia, Colombia”, https://earthexplorer.usgs.gov/. 2019.[129] U.S. Geological Survey, “LandSat 7 Image Reposo - Puerto Rico, Meta, Colombia”, https://earthexplorer.usgs.gov/. 2021.[130] U.S. Geological Survey, “LandSat 7 Image Ahaggar National Park, Tamanrasset, Argelia “, https://earthexplorer.usgs.gov/. 2021.[131] U.S. Geological Survey, “LandSat 7 Image Tangui - Medio Atrato, Chocó, Colombia”, https://earthexplorer.usgs.gov/. 2022.[132] U.S. Geological Survey, “LandSat 7 Image Bahía Solano, Chocó, Colombia “, https://earthexplorer.usgs.gov/. 2021.[133] U.S. Geological Survey, “LandSat 7 Image Memphis, Tennessee, Estados Unidos”, https://earthexplorer.usgs.gov/. 2021.[134] U.S. Geological Survey, “LandSat 7 Image Cartagena del Chairá, Caquetá, Colombia”, https://earthexplorer.usgs.gov/. 2022.[135] Y. Wang, C. Wu, L. Herranz, y A. Gonzalez, “Transferring gans: generating images from limited data.”, Proceedings of the European Conference on Computer Vision, pp. 218-234, 2018.[136] S. Barreto, “What is Fine-tuning in Neural Networks?”, Baeldung. [Internet]. Disponible en: https://www.baeldung.com/cs/fine-tuning-nn[137] S. Mo, M. Cho, y J. Shin, “Freeze the discriminator: a simple baseline for finetuning GANS”, 2020.[138] U.S. Geological Survey, “LandSat 7 Image Crenshaw, Misisipi, Estados Unidos”, https://earthexplorer.usgs.gov/, 2022.[139] U.S. Geological Survey, “LandSat 7 Image Florián, Santander, Colombia”, https://earthexplorer.usgs.gov/, 2022.[140] E. Chuvieco, N. Koutsias, y M. Karteris, “The Use of Intensity-Hue-Saturation Transformation of Landsat-5 Thematic Mapper Data for Burned Land Mapping”, Photogramm Eng Remote Sensing, vol. 66, pp. 829-839, 2000, [Internet]. Disponible en: https://www.asprs.org/wpcontent/uploads/pers/2000journal/july/2000_jul_829-839.pdf[141] Fuerza Aeroespacial Colombiana, “FACSAT-1 Image Departamento de Caldas-Colombia. “. 2021.[142] Fuerza Aeroespacial Colombiana, “FACSAT-1 Image BarranquillaColombia”. 2019.[143] Fuerza Aeroespacial Colombiana, “FACSAT-1 Image Pereira-Manizales”. 2020.[144] Fuerza Aeroespacial Colombiana, “FACSAT-1 Image Maracaibo-Venezuela”. 2020.[145] Fuerza Aeroespacial Colombiana, “FACSAT-1 Image Boyacá-Colombia”. 2021.[146] C. Shorten y T. M. Khoshgoftaar, “A survey on Image Data Augmentation for Deep Learning”, J Big Data, vol. 6, n.o 1, p. 60, dic. 2019, DOI: 10.1186/s40537-019-0197-0.[147] L. Wei, “Image Data Augmentation for Deep Learning”, Towards Data Science. [Internet]. Disponible en: https://towardsdatascience.com/imagedata-augmentation-for-deep-learning77a87fabd2bf#:~:text=What%20is%20Image%20Data%20Augmentation%3 F,the%20image%20horizontally%20or%20vertically[148] M. T. García-Ordás, J. A. Benítez-Andrades, I. García-Rodríguez, C. Benavides, y H. Alaiz-Moretón, “Detecting Respiratory Pathologies Using Convolutional Neural Networks and Variational Autoencoders for Unbalancing Data”, Sensors, vol. 20, n.o 4, p. 1214, 2020, DOI: 10.3390/s20041214.[149] D. Ulyanov, A. Vedaldi, y V. Lempitsky, “Instance Normalization: The Missing Ingredient for Fast Stylization”, jul. 2016.[150] C. Tian, Y. Xu, L. Fei, J. Wang, J. Wen, y N. Luo, “Enhanced CNN for image denoising”, ArXiv Computer Vision and Pattern Recognition, vol. 4, 2019, DOI: 10.1049/trit.2018.1054.[151] C. Thomas, “Deep learning image enhancement insights on loss function engineering”, Toward the Data Science, 2020, [Internet]. Disponible en: https://towardsdatascience.com/deep-learning-image-enhancementinsights-on-loss-function-engineering-f57ccbb585d7[152] Fuerza Aeroespacial Colombiana, “FACSA-1 Image Zulia-Venezuela”. 2021.[153] Fuerza Aeroespacial Colombiana, “FACSAT-1 Image Santander-Puerto Wilches”, 2021.[154] L. Santillán, “¿Cómo afectan las nubes el clima en la Tierra?”, Universidad Nacional de Mexico. Accedido: 19 de noviembre de 2022. [Internet]. Disponible en: https://ciencia.unam.mx/leer/1136/-como-afectan-las-nubesel-clima-en-la-tierra-[155] Organización Meteorológica Mundial (OMM), Atlas Internacional de Nubes Manual de observación de nubes y otros meteoros (OMM-No 407). [Internet]. Disponible en: https://www.divulgameteo.es/fotos/meteoroteca/Manual-nubes-meteorosOMM.pdf[156] M. D. King, S. Platnick, W. P. Menzel, S. A. Ackerman, y P. A. Hubanks, “Spatial and temporal distribution of clouds observed by MODIS onboard the terra and aqua satellites”, IEEE Transactions on Geoscience and Remote Sensing, vol. 51, n.o 7, pp. 3826-3852, 2013, DOI: 10.1109/TGRS.2012.2227333.[157] V. Dessi, “How much cloud cover is there? Readers give their answers”, NewScientist, 2020. Accedido: 20 de noviembre de 2022. [Internet]. Disponible en: https://www.newscientist.com/lastword/mg24632872-100- how-much-cloud-cover-is-there-readers-give-their-answers/[158] J. Liedtke, “The Cloud Eradicator”, ArcGIS Blog. ESRI. Accedido: 20 de noviembre de 2022. [Internet]. Disponible en: https://www.esri.com/arcgisblog/products/arcgis-pro/imagery/the-cloud-eradicator/[159] C. Danang, S. Phinn, y P. Scarth, “Cloud and cloud shadow removal of landsat 8 images using Multitemporal Cloud Removal method”, 2017 6th International Conference on Agro-Geoinformatics, vol. 6, 2017, DOI: 10.1109/Agro-Geoinformatics.2017.8047007.[160] W. Du, Z. Qin, J. Fan, M. Gao, F. Wang, y B. Abbasi, “An efficient approach to remove thick cloud in VNIR bands of multi-temporal remote sensing images”, Remote Sens (Basel), vol. 11, n.o 11, 2019, DOI: 10.3390/rs11111284.[161] NV5 GeoSpatial, “Build Layer Stacks”. [Internet]. Disponible en: https://www.nv5geospatialsoftware.com/docs/BuildBandStacks.html[162] Repository University Technical Munich, “Sentinel-2, Colombia”. 2021.[163] Y. Kang, S. Gao, y R. E. Roth, “Transferring multiscale map styles using generative adversarial networks”, International Journal of Cartography, vol. 5, n.o 2-3, 2019, DOI: 10.1080/23729333.2019.1615729.[164] O. Ronneberger, P. Fischer, y T. Brox, “U-Net: Convolutional Networks for Biomedical Image Segmentation”, vol. 9351, pp. 234-241, 2015. DOI: 10.48550/arXiv.1505.04597.[165] S. Faiyaz, “Understanding PatchGAN.” [Internet]. Disponible en: https://sahiltinky94.medium.com/understanding-patchgan-9f3c8380c207[166] B. Zhou, A. Lapedriza, A. Khosla, A. Oliva, y A. Torralba, “Places: A 10 million Image Database for Scene Recognition”, 2018. DOI: 10.1109/TPAMI.2017.2723009.[167] U.S. Geological Survey, “LandSat 8 Image Villa del Rosario, Zulia, Venezuela”, https://earthexplorer.usgs.gov/. 2022.[168] Repository University Technical of Munich, “Sentinel-2, Image Alemania”. 2021.[169] U.S. Geological Survey, “Sentinel 2 Image Ghent, Belgica”, https://earthexplorer.usgs.gov/. 2022.[170] NASA, “USGS EarthExplorer”. [Internet]. Disponible en: https://lpdaac.usgs.gov/tools/usgsearthexplorer/#:~:text=The%20EarthExplorer%20(EE)%20user%20interface ,and%20other%20remote%20sensing%20inventories.[171] U.S. Geological Survey, “LandSat-8, Image La Felisa - La Merced, Caldas, Colombia”, https://earthexplorer.usgs.gov/.[172] U.S. Geological Survey, “LandSat 8 Image El Porvenir - Santa Ana, Magdalena, Colombia “, https://developers.google.com/earthengine/datasets/catalog/landsat-8.[173] U.S. Geological Survey, “LandSat 8 Image Polacos - Valdivia, Antioquia, Colombia “, https://developers.google.com/earthengine/datasets/catalog/landsat-8. 2021.[174] U.S. Geological Survey, “LandSat 8 Image Parque Cerro del Santísimo - Floridablanca, Santander, Colombia “, https://developers.google.com/earthengine/datasets/catalog/landsat-8.[175] E. E. Cortés, A. P. Pinzon, M. E. Melo, Y. Morales, G. Contratista, y E. I. Granados, “Procedimiento para la evaluación y reporte de Calidad de datos geográficos”, 2021. [Internet]. Disponible en: https://www.ideca.gov.co/sites/default/files/20210422ProceReporteCalidadD atosgeoAprovPublicacion2_0.pdf[176] W. Zheng, Q. Li, G. Zhang, P. Wan, y Z. Wang, “ITTR: Unpaired Image-toImage Translation with Transformers”, ArXiv, 2022, DOI: https://DOI.org/10.48550/arXiv.2203.16015. 208[177] Y. Jiang, S. Chang, y Z. Wang, “TransGAN: Two Pure Transformers Can Make One Strong GAN, and That Can Scale Up”, ArXiv, n.o 4, 2021, [Internet]. Disponible en: http://arxiv.org/abs/2102.07074Doctorado en IngenieríaAprendizaje profundoSatéliteImágenesAlgoritmosRedes neuronalesPíxelErrorRadiométricoGeométricoAtmosféricoDeep learningSatelliteImagesAlgorithmsNeural networksPixelErrorRadiometricGeometricAtmosphereComunidad generalPublicationhttps://scholar.google.com.au/citations?user=7PIjh_MAAAAJ&hl=envirtual::2811-10000-0002-9731-8458virtual::2811-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000249106virtual::2811-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::2811-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::2811-1LICENSElicense.txtlicense.txttext/plain; charset=utf-81672https://red.uao.edu.co/bitstreams/7c9e94f3-95c9-4bfc-803f-7e411c6dae3b/download6987b791264a2b5525252450f99b10d1MD51ORIGINALT11004_Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales.pdfT11004_Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales.pdfArchivo texto completo del trabajo de grado, PDFapplication/pdf6742104https://red.uao.edu.co/bitstreams/6c7b3f74-fdb1-4172-bb7b-e0fb256c5380/download3dab548623f6175af0ed925ec3b18fc5MD52TA11004_Autorización trabajo de grado.pdfTA11004_Autorización trabajo de grado.pdfAutorización para publicación del trabajo de gradoapplication/pdf594797https://red.uao.edu.co/bitstreams/da9797a8-cb71-467a-993e-14b3b2b08eda/download91df55aeff8e717e8d7fae9eec27d43dMD53TEXTT11004_Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales.pdf.txtT11004_Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales.pdf.txtExtracted texttext/plain102400https://red.uao.edu.co/bitstreams/3d23086e-9a77-4fea-aebd-0e3b94865105/download7006879391c458280eebd35ae0129df7MD54TA11004_Autorización trabajo de grado.pdf.txtTA11004_Autorización trabajo de grado.pdf.txtExtracted texttext/plain4https://red.uao.edu.co/bitstreams/574090fb-d955-4d76-8480-b5b54ec12d1f/downloadff4c8ff01d544500ea4bfea43e6108c1MD56THUMBNAILT11004_Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales.pdf.jpgT11004_Redes generativas profundas para corrección de errores geométricos, radiométricos y otras alteraciones causadas por factores atmosféricos presentes en imágenes satelitales multiespectrales.pdf.jpgGenerated Thumbnailimage/jpeg7564https://red.uao.edu.co/bitstreams/490ca799-64d2-473c-b54c-f222d5790a59/download008f1f1184b4bf344b6fc67e5c1d4633MD55TA11004_Autorización trabajo de grado.pdf.jpgTA11004_Autorización trabajo de grado.pdf.jpgGenerated Thumbnailimage/jpeg15413https://red.uao.edu.co/bitstreams/265c4abf-e0f5-41bc-a001-87b183d4ce3a/downloadda7fbfba579f5cf3223c62a775bac6eaMD5710614/15483oai:red.uao.edu.co:10614/154832024-03-10 03:02:15.735https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos reservados - Universidad Autónoma de Occidente, 2023restrictedhttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coPHA+RUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS48L3A+Cg== |