Graph based Image fusion and features extraction for remote sensing applications

Recientemente los avances en la tecnología de sensores han conllevado a un incremento en la disponibilidadde imágenes (a una alta resolución espacial y espectral) hiper-espectrales, multi-espectrales(ME), y de radar de apertura sintética (SAR), las cuales permiten describir un objeto o un fenómeno....

Full description

Autores:
Jiménez Sierra, David Alejandro
Tipo de recurso:
Doctoral thesis
Fecha de publicación:
2024
Institución:
Pontificia Universidad Javeriana Cali
Repositorio:
Vitela
Idioma:
eng
OAI Identifier:
oai:vitela.javerianacali.edu.co:11522/2211
Acceso en línea:
https://vitela.javerianacali.edu.co/handle/11522/2211
Palabra clave:
Biomass estimation
Block matching
Change detection
Graphs
Graph fusion
Graph signal processing
Optimization
Rights
License
https://creativecommons.org/licenses/by-nc-nd/4.0/
id Vitela2_9c9c5f054c817944a8f07b7ca63c895a
oai_identifier_str oai:vitela.javerianacali.edu.co:11522/2211
network_acronym_str Vitela2
network_name_str Vitela
repository_id_str
dc.title.eng.fl_str_mv Graph based Image fusion and features extraction for remote sensing applications
title Graph based Image fusion and features extraction for remote sensing applications
spellingShingle Graph based Image fusion and features extraction for remote sensing applications
Biomass estimation
Block matching
Change detection
Graphs
Graph fusion
Graph signal processing
Optimization
title_short Graph based Image fusion and features extraction for remote sensing applications
title_full Graph based Image fusion and features extraction for remote sensing applications
title_fullStr Graph based Image fusion and features extraction for remote sensing applications
title_full_unstemmed Graph based Image fusion and features extraction for remote sensing applications
title_sort Graph based Image fusion and features extraction for remote sensing applications
dc.creator.fl_str_mv Jiménez Sierra, David Alejandro
dc.contributor.advisor.none.fl_str_mv Benítez Resrepo, Hernán Darío
Vargas Cardona, Hernán Darío
dc.contributor.author.none.fl_str_mv Jiménez Sierra, David Alejandro
dc.subject.none.fl_str_mv Biomass estimation
Block matching
Change detection
Graphs
Graph fusion
Graph signal processing
Optimization
topic Biomass estimation
Block matching
Change detection
Graphs
Graph fusion
Graph signal processing
Optimization
description Recientemente los avances en la tecnología de sensores han conllevado a un incremento en la disponibilidadde imágenes (a una alta resolución espacial y espectral) hiper-espectrales, multi-espectrales(ME), y de radar de apertura sintética (SAR), las cuales permiten describir un objeto o un fenómeno. Cada sensor captura diferente información que explica distintas características físicas. Por ejemplo, un sensor SAR captura información relacionada a características de la superficie (como la aspereza, estructura geométrica, y orientación), y un sensor ME captura la reflectancia de los objetos a diferentes longitudes de onda. Sin embargo, la información obtenida en tierra por un solo sensor es limitada para sacar conclusiones confiables sobre algún fenómeno como la detección de cambios en la cobertura del suelo y el crecimiento de biomasa. Por el contrario, las técnicas de fusión de imágenes integran información espectral, espacial y temporal de diferentes sensores con el fin de obtener información apropiada y generar imágenes adecuadas para la percepción humana y de maquina. La fusión de imágenes es el proceso de combinar dos o más imágenes en una sola, la cual debe de ser más informativa y por lo tanto útil en diferentes aplicaciones de sensado remoto (i.e. geología, agricultura, miliar, etc). Por ende, generalmente es deseado el uso de datos capturados por diferentes sensores. Aunque la fusión de datos contribuye a mejorar el desempeño en tareas de clasificación y detección en sensado remoto, es una tarea que es compleja. Por ejemplo, las diferentes resoluciones, unidades,dimensiones, y formatos son retos impuestos por los datos sin procesamiento alguno. Además, los datos homogéneos (i.e. datos captados por el mismo sensor) presentan pequeñas variaciones intraclase y distorsiones por brillo (artefactos), para el caso de datos heterogéneos (i.e. datos captados por diferentes sensores) los pixeles poseen diferentes firmas y por lo tanto siguen un comportamiento estadístico diferente lo cual dificulta la extracción de información relevante de los datos fusionados. En consecuencia, puede ser necesario el uso de pre-procesamiento y post-procesamiento. A pesar de que numerosos métodos propuestos en las últimas décadas para la fusión de datos que se enfocan en la extracción de características, embebimiento de espacios, modelamiento de datos, adaptación de dominio, transformación de datos, aprendizaje por transferencia, y traducción de imagen a imagen, el análisis estructural inducido por los grafos no ha sido ampliamente explorado. Más precisamente, los actuales algoritmos de fusión basados en grafos han mostrado su habilidad para lidiar con la variabilidad que presentan el formato de los datos y han permitido de una manera flexible representar la relación entre entidades de datos. No obstante, los métodos de fusión de datos basados en grafos no explotan la información prior embebida en los datos (i.e. procesamiento de señales en grafos), son altamente impactados por la forma de representar una imagen (i.e. pixelescomo nodos, super-píxeles como nodos, y parches como nodos), y la regla de fusión que se utiliza usualmente depende más de la matriz de pesos que de las bases espectrales.
publishDate 2024
dc.date.accessioned.none.fl_str_mv 2024-06-11T19:28:04Z
dc.date.available.none.fl_str_mv 2024-06-11T19:28:04Z
dc.date.issued.none.fl_str_mv 2024
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_db06
dc.type.local.none.fl_str_mv Tesis/Trabajo de grado - Monografía - Doctorado
dc.type.redcol.none.fl_str_mv https://purl.org/redcol/resource_type/TD
format http://purl.org/coar/resource_type/c_db06
dc.identifier.uri.none.fl_str_mv https://vitela.javerianacali.edu.co/handle/11522/2211
url https://vitela.javerianacali.edu.co/handle/11522/2211
dc.language.iso.none.fl_str_mv eng
language eng
dc.rights.uri.none.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.creativecommons.none.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.none.fl_str_mv http://purl.org/coar/access_right/c_abf2
rights_invalid_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
http://purl.org/coar/access_right/c_abf2
dc.format.extent.none.fl_str_mv 136 p.
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Pontificia Universidad Javeriana Cali
publisher.none.fl_str_mv Pontificia Universidad Javeriana Cali
institution Pontificia Universidad Javeriana Cali
bitstream.url.fl_str_mv https://vitela.javerianacali.edu.co/bitstreams/ea18009c-ae09-4052-b147-b77135f514b5/download
https://vitela.javerianacali.edu.co/bitstreams/1f647d9d-78ae-4988-b0b4-478e67d132e5/download
https://vitela.javerianacali.edu.co/bitstreams/d74870cc-ba9c-4413-a468-ca7a85ed3d81/download
https://vitela.javerianacali.edu.co/bitstreams/7a3c5ab2-b185-4284-a042-cb9352e3aa88/download
https://vitela.javerianacali.edu.co/bitstreams/d99f7cd9-916f-4284-9ac5-46b26dec80bd/download
https://vitela.javerianacali.edu.co/bitstreams/9d3676af-f4a0-428b-bdf5-512244cd76e8/download
https://vitela.javerianacali.edu.co/bitstreams/ffb73961-39c8-4ce0-8489-70dceb223bef/download
bitstream.checksum.fl_str_mv f2c532407bc2b76eed1bd2bcb2fa5af1
a23d295c426eab6cf81933b7e1d5e86e
8a4605be74aa9ea9d79846c1fba20a33
e204a2daa717358afb93f5e8a6ad04f7
ecfd8158c25e2f998f071599b27a7fc4
11cb3fd245116a4f26f35ff7842c9ba2
5f87168c7d0559fc8fea5fee1da1fec1
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Vitela
repository.mail.fl_str_mv vitela.mail@javerianacali.edu.co
_version_ 1812095050349281280
spelling Benítez Resrepo, Hernán DaríoVargas Cardona, Hernán DaríoJiménez Sierra, David Alejandro2024-06-11T19:28:04Z2024-06-11T19:28:04Z2024https://vitela.javerianacali.edu.co/handle/11522/2211Recientemente los avances en la tecnología de sensores han conllevado a un incremento en la disponibilidadde imágenes (a una alta resolución espacial y espectral) hiper-espectrales, multi-espectrales(ME), y de radar de apertura sintética (SAR), las cuales permiten describir un objeto o un fenómeno. Cada sensor captura diferente información que explica distintas características físicas. Por ejemplo, un sensor SAR captura información relacionada a características de la superficie (como la aspereza, estructura geométrica, y orientación), y un sensor ME captura la reflectancia de los objetos a diferentes longitudes de onda. Sin embargo, la información obtenida en tierra por un solo sensor es limitada para sacar conclusiones confiables sobre algún fenómeno como la detección de cambios en la cobertura del suelo y el crecimiento de biomasa. Por el contrario, las técnicas de fusión de imágenes integran información espectral, espacial y temporal de diferentes sensores con el fin de obtener información apropiada y generar imágenes adecuadas para la percepción humana y de maquina. La fusión de imágenes es el proceso de combinar dos o más imágenes en una sola, la cual debe de ser más informativa y por lo tanto útil en diferentes aplicaciones de sensado remoto (i.e. geología, agricultura, miliar, etc). Por ende, generalmente es deseado el uso de datos capturados por diferentes sensores. Aunque la fusión de datos contribuye a mejorar el desempeño en tareas de clasificación y detección en sensado remoto, es una tarea que es compleja. Por ejemplo, las diferentes resoluciones, unidades,dimensiones, y formatos son retos impuestos por los datos sin procesamiento alguno. Además, los datos homogéneos (i.e. datos captados por el mismo sensor) presentan pequeñas variaciones intraclase y distorsiones por brillo (artefactos), para el caso de datos heterogéneos (i.e. datos captados por diferentes sensores) los pixeles poseen diferentes firmas y por lo tanto siguen un comportamiento estadístico diferente lo cual dificulta la extracción de información relevante de los datos fusionados. En consecuencia, puede ser necesario el uso de pre-procesamiento y post-procesamiento. A pesar de que numerosos métodos propuestos en las últimas décadas para la fusión de datos que se enfocan en la extracción de características, embebimiento de espacios, modelamiento de datos, adaptación de dominio, transformación de datos, aprendizaje por transferencia, y traducción de imagen a imagen, el análisis estructural inducido por los grafos no ha sido ampliamente explorado. Más precisamente, los actuales algoritmos de fusión basados en grafos han mostrado su habilidad para lidiar con la variabilidad que presentan el formato de los datos y han permitido de una manera flexible representar la relación entre entidades de datos. No obstante, los métodos de fusión de datos basados en grafos no explotan la información prior embebida en los datos (i.e. procesamiento de señales en grafos), son altamente impactados por la forma de representar una imagen (i.e. pixelescomo nodos, super-píxeles como nodos, y parches como nodos), y la regla de fusión que se utiliza usualmente depende más de la matriz de pesos que de las bases espectrales.Recent advances in sensor technology have lead to the increased availability of hyper-spectral, multi-spectral (MS), and synthetic aperture radar (SAR) images (at very high spatial and spectral resolutions), which describe an object or phenomenon. Each sensor captures different information that explains physical features. For example, a SAR sensor captures information about the physical characteristics of a surface (such as roughness, geometric structure, and orientation), and an MS sensor captures reflectances at different wavelengths from objects. Nonetheless, the ground information obtained from a single sensor is limited to draw reliable conclusions about phenomena such as changes in land cover and biomass growth. In contrast, image fusion techniques integrate spectral, spatial, and temporal information from several sensors to obtain appropriate information and construct images that are more suitable for human and machine perception. Image fusion is a process of combining two or more images into a single image which is more informative, henc useful and helpful in different remote sensing applications (i.e geology, agriculture, military, etc). Therefore, it is generally desirable to use data captured from different sensors. Even though data fusion contributes to better performance in classification and detection in remote sensing, it is a complex task. For example, the different resolutions, units, dimensions, and formats are challenges imposed by raw data. Furthermore, homogeneous data (i.e. data acquired from the same sensor) presents small intra-class variability and brightness distortions (artifacts), in the case of heterogeneous data (i.e. data acquired from different sensors) the pixels have different signatures, and therefore follow distinct statistical behaviors that makes difficult the extraction of relevant information from the fused data. Consequently, pre-processing and post-processing stages might be needed. Despite the numerous data fusion proposed methods in the past few decades that focuses on approaches such as feature extraction, space embedding, data modeling, domain adaptation, data transformation, transfer learning, and image-to-image translation, structural analysis induced by graphs have not been widely explored. More precisely, the current graph-based fusion algorithms have shown their ability to cope with the variability of data formats and provide a flexible way of representing the relationship between data entities. Nonetheless, the graph-based fusion methods do not exploit prior information embedded in the data (i.e. graph signal processing). In addition, they are highly impacted by the image representation (i.e. pixels as a node, super-pixels as a node, or patches as nodes), and the fusion rule commonly relies more in the weighted adjacency matrix rather than the spectral basis.136 p.application/pdfengPontificia Universidad Javeriana Calihttps://creativecommons.org/licenses/by-nc-nd/4.0/https://creativecommons.org/licenses/by-nc-nd/4.0/http://purl.org/coar/access_right/c_abf2Biomass estimationBlock matchingChange detectionGraphsGraph fusionGraph signal processingOptimizationGraph based Image fusion and features extraction for remote sensing applicationshttp://purl.org/coar/resource_type/c_db06Tesis/Trabajo de grado - Monografía - Doctoradohttps://purl.org/redcol/resource_type/TDFacultad de Ingeniería y Ciencias. Doctorado en Ingeniería y Ciencias AplicadasDoctoradoORIGINALDoctoral_Thesis.pdfDoctoral_Thesis.pdfapplication/pdf168530896https://vitela.javerianacali.edu.co/bitstreams/ea18009c-ae09-4052-b147-b77135f514b5/downloadf2c532407bc2b76eed1bd2bcb2fa5af1MD52Licencia_autorizacion-signed.pdfLicencia_autorizacion-signed.pdfapplication/pdf352364https://vitela.javerianacali.edu.co/bitstreams/1f647d9d-78ae-4988-b0b4-478e67d132e5/downloada23d295c426eab6cf81933b7e1d5e86eMD53LICENSElicense.txtlicense.txttext/plain; charset=utf-81748https://vitela.javerianacali.edu.co/bitstreams/d74870cc-ba9c-4413-a468-ca7a85ed3d81/download8a4605be74aa9ea9d79846c1fba20a33MD51TEXTDoctoral_Thesis.pdf.txtDoctoral_Thesis.pdf.txtExtracted texttext/plain101549https://vitela.javerianacali.edu.co/bitstreams/7a3c5ab2-b185-4284-a042-cb9352e3aa88/downloade204a2daa717358afb93f5e8a6ad04f7MD510Licencia_autorizacion-signed.pdf.txtLicencia_autorizacion-signed.pdf.txtExtracted texttext/plain4875https://vitela.javerianacali.edu.co/bitstreams/d99f7cd9-916f-4284-9ac5-46b26dec80bd/downloadecfd8158c25e2f998f071599b27a7fc4MD512THUMBNAILDoctoral_Thesis.pdf.jpgDoctoral_Thesis.pdf.jpgGenerated Thumbnailimage/jpeg2998https://vitela.javerianacali.edu.co/bitstreams/9d3676af-f4a0-428b-bdf5-512244cd76e8/download11cb3fd245116a4f26f35ff7842c9ba2MD511Licencia_autorizacion-signed.pdf.jpgLicencia_autorizacion-signed.pdf.jpgGenerated Thumbnailimage/jpeg5333https://vitela.javerianacali.edu.co/bitstreams/ffb73961-39c8-4ce0-8489-70dceb223bef/download5f87168c7d0559fc8fea5fee1da1fec1MD51311522/2211oai:vitela.javerianacali.edu.co:11522/22112024-06-25 05:14:04.97https://creativecommons.org/licenses/by-nc-nd/4.0/open.accesshttps://vitela.javerianacali.edu.coRepositorio Vitelavitela.mail@javerianacali.edu.coTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo=