Graph based Image fusion and features extraction for remote sensing applications
Recientemente los avances en la tecnología de sensores han conllevado a un incremento en la disponibilidadde imágenes (a una alta resolución espacial y espectral) hiper-espectrales, multi-espectrales(ME), y de radar de apertura sintética (SAR), las cuales permiten describir un objeto o un fenómeno....
- Autores:
-
Jiménez Sierra, David Alejandro
- Tipo de recurso:
- Doctoral thesis
- Fecha de publicación:
- 2024
- Institución:
- Pontificia Universidad Javeriana Cali
- Repositorio:
- Vitela
- Idioma:
- eng
- OAI Identifier:
- oai:vitela.javerianacali.edu.co:11522/2211
- Acceso en línea:
- https://vitela.javerianacali.edu.co/handle/11522/2211
- Palabra clave:
- Biomass estimation
Block matching
Change detection
Graphs
Graph fusion
Graph signal processing
Optimization
- Rights
- License
- https://creativecommons.org/licenses/by-nc-nd/4.0/
id |
Vitela2_9c9c5f054c817944a8f07b7ca63c895a |
---|---|
oai_identifier_str |
oai:vitela.javerianacali.edu.co:11522/2211 |
network_acronym_str |
Vitela2 |
network_name_str |
Vitela |
repository_id_str |
|
dc.title.eng.fl_str_mv |
Graph based Image fusion and features extraction for remote sensing applications |
title |
Graph based Image fusion and features extraction for remote sensing applications |
spellingShingle |
Graph based Image fusion and features extraction for remote sensing applications Biomass estimation Block matching Change detection Graphs Graph fusion Graph signal processing Optimization |
title_short |
Graph based Image fusion and features extraction for remote sensing applications |
title_full |
Graph based Image fusion and features extraction for remote sensing applications |
title_fullStr |
Graph based Image fusion and features extraction for remote sensing applications |
title_full_unstemmed |
Graph based Image fusion and features extraction for remote sensing applications |
title_sort |
Graph based Image fusion and features extraction for remote sensing applications |
dc.creator.fl_str_mv |
Jiménez Sierra, David Alejandro |
dc.contributor.advisor.none.fl_str_mv |
Benítez Resrepo, Hernán Darío Vargas Cardona, Hernán Darío |
dc.contributor.author.none.fl_str_mv |
Jiménez Sierra, David Alejandro |
dc.subject.none.fl_str_mv |
Biomass estimation Block matching Change detection Graphs Graph fusion Graph signal processing Optimization |
topic |
Biomass estimation Block matching Change detection Graphs Graph fusion Graph signal processing Optimization |
description |
Recientemente los avances en la tecnología de sensores han conllevado a un incremento en la disponibilidadde imágenes (a una alta resolución espacial y espectral) hiper-espectrales, multi-espectrales(ME), y de radar de apertura sintética (SAR), las cuales permiten describir un objeto o un fenómeno. Cada sensor captura diferente información que explica distintas características físicas. Por ejemplo, un sensor SAR captura información relacionada a características de la superficie (como la aspereza, estructura geométrica, y orientación), y un sensor ME captura la reflectancia de los objetos a diferentes longitudes de onda. Sin embargo, la información obtenida en tierra por un solo sensor es limitada para sacar conclusiones confiables sobre algún fenómeno como la detección de cambios en la cobertura del suelo y el crecimiento de biomasa. Por el contrario, las técnicas de fusión de imágenes integran información espectral, espacial y temporal de diferentes sensores con el fin de obtener información apropiada y generar imágenes adecuadas para la percepción humana y de maquina. La fusión de imágenes es el proceso de combinar dos o más imágenes en una sola, la cual debe de ser más informativa y por lo tanto útil en diferentes aplicaciones de sensado remoto (i.e. geología, agricultura, miliar, etc). Por ende, generalmente es deseado el uso de datos capturados por diferentes sensores. Aunque la fusión de datos contribuye a mejorar el desempeño en tareas de clasificación y detección en sensado remoto, es una tarea que es compleja. Por ejemplo, las diferentes resoluciones, unidades,dimensiones, y formatos son retos impuestos por los datos sin procesamiento alguno. Además, los datos homogéneos (i.e. datos captados por el mismo sensor) presentan pequeñas variaciones intraclase y distorsiones por brillo (artefactos), para el caso de datos heterogéneos (i.e. datos captados por diferentes sensores) los pixeles poseen diferentes firmas y por lo tanto siguen un comportamiento estadístico diferente lo cual dificulta la extracción de información relevante de los datos fusionados. En consecuencia, puede ser necesario el uso de pre-procesamiento y post-procesamiento. A pesar de que numerosos métodos propuestos en las últimas décadas para la fusión de datos que se enfocan en la extracción de características, embebimiento de espacios, modelamiento de datos, adaptación de dominio, transformación de datos, aprendizaje por transferencia, y traducción de imagen a imagen, el análisis estructural inducido por los grafos no ha sido ampliamente explorado. Más precisamente, los actuales algoritmos de fusión basados en grafos han mostrado su habilidad para lidiar con la variabilidad que presentan el formato de los datos y han permitido de una manera flexible representar la relación entre entidades de datos. No obstante, los métodos de fusión de datos basados en grafos no explotan la información prior embebida en los datos (i.e. procesamiento de señales en grafos), son altamente impactados por la forma de representar una imagen (i.e. pixelescomo nodos, super-píxeles como nodos, y parches como nodos), y la regla de fusión que se utiliza usualmente depende más de la matriz de pesos que de las bases espectrales. |
publishDate |
2024 |
dc.date.accessioned.none.fl_str_mv |
2024-06-11T19:28:04Z |
dc.date.available.none.fl_str_mv |
2024-06-11T19:28:04Z |
dc.date.issued.none.fl_str_mv |
2024 |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_db06 |
dc.type.local.none.fl_str_mv |
Tesis/Trabajo de grado - Monografía - Doctorado |
dc.type.redcol.none.fl_str_mv |
https://purl.org/redcol/resource_type/TD |
format |
http://purl.org/coar/resource_type/c_db06 |
dc.identifier.uri.none.fl_str_mv |
https://vitela.javerianacali.edu.co/handle/11522/2211 |
url |
https://vitela.javerianacali.edu.co/handle/11522/2211 |
dc.language.iso.none.fl_str_mv |
eng |
language |
eng |
dc.rights.uri.none.fl_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0/ |
dc.rights.creativecommons.none.fl_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0/ |
dc.rights.accessrights.none.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0/ http://purl.org/coar/access_right/c_abf2 |
dc.format.extent.none.fl_str_mv |
136 p. |
dc.format.mimetype.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Pontificia Universidad Javeriana Cali |
publisher.none.fl_str_mv |
Pontificia Universidad Javeriana Cali |
institution |
Pontificia Universidad Javeriana Cali |
bitstream.url.fl_str_mv |
https://vitela.javerianacali.edu.co/bitstreams/ea18009c-ae09-4052-b147-b77135f514b5/download https://vitela.javerianacali.edu.co/bitstreams/1f647d9d-78ae-4988-b0b4-478e67d132e5/download https://vitela.javerianacali.edu.co/bitstreams/d74870cc-ba9c-4413-a468-ca7a85ed3d81/download https://vitela.javerianacali.edu.co/bitstreams/7a3c5ab2-b185-4284-a042-cb9352e3aa88/download https://vitela.javerianacali.edu.co/bitstreams/d99f7cd9-916f-4284-9ac5-46b26dec80bd/download https://vitela.javerianacali.edu.co/bitstreams/9d3676af-f4a0-428b-bdf5-512244cd76e8/download https://vitela.javerianacali.edu.co/bitstreams/ffb73961-39c8-4ce0-8489-70dceb223bef/download |
bitstream.checksum.fl_str_mv |
f2c532407bc2b76eed1bd2bcb2fa5af1 a23d295c426eab6cf81933b7e1d5e86e 8a4605be74aa9ea9d79846c1fba20a33 e204a2daa717358afb93f5e8a6ad04f7 ecfd8158c25e2f998f071599b27a7fc4 11cb3fd245116a4f26f35ff7842c9ba2 5f87168c7d0559fc8fea5fee1da1fec1 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Vitela |
repository.mail.fl_str_mv |
vitela.mail@javerianacali.edu.co |
_version_ |
1812095050349281280 |
spelling |
Benítez Resrepo, Hernán DaríoVargas Cardona, Hernán DaríoJiménez Sierra, David Alejandro2024-06-11T19:28:04Z2024-06-11T19:28:04Z2024https://vitela.javerianacali.edu.co/handle/11522/2211Recientemente los avances en la tecnología de sensores han conllevado a un incremento en la disponibilidadde imágenes (a una alta resolución espacial y espectral) hiper-espectrales, multi-espectrales(ME), y de radar de apertura sintética (SAR), las cuales permiten describir un objeto o un fenómeno. Cada sensor captura diferente información que explica distintas características físicas. Por ejemplo, un sensor SAR captura información relacionada a características de la superficie (como la aspereza, estructura geométrica, y orientación), y un sensor ME captura la reflectancia de los objetos a diferentes longitudes de onda. Sin embargo, la información obtenida en tierra por un solo sensor es limitada para sacar conclusiones confiables sobre algún fenómeno como la detección de cambios en la cobertura del suelo y el crecimiento de biomasa. Por el contrario, las técnicas de fusión de imágenes integran información espectral, espacial y temporal de diferentes sensores con el fin de obtener información apropiada y generar imágenes adecuadas para la percepción humana y de maquina. La fusión de imágenes es el proceso de combinar dos o más imágenes en una sola, la cual debe de ser más informativa y por lo tanto útil en diferentes aplicaciones de sensado remoto (i.e. geología, agricultura, miliar, etc). Por ende, generalmente es deseado el uso de datos capturados por diferentes sensores. Aunque la fusión de datos contribuye a mejorar el desempeño en tareas de clasificación y detección en sensado remoto, es una tarea que es compleja. Por ejemplo, las diferentes resoluciones, unidades,dimensiones, y formatos son retos impuestos por los datos sin procesamiento alguno. Además, los datos homogéneos (i.e. datos captados por el mismo sensor) presentan pequeñas variaciones intraclase y distorsiones por brillo (artefactos), para el caso de datos heterogéneos (i.e. datos captados por diferentes sensores) los pixeles poseen diferentes firmas y por lo tanto siguen un comportamiento estadístico diferente lo cual dificulta la extracción de información relevante de los datos fusionados. En consecuencia, puede ser necesario el uso de pre-procesamiento y post-procesamiento. A pesar de que numerosos métodos propuestos en las últimas décadas para la fusión de datos que se enfocan en la extracción de características, embebimiento de espacios, modelamiento de datos, adaptación de dominio, transformación de datos, aprendizaje por transferencia, y traducción de imagen a imagen, el análisis estructural inducido por los grafos no ha sido ampliamente explorado. Más precisamente, los actuales algoritmos de fusión basados en grafos han mostrado su habilidad para lidiar con la variabilidad que presentan el formato de los datos y han permitido de una manera flexible representar la relación entre entidades de datos. No obstante, los métodos de fusión de datos basados en grafos no explotan la información prior embebida en los datos (i.e. procesamiento de señales en grafos), son altamente impactados por la forma de representar una imagen (i.e. pixelescomo nodos, super-píxeles como nodos, y parches como nodos), y la regla de fusión que se utiliza usualmente depende más de la matriz de pesos que de las bases espectrales.Recent advances in sensor technology have lead to the increased availability of hyper-spectral, multi-spectral (MS), and synthetic aperture radar (SAR) images (at very high spatial and spectral resolutions), which describe an object or phenomenon. Each sensor captures different information that explains physical features. For example, a SAR sensor captures information about the physical characteristics of a surface (such as roughness, geometric structure, and orientation), and an MS sensor captures reflectances at different wavelengths from objects. Nonetheless, the ground information obtained from a single sensor is limited to draw reliable conclusions about phenomena such as changes in land cover and biomass growth. In contrast, image fusion techniques integrate spectral, spatial, and temporal information from several sensors to obtain appropriate information and construct images that are more suitable for human and machine perception. Image fusion is a process of combining two or more images into a single image which is more informative, henc useful and helpful in different remote sensing applications (i.e geology, agriculture, military, etc). Therefore, it is generally desirable to use data captured from different sensors. Even though data fusion contributes to better performance in classification and detection in remote sensing, it is a complex task. For example, the different resolutions, units, dimensions, and formats are challenges imposed by raw data. Furthermore, homogeneous data (i.e. data acquired from the same sensor) presents small intra-class variability and brightness distortions (artifacts), in the case of heterogeneous data (i.e. data acquired from different sensors) the pixels have different signatures, and therefore follow distinct statistical behaviors that makes difficult the extraction of relevant information from the fused data. Consequently, pre-processing and post-processing stages might be needed. Despite the numerous data fusion proposed methods in the past few decades that focuses on approaches such as feature extraction, space embedding, data modeling, domain adaptation, data transformation, transfer learning, and image-to-image translation, structural analysis induced by graphs have not been widely explored. More precisely, the current graph-based fusion algorithms have shown their ability to cope with the variability of data formats and provide a flexible way of representing the relationship between data entities. Nonetheless, the graph-based fusion methods do not exploit prior information embedded in the data (i.e. graph signal processing). In addition, they are highly impacted by the image representation (i.e. pixels as a node, super-pixels as a node, or patches as nodes), and the fusion rule commonly relies more in the weighted adjacency matrix rather than the spectral basis.136 p.application/pdfengPontificia Universidad Javeriana Calihttps://creativecommons.org/licenses/by-nc-nd/4.0/https://creativecommons.org/licenses/by-nc-nd/4.0/http://purl.org/coar/access_right/c_abf2Biomass estimationBlock matchingChange detectionGraphsGraph fusionGraph signal processingOptimizationGraph based Image fusion and features extraction for remote sensing applicationshttp://purl.org/coar/resource_type/c_db06Tesis/Trabajo de grado - Monografía - Doctoradohttps://purl.org/redcol/resource_type/TDFacultad de Ingeniería y Ciencias. Doctorado en Ingeniería y Ciencias AplicadasDoctoradoORIGINALDoctoral_Thesis.pdfDoctoral_Thesis.pdfapplication/pdf168530896https://vitela.javerianacali.edu.co/bitstreams/ea18009c-ae09-4052-b147-b77135f514b5/downloadf2c532407bc2b76eed1bd2bcb2fa5af1MD52Licencia_autorizacion-signed.pdfLicencia_autorizacion-signed.pdfapplication/pdf352364https://vitela.javerianacali.edu.co/bitstreams/1f647d9d-78ae-4988-b0b4-478e67d132e5/downloada23d295c426eab6cf81933b7e1d5e86eMD53LICENSElicense.txtlicense.txttext/plain; charset=utf-81748https://vitela.javerianacali.edu.co/bitstreams/d74870cc-ba9c-4413-a468-ca7a85ed3d81/download8a4605be74aa9ea9d79846c1fba20a33MD51TEXTDoctoral_Thesis.pdf.txtDoctoral_Thesis.pdf.txtExtracted texttext/plain101549https://vitela.javerianacali.edu.co/bitstreams/7a3c5ab2-b185-4284-a042-cb9352e3aa88/downloade204a2daa717358afb93f5e8a6ad04f7MD510Licencia_autorizacion-signed.pdf.txtLicencia_autorizacion-signed.pdf.txtExtracted texttext/plain4875https://vitela.javerianacali.edu.co/bitstreams/d99f7cd9-916f-4284-9ac5-46b26dec80bd/downloadecfd8158c25e2f998f071599b27a7fc4MD512THUMBNAILDoctoral_Thesis.pdf.jpgDoctoral_Thesis.pdf.jpgGenerated Thumbnailimage/jpeg2998https://vitela.javerianacali.edu.co/bitstreams/9d3676af-f4a0-428b-bdf5-512244cd76e8/download11cb3fd245116a4f26f35ff7842c9ba2MD511Licencia_autorizacion-signed.pdf.jpgLicencia_autorizacion-signed.pdf.jpgGenerated Thumbnailimage/jpeg5333https://vitela.javerianacali.edu.co/bitstreams/ffb73961-39c8-4ce0-8489-70dceb223bef/download5f87168c7d0559fc8fea5fee1da1fec1MD51311522/2211oai:vitela.javerianacali.edu.co:11522/22112024-06-25 05:14:04.97https://creativecommons.org/licenses/by-nc-nd/4.0/open.accesshttps://vitela.javerianacali.edu.coRepositorio Vitelavitela.mail@javerianacali.edu.coTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo= |