Estimación monocular de profundidad con un enfoque basado en machine learning
La estimación de profundidad a partir de imágenes es un desafío complejo en visión por computadora con aplicaciones como la navegación autónoma y la realidad aumentada. Este proyecto de grado tiene como objetivo desarrollar, entrenar y exportar un modelo de estimación de profundidad monocular sin de...
- Autores:
-
Duarte Aguilar, Andrés Felipe
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2024
- Institución:
- Universidad de los Andes
- Repositorio:
- Séneca: repositorio Uniandes
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.uniandes.edu.co:1992/74467
- Acceso en línea:
- https://hdl.handle.net/1992/74467
- Palabra clave:
- Estimación de profundidad
Visión por computadora
Red neuronal convolucional (CNN)
CBAM (Convolutional Block Attention Module)
Inteligencia artificial
SSIM (Structural Similarity Index)
Ingeniería
- Rights
- openAccess
- License
- Attribution-NonCommercial-NoDerivatives 4.0 International
id |
UNIANDES2_6d647450377a9bac41f44b5dc12b0b05 |
---|---|
oai_identifier_str |
oai:repositorio.uniandes.edu.co:1992/74467 |
network_acronym_str |
UNIANDES2 |
network_name_str |
Séneca: repositorio Uniandes |
repository_id_str |
|
dc.title.none.fl_str_mv |
Estimación monocular de profundidad con un enfoque basado en machine learning |
title |
Estimación monocular de profundidad con un enfoque basado en machine learning |
spellingShingle |
Estimación monocular de profundidad con un enfoque basado en machine learning Estimación de profundidad Visión por computadora Red neuronal convolucional (CNN) CBAM (Convolutional Block Attention Module) Inteligencia artificial SSIM (Structural Similarity Index) Ingeniería |
title_short |
Estimación monocular de profundidad con un enfoque basado en machine learning |
title_full |
Estimación monocular de profundidad con un enfoque basado en machine learning |
title_fullStr |
Estimación monocular de profundidad con un enfoque basado en machine learning |
title_full_unstemmed |
Estimación monocular de profundidad con un enfoque basado en machine learning |
title_sort |
Estimación monocular de profundidad con un enfoque basado en machine learning |
dc.creator.fl_str_mv |
Duarte Aguilar, Andrés Felipe |
dc.contributor.advisor.none.fl_str_mv |
Lozano Martínez, Fernando Enrique |
dc.contributor.author.none.fl_str_mv |
Duarte Aguilar, Andrés Felipe |
dc.contributor.jury.none.fl_str_mv |
Osma Cruz, Johann Faccelo |
dc.subject.keyword.spa.fl_str_mv |
Estimación de profundidad |
topic |
Estimación de profundidad Visión por computadora Red neuronal convolucional (CNN) CBAM (Convolutional Block Attention Module) Inteligencia artificial SSIM (Structural Similarity Index) Ingeniería |
dc.subject.keyword.none.fl_str_mv |
Visión por computadora Red neuronal convolucional (CNN) CBAM (Convolutional Block Attention Module) Inteligencia artificial SSIM (Structural Similarity Index) |
dc.subject.themes.spa.fl_str_mv |
Ingeniería |
description |
La estimación de profundidad a partir de imágenes es un desafío complejo en visión por computadora con aplicaciones como la navegación autónoma y la realidad aumentada. Este proyecto de grado tiene como objetivo desarrollar, entrenar y exportar un modelo de estimación de profundidad monocular sin depender de soluciones preexistentes, permitiendo una comprensión profunda del desarrollo de un modelo de inteligencia artificial. Se utiliza una red neuronal convolucional (CNN) por su capacidad para extraer y representar características visuales, implementando módulos de atención CBAM (Convolutional Block Attention Module) para enfocar el modelo en características relevantes tanto a nivel de canal como espacial. Además, se emplea una función de pérdida que combina L1 y SSIM para mantener la coherencia estructural en las predicciones de profundidad, penalizando adecuadamente los errores grandes y pequeños. |
publishDate |
2024 |
dc.date.accessioned.none.fl_str_mv |
2024-07-05T14:06:07Z |
dc.date.available.none.fl_str_mv |
2024-07-05T14:06:07Z |
dc.date.issued.none.fl_str_mv |
2024-06 |
dc.type.none.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.none.fl_str_mv |
Text |
dc.type.redcol.none.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/1992/74467 |
dc.identifier.instname.none.fl_str_mv |
instname:Universidad de los Andes |
dc.identifier.reponame.none.fl_str_mv |
reponame:Repositorio Institucional Séneca |
dc.identifier.repourl.none.fl_str_mv |
repourl:https://repositorio.uniandes.edu.co/ |
url |
https://hdl.handle.net/1992/74467 |
identifier_str_mv |
instname:Universidad de los Andes reponame:Repositorio Institucional Séneca repourl:https://repositorio.uniandes.edu.co/ |
dc.language.iso.none.fl_str_mv |
spa |
language |
spa |
dc.rights.en.fl_str_mv |
Attribution-NonCommercial-NoDerivatives 4.0 International |
dc.rights.uri.none.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0/ |
dc.rights.accessrights.none.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.none.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
Attribution-NonCommercial-NoDerivatives 4.0 International http://creativecommons.org/licenses/by-nc-nd/4.0/ http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.extent.none.fl_str_mv |
12 páginas |
dc.format.mimetype.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidad de los Andes |
dc.publisher.program.none.fl_str_mv |
Ingeniería Electrónica |
dc.publisher.faculty.none.fl_str_mv |
Facultad de Ingeniería |
dc.publisher.department.none.fl_str_mv |
Departamento de Ingeniería Eléctrica y Electrónica |
publisher.none.fl_str_mv |
Universidad de los Andes |
institution |
Universidad de los Andes |
bitstream.url.fl_str_mv |
https://repositorio.uniandes.edu.co/bitstreams/7054fb48-5f20-4ac0-9332-d056a922f59c/download https://repositorio.uniandes.edu.co/bitstreams/f603c55a-4996-4abe-bef6-25fc646fb884/download https://repositorio.uniandes.edu.co/bitstreams/9d481a5a-e622-41b2-90be-6b8e9e4d1e3c/download https://repositorio.uniandes.edu.co/bitstreams/d39c4594-c7f7-4cb5-9dd7-14dc81f393f3/download https://repositorio.uniandes.edu.co/bitstreams/e6dd4d36-0fa8-412c-9cf6-74342954f30a/download https://repositorio.uniandes.edu.co/bitstreams/e8445784-8f42-49c8-9771-b641423602d0/download https://repositorio.uniandes.edu.co/bitstreams/314af208-c4ec-468f-a677-6cd31277131c/download https://repositorio.uniandes.edu.co/bitstreams/2c383022-c45e-4fcd-a5c4-d149061902a7/download |
bitstream.checksum.fl_str_mv |
a9bce8d3c6a02ab6f3bb6cec1d2a00c3 e8b3f474c97f55866937bcca46cfab65 ae9e573a68e7f92501b6913cc846c39f 4460e5956bc1d1639be9ae6146a50347 95b1e93ed80082568c162bb97d2d96eb fa1464110c872a868139e99c3a674b06 67c9e6178662935440639d5c19152ded 33c0717038cb7fb820eef14f237bc2ef |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio institucional Séneca |
repository.mail.fl_str_mv |
adminrepositorio@uniandes.edu.co |
_version_ |
1818111891891814400 |
spelling |
Lozano Martínez, Fernando Enriquevirtual::18607-1Duarte Aguilar, Andrés FelipeOsma Cruz, Johann Faccelovirtual::18608-12024-07-05T14:06:07Z2024-07-05T14:06:07Z2024-06https://hdl.handle.net/1992/74467instname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/La estimación de profundidad a partir de imágenes es un desafío complejo en visión por computadora con aplicaciones como la navegación autónoma y la realidad aumentada. Este proyecto de grado tiene como objetivo desarrollar, entrenar y exportar un modelo de estimación de profundidad monocular sin depender de soluciones preexistentes, permitiendo una comprensión profunda del desarrollo de un modelo de inteligencia artificial. Se utiliza una red neuronal convolucional (CNN) por su capacidad para extraer y representar características visuales, implementando módulos de atención CBAM (Convolutional Block Attention Module) para enfocar el modelo en características relevantes tanto a nivel de canal como espacial. Además, se emplea una función de pérdida que combina L1 y SSIM para mantener la coherencia estructural en las predicciones de profundidad, penalizando adecuadamente los errores grandes y pequeños.Pregrado12 páginasapplication/pdfspaUniversidad de los AndesIngeniería ElectrónicaFacultad de IngenieríaDepartamento de Ingeniería Eléctrica y ElectrónicaAttribution-NonCommercial-NoDerivatives 4.0 Internationalhttp://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Estimación monocular de profundidad con un enfoque basado en machine learningTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1fTexthttp://purl.org/redcol/resource_type/TPEstimación de profundidadVisión por computadoraRed neuronal convolucional (CNN)CBAM (Convolutional Block Attention Module)Inteligencia artificialSSIM (Structural Similarity Index)Ingeniería202021012Publicationhttps://scholar.google.es/citations?user=6QQ-dqMAAAAJvirtual::18608-10000-0003-2928-3406virtual::18608-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000025550virtual::18607-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000221112virtual::18608-1edd81d8c-e0b9-4c1f-bf04-eed0e12e755dvirtual::18607-1edd81d8c-e0b9-4c1f-bf04-eed0e12e755dvirtual::18607-1a9f6ef37-65d7-4484-be71-8f3b4067a8favirtual::18608-1a9f6ef37-65d7-4484-be71-8f3b4067a8favirtual::18608-1ORIGINALautorizacion tesis.pdfautorizacion tesis.pdfHIDEapplication/pdf251517https://repositorio.uniandes.edu.co/bitstreams/7054fb48-5f20-4ac0-9332-d056a922f59c/downloada9bce8d3c6a02ab6f3bb6cec1d2a00c3MD51Estimación monocular de profundidad con un enfoque basado en machine learning.pdfEstimación monocular de profundidad con un enfoque basado en machine learning.pdfapplication/pdf7745322https://repositorio.uniandes.edu.co/bitstreams/f603c55a-4996-4abe-bef6-25fc646fb884/downloade8b3f474c97f55866937bcca46cfab65MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-82535https://repositorio.uniandes.edu.co/bitstreams/9d481a5a-e622-41b2-90be-6b8e9e4d1e3c/downloadae9e573a68e7f92501b6913cc846c39fMD53CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8805https://repositorio.uniandes.edu.co/bitstreams/d39c4594-c7f7-4cb5-9dd7-14dc81f393f3/download4460e5956bc1d1639be9ae6146a50347MD54TEXTautorizacion tesis.pdf.txtautorizacion tesis.pdf.txtExtracted texttext/plain2077https://repositorio.uniandes.edu.co/bitstreams/e6dd4d36-0fa8-412c-9cf6-74342954f30a/download95b1e93ed80082568c162bb97d2d96ebMD55Estimación monocular de profundidad con un enfoque basado en machine learning.pdf.txtEstimación monocular de profundidad con un enfoque basado en machine learning.pdf.txtExtracted texttext/plain43877https://repositorio.uniandes.edu.co/bitstreams/e8445784-8f42-49c8-9771-b641423602d0/downloadfa1464110c872a868139e99c3a674b06MD57THUMBNAILautorizacion tesis.pdf.jpgautorizacion tesis.pdf.jpgGenerated Thumbnailimage/jpeg10894https://repositorio.uniandes.edu.co/bitstreams/314af208-c4ec-468f-a677-6cd31277131c/download67c9e6178662935440639d5c19152dedMD56Estimación monocular de profundidad con un enfoque basado en machine learning.pdf.jpgEstimación monocular de profundidad con un enfoque basado en machine learning.pdf.jpgGenerated Thumbnailimage/jpeg16017https://repositorio.uniandes.edu.co/bitstreams/2c383022-c45e-4fcd-a5c4-d149061902a7/download33c0717038cb7fb820eef14f237bc2efMD581992/74467oai:repositorio.uniandes.edu.co:1992/744672024-07-08 03:07:14.527http://creativecommons.org/licenses/by-nc-nd/4.0/Attribution-NonCommercial-NoDerivatives 4.0 Internationalopen.accesshttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.coPGgzPjxzdHJvbmc+RGVzY2FyZ28gZGUgUmVzcG9uc2FiaWxpZGFkIC0gTGljZW5jaWEgZGUgQXV0b3JpemFjacOzbjwvc3Ryb25nPjwvaDM+CjxwPjxzdHJvbmc+UG9yIGZhdm9yIGxlZXIgYXRlbnRhbWVudGUgZXN0ZSBkb2N1bWVudG8gcXVlIHBlcm1pdGUgYWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBTw6luZWNhIHJlcHJvZHVjaXIgeSBkaXN0cmlidWlyIGxvcyByZWN1cnNvcyBkZSBpbmZvcm1hY2nDs24gZGVwb3NpdGFkb3MgbWVkaWFudGUgbGEgYXV0b3JpemFjacOzbiBkZSBsb3Mgc2lndWllbnRlcyB0w6lybWlub3M6PC9zdHJvbmc+PC9wPgo8cD5Db25jZWRhIGxhIGxpY2VuY2lhIGRlIGRlcMOzc2l0byBlc3TDoW5kYXIgc2VsZWNjaW9uYW5kbyBsYSBvcGNpw7NuIDxzdHJvbmc+J0FjZXB0YXIgbG9zIHTDqXJtaW5vcyBhbnRlcmlvcm1lbnRlIGRlc2NyaXRvcyc8L3N0cm9uZz4geSBjb250aW51YXIgZWwgcHJvY2VzbyBkZSBlbnbDrW8gbWVkaWFudGUgZWwgYm90w7NuIDxzdHJvbmc+J1NpZ3VpZW50ZScuPC9zdHJvbmc+PC9wPgo8aHI+CjxwPllvLCBlbiBtaSBjYWxpZGFkIGRlIGF1dG9yIGRlbCB0cmFiYWpvIGRlIHRlc2lzLCBtb25vZ3JhZsOtYSBvIHRyYWJham8gZGUgZ3JhZG8sIGhhZ28gZW50cmVnYSBkZWwgZWplbXBsYXIgcmVzcGVjdGl2byB5IGRlIHN1cyBhbmV4b3MgZGUgc2VyIGVsIGNhc28sIGVuIGZvcm1hdG8gZGlnaXRhbCB5L28gZWxlY3Ryw7NuaWNvIHkgYXV0b3Jpem8gYSBsYSBVbml2ZXJzaWRhZCBkZSBsb3MgQW5kZXMgcGFyYSBxdWUgcmVhbGljZSBsYSBwdWJsaWNhY2nDs24gZW4gZWwgU2lzdGVtYSBkZSBCaWJsaW90ZWNhcyBvIGVuIGN1YWxxdWllciBvdHJvIHNpc3RlbWEgbyBiYXNlIGRlIGRhdG9zIHByb3BpbyBvIGFqZW5vIGEgbGEgVW5pdmVyc2lkYWQgeSBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBBbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCB1dGlsaWNlIGVuIHRvZGFzIHN1cyBmb3JtYXMsIGxvcyBkZXJlY2hvcyBwYXRyaW1vbmlhbGVzIGRlIHJlcHJvZHVjY2nDs24sIGNvbXVuaWNhY2nDs24gcMO6YmxpY2EsIHRyYW5zZm9ybWFjacOzbiB5IGRpc3RyaWJ1Y2nDs24gKGFscXVpbGVyLCBwcsOpc3RhbW8gcMO6YmxpY28gZSBpbXBvcnRhY2nDs24pIHF1ZSBtZSBjb3JyZXNwb25kZW4gY29tbyBjcmVhZG9yIGRlIGxhIG9icmEgb2JqZXRvIGRlbCBwcmVzZW50ZSBkb2N1bWVudG8uPC9wPgo8cD5MYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIHNlIGVtaXRlIGVuIGNhbGlkYWQgZGUgYXV0b3IgZGUgbGEgb2JyYSBvYmpldG8gZGVsIHByZXNlbnRlIGRvY3VtZW50byB5IG5vIGNvcnJlc3BvbmRlIGEgY2VzacOzbiBkZSBkZXJlY2hvcywgc2lubyBhIGxhIGF1dG9yaXphY2nDs24gZGUgdXNvIGFjYWTDqW1pY28gZGUgY29uZm9ybWlkYWQgY29uIGxvIGFudGVyaW9ybWVudGUgc2XDsWFsYWRvLiBMYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIHNlIGhhY2UgZXh0ZW5zaXZhIG5vIHNvbG8gYSBsYXMgZmFjdWx0YWRlcyB5IGRlcmVjaG9zIGRlIHVzbyBzb2JyZSBsYSBvYnJhIGVuIGZvcm1hdG8gbyBzb3BvcnRlIG1hdGVyaWFsLCBzaW5vIHRhbWJpw6luIHBhcmEgZm9ybWF0byBlbGVjdHLDs25pY28sIHkgZW4gZ2VuZXJhbCBwYXJhIGN1YWxxdWllciBmb3JtYXRvIGNvbm9jaWRvIG8gcG9yIGNvbm9jZXIuPC9wPgo8cD5FbCBhdXRvciwgbWFuaWZpZXN0YSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8sIGxhIG9icmEgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgbGEgbWlzbWEuPC9wPgo8cD5FbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgZWwgYXV0b3IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBkZSBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVbml2ZXJzaWRhZCBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlLjwvcD4KPHA+U2kgdGllbmUgYWxndW5hIGR1ZGEgc29icmUgbGEgbGljZW5jaWEsIHBvciBmYXZvciwgY29udGFjdGUgY29uIGVsIDxhIGhyZWY9Im1haWx0bzpiaWJsaW90ZWNhQHVuaWFuZGVzLmVkdS5jbyIgdGFyZ2V0PSJfYmxhbmsiPkFkbWluaXN0cmFkb3IgZGVsIFNpc3RlbWEuPC9hPjwvcD4K |