Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales

En Deep Learning, entrenar apropiadamente un modelo con datos en gran cantidad y de alta calidad es crucial para alcanzar un buen resultado. Sin embargo, en algunas tareas los datos necesarios no se encuentran disponibles en un momento único y sólo se pueden obtener a lo largo del tiempo. En el últi...

Full description

Autores:
Narváez Rivas, Camilo
Muñoz Gómez, José David
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2019
Institución:
Universidad del Cauca
Repositorio:
Repositorio Unicauca
Idioma:
spa
OAI Identifier:
oai:repositorio.unicauca.edu.co:123456789/1651
Acceso en línea:
http://repositorio.unicauca.edu.co:8080/xmlui/handle/123456789/1651
Palabra clave:
Algoritmo de aprendizaje
Competencia
Agrupamiento
Fronteras de clases
Redes convolucionales
RMSProp
Rights
License
https://creativecommons.org/licenses/by-nc-nd/4.0/
id REPOCAUCA2_5697634a0faccbaa632bc8362b4bf997
oai_identifier_str oai:repositorio.unicauca.edu.co:123456789/1651
network_acronym_str REPOCAUCA2
network_name_str Repositorio Unicauca
repository_id_str
dc.title.spa.fl_str_mv Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales
title Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales
spellingShingle Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales
Algoritmo de aprendizaje
Competencia
Agrupamiento
Fronteras de clases
Redes convolucionales
RMSProp
title_short Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales
title_full Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales
title_fullStr Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales
title_full_unstemmed Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales
title_sort Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales
dc.creator.fl_str_mv Narváez Rivas, Camilo
Muñoz Gómez, José David
dc.contributor.author.none.fl_str_mv Narváez Rivas, Camilo
Muñoz Gómez, José David
dc.subject.spa.fl_str_mv Algoritmo de aprendizaje
Competencia
Agrupamiento
Fronteras de clases
Redes convolucionales
topic Algoritmo de aprendizaje
Competencia
Agrupamiento
Fronteras de clases
Redes convolucionales
RMSProp
dc.subject.eng.fl_str_mv RMSProp
description En Deep Learning, entrenar apropiadamente un modelo con datos en gran cantidad y de alta calidad es crucial para alcanzar un buen resultado. Sin embargo, en algunas tareas los datos necesarios no se encuentran disponibles en un momento único y sólo se pueden obtener a lo largo del tiempo. En el último caso, el Aprendizaje Incremental es una alternativa a usar para entrenar un modelo apropiadamente, sin embargo, se presenta un problema en la forma del dilema de la estabilidad-plasticidad: cómo entrenar incrementalmente un modelo que pueda responder bien a nuevos datos (plasticidad), a la vez que se retiene el conocimiento previo (estabilidad). El presente trabajo de investigación propone un modelo de aprendizaje incremental inspirado en Rehearsal (recuerdo de memorias pasadas basada en un subconjunto de datos) el cual se ha denominado CRIF, y que ha sido construido sobre un framework de soporte de experimentación de algoritmos de aprendizaje incremental llamado DILF, el cual también ha sido propuesto en este trabajo. Adicionalmente se proponen dos algoritmos que instancian el marco establecido en CRIF: uno que usa una selección aleatoria de muestras representativas (NIL) y otro que usa las métricas de Best vs. Second Best y distancia de Crowding en conjunto para esta tarea (RILBC). El rendimiento de los algoritmos propuestos fue evaluado usando tres métricas, a saber: exactitud, tiempo y pérdida (loss). Los experimentos fueron realizados sobre cuatro datasets, MNIST, Fashion-MNIST, CIFAR-10, y Caltech 101; y en dos escenarios incrementales diferentes: un escenario con clases estrictamente incrementales, y un escenario con clases pseudo incrementales y datos desbalanceados. En Caltech 101 se usó Transfer Learning, y en este escenario, así como en los otros tres datasets, el método propuesto NIL alcanza mejores resultados en exactitud que los algoritmos comparados, tales como RMSProp Inc (línea base) e iCaRL (propuesta del estado del arte), y sobre el otro método propuesto RILBC. NIL obtiene resultados que son estadísticamente comparables con un proceso de entrenamiento acumulativo (todos los datos disponibles) y también demuestra poder alcanzar estos resultados en menos tiempo.
publishDate 2019
dc.date.accessioned.none.fl_str_mv 2019-11-20T21:48:59Z
dc.date.available.none.fl_str_mv 2019-11-20T21:48:59Z
dc.date.issued.none.fl_str_mv 2019-07
dc.type.spa.fl_str_mv Trabajos de grado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
format http://purl.org/coar/resource_type/c_7a1f
dc.identifier.uri.none.fl_str_mv http://repositorio.unicauca.edu.co:8080/xmlui/handle/123456789/1651
dc.identifier.instname.none.fl_str_mv
dc.identifier.reponame.none.fl_str_mv
dc.identifier.repourl.none.fl_str_mv
url http://repositorio.unicauca.edu.co:8080/xmlui/handle/123456789/1651
identifier_str_mv
dc.language.iso.spa.fl_str_mv spa
language spa
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.none.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.creativecommons.none.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
rights_invalid_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
http://purl.org/coar/access_right/c_abf2
dc.publisher.spa.fl_str_mv Universidad del Cauca
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería Electrónica y Telecomunicaciones 
dc.publisher.program.spa.fl_str_mv Ingeniería Electrónica y Telecomunicaciones
institution Universidad del Cauca
bitstream.url.fl_str_mv http://repositorio.unicauca.edu.co/bitstream/123456789/1651/1/ALGORITMO%20DE%20APRENDIZAJE%20INCREMENTAL%20BASADO%20EN%20RMSPROP%20Y%20REPRESENTANTES%20PARA%20REDUCIR%20EL%20TIEMPO.pdf
http://repositorio.unicauca.edu.co/bitstream/123456789/1651/2/Anexo%20C%20-%20DILF.%20Deep%20Incremental%20Learning%20Framework%20over%20TensorFlow.pdf
http://repositorio.unicauca.edu.co/bitstream/123456789/1651/3/license.txt
bitstream.checksum.fl_str_mv c0cda157b5764f575d22ffc5a727cd5d
225047351fc1b7a848df090728eaf999
8a4605be74aa9ea9d79846c1fba20a33
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv Dspace - Universidad del Cauca
repository.mail.fl_str_mv biblios@unicauca.edu.co
_version_ 1808396264937619456
spelling Narváez Rivas, CamiloMuñoz Gómez, José David2019-11-20T21:48:59Z2019-11-20T21:48:59Z2019-07http://repositorio.unicauca.edu.co:8080/xmlui/handle/123456789/1651En Deep Learning, entrenar apropiadamente un modelo con datos en gran cantidad y de alta calidad es crucial para alcanzar un buen resultado. Sin embargo, en algunas tareas los datos necesarios no se encuentran disponibles en un momento único y sólo se pueden obtener a lo largo del tiempo. En el último caso, el Aprendizaje Incremental es una alternativa a usar para entrenar un modelo apropiadamente, sin embargo, se presenta un problema en la forma del dilema de la estabilidad-plasticidad: cómo entrenar incrementalmente un modelo que pueda responder bien a nuevos datos (plasticidad), a la vez que se retiene el conocimiento previo (estabilidad). El presente trabajo de investigación propone un modelo de aprendizaje incremental inspirado en Rehearsal (recuerdo de memorias pasadas basada en un subconjunto de datos) el cual se ha denominado CRIF, y que ha sido construido sobre un framework de soporte de experimentación de algoritmos de aprendizaje incremental llamado DILF, el cual también ha sido propuesto en este trabajo. Adicionalmente se proponen dos algoritmos que instancian el marco establecido en CRIF: uno que usa una selección aleatoria de muestras representativas (NIL) y otro que usa las métricas de Best vs. Second Best y distancia de Crowding en conjunto para esta tarea (RILBC). El rendimiento de los algoritmos propuestos fue evaluado usando tres métricas, a saber: exactitud, tiempo y pérdida (loss). Los experimentos fueron realizados sobre cuatro datasets, MNIST, Fashion-MNIST, CIFAR-10, y Caltech 101; y en dos escenarios incrementales diferentes: un escenario con clases estrictamente incrementales, y un escenario con clases pseudo incrementales y datos desbalanceados. En Caltech 101 se usó Transfer Learning, y en este escenario, así como en los otros tres datasets, el método propuesto NIL alcanza mejores resultados en exactitud que los algoritmos comparados, tales como RMSProp Inc (línea base) e iCaRL (propuesta del estado del arte), y sobre el otro método propuesto RILBC. NIL obtiene resultados que son estadísticamente comparables con un proceso de entrenamiento acumulativo (todos los datos disponibles) y también demuestra poder alcanzar estos resultados en menos tiempo.spaUniversidad del CaucaFacultad de Ingeniería Electrónica y Telecomunicaciones Ingeniería Electrónica y Telecomunicacioneshttps://creativecommons.org/licenses/by-nc-nd/4.0/https://creativecommons.org/licenses/by-nc-nd/4.0/http://purl.org/coar/access_right/c_abf2Algoritmo de aprendizajeCompetenciaAgrupamientoFronteras de clasesRedes convolucionalesRMSPropAlgoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionalesTrabajos de gradoinfo:eu-repo/semantics/bachelorThesishttp://purl.org/coar/resource_type/c_7a1fhttp://purl.org/coar/version/c_970fb48d4fbd8a85http://purl.org/coar/version/c_970fb48d4fbd8a85ORIGINALALGORITMO DE APRENDIZAJE INCREMENTAL BASADO EN RMSPROP Y REPRESENTANTES PARA REDUCIR EL TIEMPO.pdfALGORITMO DE APRENDIZAJE INCREMENTAL BASADO EN RMSPROP Y REPRESENTANTES PARA REDUCIR EL TIEMPO.pdfapplication/pdf3493087http://repositorio.unicauca.edu.co/bitstream/123456789/1651/1/ALGORITMO%20DE%20APRENDIZAJE%20INCREMENTAL%20BASADO%20EN%20RMSPROP%20Y%20REPRESENTANTES%20PARA%20REDUCIR%20EL%20TIEMPO.pdfc0cda157b5764f575d22ffc5a727cd5dMD51Anexo C - DILF. Deep Incremental Learning Framework over TensorFlow.pdfAnexo C - DILF. Deep Incremental Learning Framework over TensorFlow.pdfapplication/pdf736531http://repositorio.unicauca.edu.co/bitstream/123456789/1651/2/Anexo%20C%20-%20DILF.%20Deep%20Incremental%20Learning%20Framework%20over%20TensorFlow.pdf225047351fc1b7a848df090728eaf999MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-81748http://repositorio.unicauca.edu.co/bitstream/123456789/1651/3/license.txt8a4605be74aa9ea9d79846c1fba20a33MD53123456789/1651oai:repositorio.unicauca.edu.co:123456789/16512021-05-28 10:23:22.362Dspace - Universidad del Caucabiblios@unicauca.edu.coTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo=