Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales
En Deep Learning, entrenar apropiadamente un modelo con datos en gran cantidad y de alta calidad es crucial para alcanzar un buen resultado. Sin embargo, en algunas tareas los datos necesarios no se encuentran disponibles en un momento único y sólo se pueden obtener a lo largo del tiempo. En el últi...
- Autores:
-
Narváez Rivas, Camilo
Muñoz Gómez, José David
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2019
- Institución:
- Universidad del Cauca
- Repositorio:
- Repositorio Unicauca
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.unicauca.edu.co:123456789/1651
- Acceso en línea:
- http://repositorio.unicauca.edu.co:8080/xmlui/handle/123456789/1651
- Palabra clave:
- Algoritmo de aprendizaje
Competencia
Agrupamiento
Fronteras de clases
Redes convolucionales
RMSProp
- Rights
- License
- https://creativecommons.org/licenses/by-nc-nd/4.0/
id |
REPOCAUCA2_5697634a0faccbaa632bc8362b4bf997 |
---|---|
oai_identifier_str |
oai:repositorio.unicauca.edu.co:123456789/1651 |
network_acronym_str |
REPOCAUCA2 |
network_name_str |
Repositorio Unicauca |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales |
title |
Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales |
spellingShingle |
Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales Algoritmo de aprendizaje Competencia Agrupamiento Fronteras de clases Redes convolucionales RMSProp |
title_short |
Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales |
title_full |
Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales |
title_fullStr |
Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales |
title_full_unstemmed |
Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales |
title_sort |
Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales |
dc.creator.fl_str_mv |
Narváez Rivas, Camilo Muñoz Gómez, José David |
dc.contributor.author.none.fl_str_mv |
Narváez Rivas, Camilo Muñoz Gómez, José David |
dc.subject.spa.fl_str_mv |
Algoritmo de aprendizaje Competencia Agrupamiento Fronteras de clases Redes convolucionales |
topic |
Algoritmo de aprendizaje Competencia Agrupamiento Fronteras de clases Redes convolucionales RMSProp |
dc.subject.eng.fl_str_mv |
RMSProp |
description |
En Deep Learning, entrenar apropiadamente un modelo con datos en gran cantidad y de alta calidad es crucial para alcanzar un buen resultado. Sin embargo, en algunas tareas los datos necesarios no se encuentran disponibles en un momento único y sólo se pueden obtener a lo largo del tiempo. En el último caso, el Aprendizaje Incremental es una alternativa a usar para entrenar un modelo apropiadamente, sin embargo, se presenta un problema en la forma del dilema de la estabilidad-plasticidad: cómo entrenar incrementalmente un modelo que pueda responder bien a nuevos datos (plasticidad), a la vez que se retiene el conocimiento previo (estabilidad). El presente trabajo de investigación propone un modelo de aprendizaje incremental inspirado en Rehearsal (recuerdo de memorias pasadas basada en un subconjunto de datos) el cual se ha denominado CRIF, y que ha sido construido sobre un framework de soporte de experimentación de algoritmos de aprendizaje incremental llamado DILF, el cual también ha sido propuesto en este trabajo. Adicionalmente se proponen dos algoritmos que instancian el marco establecido en CRIF: uno que usa una selección aleatoria de muestras representativas (NIL) y otro que usa las métricas de Best vs. Second Best y distancia de Crowding en conjunto para esta tarea (RILBC). El rendimiento de los algoritmos propuestos fue evaluado usando tres métricas, a saber: exactitud, tiempo y pérdida (loss). Los experimentos fueron realizados sobre cuatro datasets, MNIST, Fashion-MNIST, CIFAR-10, y Caltech 101; y en dos escenarios incrementales diferentes: un escenario con clases estrictamente incrementales, y un escenario con clases pseudo incrementales y datos desbalanceados. En Caltech 101 se usó Transfer Learning, y en este escenario, así como en los otros tres datasets, el método propuesto NIL alcanza mejores resultados en exactitud que los algoritmos comparados, tales como RMSProp Inc (línea base) e iCaRL (propuesta del estado del arte), y sobre el otro método propuesto RILBC. NIL obtiene resultados que son estadísticamente comparables con un proceso de entrenamiento acumulativo (todos los datos disponibles) y también demuestra poder alcanzar estos resultados en menos tiempo. |
publishDate |
2019 |
dc.date.accessioned.none.fl_str_mv |
2019-11-20T21:48:59Z |
dc.date.available.none.fl_str_mv |
2019-11-20T21:48:59Z |
dc.date.issued.none.fl_str_mv |
2019-07 |
dc.type.spa.fl_str_mv |
Trabajos de grado |
dc.type.coarversion.fl_str_mv |
http://purl.org/coar/version/c_970fb48d4fbd8a85 |
dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
format |
http://purl.org/coar/resource_type/c_7a1f |
dc.identifier.uri.none.fl_str_mv |
http://repositorio.unicauca.edu.co:8080/xmlui/handle/123456789/1651 |
dc.identifier.instname.none.fl_str_mv |
|
dc.identifier.reponame.none.fl_str_mv |
|
dc.identifier.repourl.none.fl_str_mv |
|
url |
http://repositorio.unicauca.edu.co:8080/xmlui/handle/123456789/1651 |
identifier_str_mv |
|
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.uri.none.fl_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0/ |
dc.rights.creativecommons.none.fl_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0/ |
rights_invalid_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0/ http://purl.org/coar/access_right/c_abf2 |
dc.publisher.spa.fl_str_mv |
Universidad del Cauca |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ingeniería Electrónica y Telecomunicaciones |
dc.publisher.program.spa.fl_str_mv |
Ingeniería Electrónica y Telecomunicaciones |
institution |
Universidad del Cauca |
bitstream.url.fl_str_mv |
http://repositorio.unicauca.edu.co/bitstream/123456789/1651/1/ALGORITMO%20DE%20APRENDIZAJE%20INCREMENTAL%20BASADO%20EN%20RMSPROP%20Y%20REPRESENTANTES%20PARA%20REDUCIR%20EL%20TIEMPO.pdf http://repositorio.unicauca.edu.co/bitstream/123456789/1651/2/Anexo%20C%20-%20DILF.%20Deep%20Incremental%20Learning%20Framework%20over%20TensorFlow.pdf http://repositorio.unicauca.edu.co/bitstream/123456789/1651/3/license.txt |
bitstream.checksum.fl_str_mv |
c0cda157b5764f575d22ffc5a727cd5d 225047351fc1b7a848df090728eaf999 8a4605be74aa9ea9d79846c1fba20a33 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 |
repository.name.fl_str_mv |
Dspace - Universidad del Cauca |
repository.mail.fl_str_mv |
biblios@unicauca.edu.co |
_version_ |
1818113149248733184 |
spelling |
Narváez Rivas, CamiloMuñoz Gómez, José David2019-11-20T21:48:59Z2019-11-20T21:48:59Z2019-07http://repositorio.unicauca.edu.co:8080/xmlui/handle/123456789/1651En Deep Learning, entrenar apropiadamente un modelo con datos en gran cantidad y de alta calidad es crucial para alcanzar un buen resultado. Sin embargo, en algunas tareas los datos necesarios no se encuentran disponibles en un momento único y sólo se pueden obtener a lo largo del tiempo. En el último caso, el Aprendizaje Incremental es una alternativa a usar para entrenar un modelo apropiadamente, sin embargo, se presenta un problema en la forma del dilema de la estabilidad-plasticidad: cómo entrenar incrementalmente un modelo que pueda responder bien a nuevos datos (plasticidad), a la vez que se retiene el conocimiento previo (estabilidad). El presente trabajo de investigación propone un modelo de aprendizaje incremental inspirado en Rehearsal (recuerdo de memorias pasadas basada en un subconjunto de datos) el cual se ha denominado CRIF, y que ha sido construido sobre un framework de soporte de experimentación de algoritmos de aprendizaje incremental llamado DILF, el cual también ha sido propuesto en este trabajo. Adicionalmente se proponen dos algoritmos que instancian el marco establecido en CRIF: uno que usa una selección aleatoria de muestras representativas (NIL) y otro que usa las métricas de Best vs. Second Best y distancia de Crowding en conjunto para esta tarea (RILBC). El rendimiento de los algoritmos propuestos fue evaluado usando tres métricas, a saber: exactitud, tiempo y pérdida (loss). Los experimentos fueron realizados sobre cuatro datasets, MNIST, Fashion-MNIST, CIFAR-10, y Caltech 101; y en dos escenarios incrementales diferentes: un escenario con clases estrictamente incrementales, y un escenario con clases pseudo incrementales y datos desbalanceados. En Caltech 101 se usó Transfer Learning, y en este escenario, así como en los otros tres datasets, el método propuesto NIL alcanza mejores resultados en exactitud que los algoritmos comparados, tales como RMSProp Inc (línea base) e iCaRL (propuesta del estado del arte), y sobre el otro método propuesto RILBC. NIL obtiene resultados que son estadísticamente comparables con un proceso de entrenamiento acumulativo (todos los datos disponibles) y también demuestra poder alcanzar estos resultados en menos tiempo.spaUniversidad del CaucaFacultad de Ingeniería Electrónica y Telecomunicaciones Ingeniería Electrónica y Telecomunicacioneshttps://creativecommons.org/licenses/by-nc-nd/4.0/https://creativecommons.org/licenses/by-nc-nd/4.0/http://purl.org/coar/access_right/c_abf2Algoritmo de aprendizajeCompetenciaAgrupamientoFronteras de clasesRedes convolucionalesRMSPropAlgoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionalesTrabajos de gradoinfo:eu-repo/semantics/bachelorThesishttp://purl.org/coar/resource_type/c_7a1fhttp://purl.org/coar/version/c_970fb48d4fbd8a85http://purl.org/coar/version/c_970fb48d4fbd8a85ORIGINALALGORITMO DE APRENDIZAJE INCREMENTAL BASADO EN RMSPROP Y REPRESENTANTES PARA REDUCIR EL TIEMPO.pdfALGORITMO DE APRENDIZAJE INCREMENTAL BASADO EN RMSPROP Y REPRESENTANTES PARA REDUCIR EL TIEMPO.pdfapplication/pdf3493087http://repositorio.unicauca.edu.co/bitstream/123456789/1651/1/ALGORITMO%20DE%20APRENDIZAJE%20INCREMENTAL%20BASADO%20EN%20RMSPROP%20Y%20REPRESENTANTES%20PARA%20REDUCIR%20EL%20TIEMPO.pdfc0cda157b5764f575d22ffc5a727cd5dMD51Anexo C - DILF. Deep Incremental Learning Framework over TensorFlow.pdfAnexo C - DILF. Deep Incremental Learning Framework over TensorFlow.pdfapplication/pdf736531http://repositorio.unicauca.edu.co/bitstream/123456789/1651/2/Anexo%20C%20-%20DILF.%20Deep%20Incremental%20Learning%20Framework%20over%20TensorFlow.pdf225047351fc1b7a848df090728eaf999MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-81748http://repositorio.unicauca.edu.co/bitstream/123456789/1651/3/license.txt8a4605be74aa9ea9d79846c1fba20a33MD53123456789/1651oai:repositorio.unicauca.edu.co:123456789/16512021-05-28 10:23:22.362Dspace - Universidad del Caucabiblios@unicauca.edu.coTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo= |