Algoritmo de aprendizaje incremental basado en RMSPROP y representantes para reducir el tiempo de reentrenamiento de redes convolucionales

En Deep Learning, entrenar apropiadamente un modelo con datos en gran cantidad y de alta calidad es crucial para alcanzar un buen resultado. Sin embargo, en algunas tareas los datos necesarios no se encuentran disponibles en un momento único y sólo se pueden obtener a lo largo del tiempo. En el últi...

Full description

Autores:
Narváez Rivas, Camilo
Muñoz Gómez, José David
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2019
Institución:
Universidad del Cauca
Repositorio:
Repositorio Unicauca
Idioma:
spa
OAI Identifier:
oai:repositorio.unicauca.edu.co:123456789/1651
Acceso en línea:
http://repositorio.unicauca.edu.co:8080/xmlui/handle/123456789/1651
Palabra clave:
Algoritmo de aprendizaje
Competencia
Agrupamiento
Fronteras de clases
Redes convolucionales
RMSProp
Rights
License
https://creativecommons.org/licenses/by-nc-nd/4.0/
Description
Summary:En Deep Learning, entrenar apropiadamente un modelo con datos en gran cantidad y de alta calidad es crucial para alcanzar un buen resultado. Sin embargo, en algunas tareas los datos necesarios no se encuentran disponibles en un momento único y sólo se pueden obtener a lo largo del tiempo. En el último caso, el Aprendizaje Incremental es una alternativa a usar para entrenar un modelo apropiadamente, sin embargo, se presenta un problema en la forma del dilema de la estabilidad-plasticidad: cómo entrenar incrementalmente un modelo que pueda responder bien a nuevos datos (plasticidad), a la vez que se retiene el conocimiento previo (estabilidad). El presente trabajo de investigación propone un modelo de aprendizaje incremental inspirado en Rehearsal (recuerdo de memorias pasadas basada en un subconjunto de datos) el cual se ha denominado CRIF, y que ha sido construido sobre un framework de soporte de experimentación de algoritmos de aprendizaje incremental llamado DILF, el cual también ha sido propuesto en este trabajo. Adicionalmente se proponen dos algoritmos que instancian el marco establecido en CRIF: uno que usa una selección aleatoria de muestras representativas (NIL) y otro que usa las métricas de Best vs. Second Best y distancia de Crowding en conjunto para esta tarea (RILBC). El rendimiento de los algoritmos propuestos fue evaluado usando tres métricas, a saber: exactitud, tiempo y pérdida (loss). Los experimentos fueron realizados sobre cuatro datasets, MNIST, Fashion-MNIST, CIFAR-10, y Caltech 101; y en dos escenarios incrementales diferentes: un escenario con clases estrictamente incrementales, y un escenario con clases pseudo incrementales y datos desbalanceados. En Caltech 101 se usó Transfer Learning, y en este escenario, así como en los otros tres datasets, el método propuesto NIL alcanza mejores resultados en exactitud que los algoritmos comparados, tales como RMSProp Inc (línea base) e iCaRL (propuesta del estado del arte), y sobre el otro método propuesto RILBC. NIL obtiene resultados que son estadísticamente comparables con un proceso de entrenamiento acumulativo (todos los datos disponibles) y también demuestra poder alcanzar estos resultados en menos tiempo.