Kernel-based Enhancement of General Stochastic Network for Supervised Learning

En los últimos años, han tenido lugar avances significativos en el análisis de datos de alta dimensión que permiten soportar una amplia cantidad de aplicaciones en sistemas de aprendizaje automático y procesamiento de señales entre otros. Sin embargo, es difícil de interpretar la información disponi...

Full description

Autores:
Collazos Huertas, Diego Fabián
Tipo de recurso:
Fecha de publicación:
2016
Institución:
Universidad Nacional de Colombia
Repositorio:
Universidad Nacional de Colombia
Idioma:
spa
OAI Identifier:
oai:repositorio.unal.edu.co:unal/56581
Acceso en línea:
https://repositorio.unal.edu.co/handle/unal/56581
http://bdigital.unal.edu.co/52406/
Palabra clave:
0 Generalidades / Computer science, information and general works
62 Ingeniería y operaciones afines / Engineering
Red estocástica general
Aprendizaje basado en Kernel
Selección de la arquitectura
Pre-entrenamiento de la red
Aprendizaje supervisado
General stochastic network
Kernel-based learning
Architecture selection
Network pre-training
Supervised learning
Rights
openAccess
License
Atribución-NoComercial 4.0 Internacional
id UNACIONAL2_f90d9d832680b012de98ddef3d83fb8f
oai_identifier_str oai:repositorio.unal.edu.co:unal/56581
network_acronym_str UNACIONAL2
network_name_str Universidad Nacional de Colombia
repository_id_str
dc.title.spa.fl_str_mv Kernel-based Enhancement of General Stochastic Network for Supervised Learning
title Kernel-based Enhancement of General Stochastic Network for Supervised Learning
spellingShingle Kernel-based Enhancement of General Stochastic Network for Supervised Learning
0 Generalidades / Computer science, information and general works
62 Ingeniería y operaciones afines / Engineering
Red estocástica general
Aprendizaje basado en Kernel
Selección de la arquitectura
Pre-entrenamiento de la red
Aprendizaje supervisado
General stochastic network
Kernel-based learning
Architecture selection
Network pre-training
Supervised learning
title_short Kernel-based Enhancement of General Stochastic Network for Supervised Learning
title_full Kernel-based Enhancement of General Stochastic Network for Supervised Learning
title_fullStr Kernel-based Enhancement of General Stochastic Network for Supervised Learning
title_full_unstemmed Kernel-based Enhancement of General Stochastic Network for Supervised Learning
title_sort Kernel-based Enhancement of General Stochastic Network for Supervised Learning
dc.creator.fl_str_mv Collazos Huertas, Diego Fabián
dc.contributor.advisor.spa.fl_str_mv Castellanos Domínguez, César Germán (Thesis advisor)
Álvarez Meza, Andrés Marino (Thesis advisor)
dc.contributor.author.spa.fl_str_mv Collazos Huertas, Diego Fabián
dc.subject.ddc.spa.fl_str_mv 0 Generalidades / Computer science, information and general works
62 Ingeniería y operaciones afines / Engineering
topic 0 Generalidades / Computer science, information and general works
62 Ingeniería y operaciones afines / Engineering
Red estocástica general
Aprendizaje basado en Kernel
Selección de la arquitectura
Pre-entrenamiento de la red
Aprendizaje supervisado
General stochastic network
Kernel-based learning
Architecture selection
Network pre-training
Supervised learning
dc.subject.proposal.spa.fl_str_mv Red estocástica general
Aprendizaje basado en Kernel
Selección de la arquitectura
Pre-entrenamiento de la red
Aprendizaje supervisado
General stochastic network
Kernel-based learning
Architecture selection
Network pre-training
Supervised learning
description En los últimos años, han tenido lugar avances significativos en el análisis de datos de alta dimensión que permiten soportar una amplia cantidad de aplicaciones en sistemas de aprendizaje automático y procesamiento de señales entre otros. Sin embargo, es difícil de interpretar la información disponible debido a su complejidad y a la gran cantidad de características obtenidas. Los algoritmos de Aprendizaje Profundo o Deep Learning surgen como una herramienta que se ocupa de este tipo de problemas mediante la extracción de representaciones (abstracciones) a partir de los datos. Las redes neuronales artificiales basadas en algoritmos de aprendizaje profundo, es decir, las Redes Neuronales Profundas o Deep Neural Networks (DNN) emplean un enfoque de jerarquía de característica que aumenta la complejidad y la abstracción. Lo anterior hace a las DNNs capaces de manejar conjuntos de datos muy grandes, de alta dimensión con miles de millones de parámetros que pasan a través de funciones no lineales. Además, esto proporciona una mejor representación de los datos, lo que permite un aprendizaje más rápido y una clasificación más precisa. Sin embargo, las DNNs, así como la mayoría de las redes neuronales artificiales, siguen siendo vulnerables a sufrir un over-fitting o exceso de ajuste. Con respecto a esto, las funciones Kernel aparecen como un enfoque alternativo que, en primer lugar, ayuda al análisis de datos de alta dimensión permitiendo mejorar la representación y la interpretación de los datos para el apoyo a sistemas de procesamiento de señales y de aprendizaje automático. Por otra parte, los métodos basados en Kernel desarrollan soluciones que ofrecen mejores resultados mediante la adaptación del Kernel a un problema dado, el cual, permite combatir el problema de over-fitting presente en la etapa de aprendizaje de las redes neuronales profundas. En este estudio, proponemos un marco de representación de datos basado en funciones Kernel para mejorar el rendimiento de una especie de red neuronal profunda, llamada Red Estocástica General o Red Estocástica Generativa de aprendizaje supervisado. En concreto, el marco propuesto se divide en dos metodologías basadas en Kernel, que tienen por objeto mejorar el ajuste de parámetros de la red de acuerdo con las relaciones entre los datos. En primer lugar, se desarrolla un criterio de selección automática de la arquitectura de la red basado en funciones Kernel, que permita cuantificar el tamaño óptimo de la capa preservando la información de conjunta entrada-salida. Por lo tanto, el tamaño de la capa oculta resultante se destaca con el objetivo de favorecer el aprendizaje de las etapas de entrenamiento en la clasificación y tareas de reconocimiento de objetos. Este enfoque llamado Joint Spectrum permite la explotación de la similitud de datos conjunta para un conjunto de muestras de entrada dado. En segundo lugar, se introduce un enfoque pre-entrenamiento supervisado de la red que resalta la relación entre los estados ocultos y la información objetivo. Por lo tanto, se introduce un enfoque pre-entrenamiento supervisado basado en una función Kernel CKA para aprender una matriz de proyección, la cual codifica la información discriminante de los datos para obtener una representación oculta adecuada. Por lo tanto, buscamos un método de pre-entrenamiento que capta las variaciones principales de la distribución de entrada para apoyar la etapa de aprendizaje. Por último, una red estocástica generativa mejorada fue desarrollada para apoyar las tareas de aprendizaje supervisado. La propuesta considera las dos estrategias de sintonización de parámetros de la red basadas en funciones Kernel antes mencionadas, explotando sus principales propiedades. La red resultante destaca dependencias de los datos relevantes y el conocimiento previo del usuario (información supervisada). Por lo tanto, se construye una red generalizable capaz de capturar una gran cantidad de información a partir de la distribución de datos de entrada y codificar patrones discriminantes. A lo largo de este estudio, el mejoramiento de red propuesto usando un marco basado en el Kernel se aplica a los datos de imagen como una alternativa para apoyar los sistemas de clasificación y análisis de objetos basado en la imagen. De hecho, el marco basado en funciones Kernel introducido mejora, en la mayoría de los casos, el rendimiento en tareas de aprendizaje supervisado, apoyando el análisis de una gran cantidad de datos utilizando arquitecturas de aprendizaje profundo
publishDate 2016
dc.date.issued.spa.fl_str_mv 2016
dc.date.accessioned.spa.fl_str_mv 2019-07-02T11:57:38Z
dc.date.available.spa.fl_str_mv 2019-07-02T11:57:38Z
dc.type.spa.fl_str_mv Trabajo de grado - Maestría
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/masterThesis
dc.type.version.spa.fl_str_mv info:eu-repo/semantics/acceptedVersion
dc.type.content.spa.fl_str_mv Text
dc.type.redcol.spa.fl_str_mv http://purl.org/redcol/resource_type/TM
status_str acceptedVersion
dc.identifier.uri.none.fl_str_mv https://repositorio.unal.edu.co/handle/unal/56581
dc.identifier.eprints.spa.fl_str_mv http://bdigital.unal.edu.co/52406/
url https://repositorio.unal.edu.co/handle/unal/56581
http://bdigital.unal.edu.co/52406/
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.ispartof.spa.fl_str_mv Universidad Nacional de Colombia Sede Manizales Facultad de Ingeniería y Arquitectura Departamento de Ingeniería Eléctrica, Electrónica y Computación Ingeniería Electrónica
Ingeniería Electrónica
dc.relation.references.spa.fl_str_mv Collazos Huertas, Diego Fabián (2016) Kernel-based Enhancement of General Stochastic Network for Supervised Learning. Maestría thesis, Universidad Nacional de Colombia - Sede Manizales.
dc.rights.spa.fl_str_mv Derechos reservados - Universidad Nacional de Colombia
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.license.spa.fl_str_mv Atribución-NoComercial 4.0 Internacional
dc.rights.uri.spa.fl_str_mv http://creativecommons.org/licenses/by-nc/4.0/
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
rights_invalid_str_mv Atribución-NoComercial 4.0 Internacional
Derechos reservados - Universidad Nacional de Colombia
http://creativecommons.org/licenses/by-nc/4.0/
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.mimetype.spa.fl_str_mv application/pdf
institution Universidad Nacional de Colombia
bitstream.url.fl_str_mv https://repositorio.unal.edu.co/bitstream/unal/56581/1/1053812740.2016.pdf
https://repositorio.unal.edu.co/bitstream/unal/56581/2/1053812740.2016.pdf.jpg
bitstream.checksum.fl_str_mv 4ad00e88fe78e1b909d0b7772f9a0723
367cb7ddc447a18a1ff77f086d1bc2c1
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
repository.name.fl_str_mv Repositorio Institucional Universidad Nacional de Colombia
repository.mail.fl_str_mv repositorio_nal@unal.edu.co
_version_ 1814089786764296192
spelling Atribución-NoComercial 4.0 InternacionalDerechos reservados - Universidad Nacional de Colombiahttp://creativecommons.org/licenses/by-nc/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Castellanos Domínguez, César Germán (Thesis advisor)c792a029-43aa-4eb1-ac01-0b8ac24a537e-1Álvarez Meza, Andrés Marino (Thesis advisor)6383e9ae-44c1-4955-87a9-e19359f15425-1Collazos Huertas, Diego Fabián1e0673e7-e9be-4393-afc0-8923d16b2a8c3002019-07-02T11:57:38Z2019-07-02T11:57:38Z2016https://repositorio.unal.edu.co/handle/unal/56581http://bdigital.unal.edu.co/52406/En los últimos años, han tenido lugar avances significativos en el análisis de datos de alta dimensión que permiten soportar una amplia cantidad de aplicaciones en sistemas de aprendizaje automático y procesamiento de señales entre otros. Sin embargo, es difícil de interpretar la información disponible debido a su complejidad y a la gran cantidad de características obtenidas. Los algoritmos de Aprendizaje Profundo o Deep Learning surgen como una herramienta que se ocupa de este tipo de problemas mediante la extracción de representaciones (abstracciones) a partir de los datos. Las redes neuronales artificiales basadas en algoritmos de aprendizaje profundo, es decir, las Redes Neuronales Profundas o Deep Neural Networks (DNN) emplean un enfoque de jerarquía de característica que aumenta la complejidad y la abstracción. Lo anterior hace a las DNNs capaces de manejar conjuntos de datos muy grandes, de alta dimensión con miles de millones de parámetros que pasan a través de funciones no lineales. Además, esto proporciona una mejor representación de los datos, lo que permite un aprendizaje más rápido y una clasificación más precisa. Sin embargo, las DNNs, así como la mayoría de las redes neuronales artificiales, siguen siendo vulnerables a sufrir un over-fitting o exceso de ajuste. Con respecto a esto, las funciones Kernel aparecen como un enfoque alternativo que, en primer lugar, ayuda al análisis de datos de alta dimensión permitiendo mejorar la representación y la interpretación de los datos para el apoyo a sistemas de procesamiento de señales y de aprendizaje automático. Por otra parte, los métodos basados en Kernel desarrollan soluciones que ofrecen mejores resultados mediante la adaptación del Kernel a un problema dado, el cual, permite combatir el problema de over-fitting presente en la etapa de aprendizaje de las redes neuronales profundas. En este estudio, proponemos un marco de representación de datos basado en funciones Kernel para mejorar el rendimiento de una especie de red neuronal profunda, llamada Red Estocástica General o Red Estocástica Generativa de aprendizaje supervisado. En concreto, el marco propuesto se divide en dos metodologías basadas en Kernel, que tienen por objeto mejorar el ajuste de parámetros de la red de acuerdo con las relaciones entre los datos. En primer lugar, se desarrolla un criterio de selección automática de la arquitectura de la red basado en funciones Kernel, que permita cuantificar el tamaño óptimo de la capa preservando la información de conjunta entrada-salida. Por lo tanto, el tamaño de la capa oculta resultante se destaca con el objetivo de favorecer el aprendizaje de las etapas de entrenamiento en la clasificación y tareas de reconocimiento de objetos. Este enfoque llamado Joint Spectrum permite la explotación de la similitud de datos conjunta para un conjunto de muestras de entrada dado. En segundo lugar, se introduce un enfoque pre-entrenamiento supervisado de la red que resalta la relación entre los estados ocultos y la información objetivo. Por lo tanto, se introduce un enfoque pre-entrenamiento supervisado basado en una función Kernel CKA para aprender una matriz de proyección, la cual codifica la información discriminante de los datos para obtener una representación oculta adecuada. Por lo tanto, buscamos un método de pre-entrenamiento que capta las variaciones principales de la distribución de entrada para apoyar la etapa de aprendizaje. Por último, una red estocástica generativa mejorada fue desarrollada para apoyar las tareas de aprendizaje supervisado. La propuesta considera las dos estrategias de sintonización de parámetros de la red basadas en funciones Kernel antes mencionadas, explotando sus principales propiedades. La red resultante destaca dependencias de los datos relevantes y el conocimiento previo del usuario (información supervisada). Por lo tanto, se construye una red generalizable capaz de capturar una gran cantidad de información a partir de la distribución de datos de entrada y codificar patrones discriminantes. A lo largo de este estudio, el mejoramiento de red propuesto usando un marco basado en el Kernel se aplica a los datos de imagen como una alternativa para apoyar los sistemas de clasificación y análisis de objetos basado en la imagen. De hecho, el marco basado en funciones Kernel introducido mejora, en la mayoría de los casos, el rendimiento en tareas de aprendizaje supervisado, apoyando el análisis de una gran cantidad de datos utilizando arquitecturas de aprendizaje profundoAbstract : In recent years, significant developments have been taking place in high-dimensional data analysis allowing to support a wide amount of applications in machine learning systems and signal processing among others. However, it is difficult to interpret the available information due to its complexity and a large amount of obtained features. Deep learning algorithms arise as a tool that deals this kind of issue by the extraction of representations (abstractions) from the data. Artificial neural networks based on deep learning algorithms, i.e., Deep Neural Networks (DNN) employ a feature hierarchy approach that increases complexity and abstraction. It makes DNN capable of handling very large, high-dimensional data sets with billions of parameters that pass through nonlinear functions. Besides, this provides a better representation, allowing faster learning and more accurate classification. However, DNNs as well as most of the artificial neural networks, are still vulnerable to Over-fitting. With respect to this, kernel functions appear as an alternative approach that in the first place, helps to high dimensional data analysis allowing enhancing representation and data interpretation, for supporting signal processing and machine learning systems. Moreover, kernel-based methods develop better-performing solutions by adapting the kernel to a given problem, which, allows dealing with over-fitting problem present in deep neural networks learning stage. In this study, we propose a data representation framework based on kernel functions to enhance the performance of a kind of Deep Neural Networks, called General Stochastic Networks in supervised learning systems. Namely, the proposed framework is divided in two kernel-based methodologies, which aim to enhance network parameter setting according to data relationships. First, we develop an automatic architecture selection criterion based on kernel functions, that allows quantifying the optimal layer size preserving the joint input-output information. Thus, resulting hidden layer size are highlighted aiming to favor learning training stages in classification and object recognition tasks. This approach named Joint spectrum allows exploiting the joint data similarity for a given input sample set. Second, we introduce a supervised network Pre-training approach that highlights the relationship between hidden states and target information. Thus, a supervised pre-training approach based on a CKA-based function is introduced to learn a projection matrix, which encodes discriminate information from data to get a suitably hidden representation. So, we seek a pre-training method that captures main variations from the input distribution to support learning stage. Finally, an enhanced General Stochastic Network was developed to support supervised learning tasks. The proposal considers two strategies network parameter setting based on kernel functions, above mentioned, exploiting its main properties. The resulting network highlights relevant data dependencies and the user prior knowledge (supervised information). Thus, a generalizable network able to capture a lot of information from input data distribution and encode discriminant patterns is built. Along this study, the proposed network improvement using a kernel-based framework is applied to image data as an alternative to support classification systems and image-based object analysis. In fact, the introduced kernel-based framework improve, in most of the cases, supervised learning performances, supporting the analysis of a large amount of data using deep learning architecturesMaestríaapplication/pdfspaUniversidad Nacional de Colombia Sede Manizales Facultad de Ingeniería y Arquitectura Departamento de Ingeniería Eléctrica, Electrónica y Computación Ingeniería ElectrónicaIngeniería ElectrónicaCollazos Huertas, Diego Fabián (2016) Kernel-based Enhancement of General Stochastic Network for Supervised Learning. Maestría thesis, Universidad Nacional de Colombia - Sede Manizales.0 Generalidades / Computer science, information and general works62 Ingeniería y operaciones afines / EngineeringRed estocástica generalAprendizaje basado en KernelSelección de la arquitecturaPre-entrenamiento de la redAprendizaje supervisadoGeneral stochastic networkKernel-based learningArchitecture selectionNetwork pre-trainingSupervised learningKernel-based Enhancement of General Stochastic Network for Supervised LearningTrabajo de grado - Maestríainfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/acceptedVersionTexthttp://purl.org/redcol/resource_type/TMORIGINAL1053812740.2016.pdfapplication/pdf2142035https://repositorio.unal.edu.co/bitstream/unal/56581/1/1053812740.2016.pdf4ad00e88fe78e1b909d0b7772f9a0723MD51THUMBNAIL1053812740.2016.pdf.jpg1053812740.2016.pdf.jpgGenerated Thumbnailimage/jpeg4391https://repositorio.unal.edu.co/bitstream/unal/56581/2/1053812740.2016.pdf.jpg367cb7ddc447a18a1ff77f086d1bc2c1MD52unal/56581oai:repositorio.unal.edu.co:unal/565812023-03-18 23:06:34.76Repositorio Institucional Universidad Nacional de Colombiarepositorio_nal@unal.edu.co