Embebimiento en espacios de Hilbert de procesos aleatorios con aplicaciones en procesamiento digital de señales

El método de embebimiento de distribuciones de probabilidad en un espacio de Hilbert con kernel reproductivo (RKHS) consiste en representar distribuciones de probabilidad como un elemento de un espacio de Hilbert generado por un kernel. Generalmente, este método ha sido usado en aplicaciones donde s...

Full description

Autores:
Valencia Angulo, Edgar Alirio
Tipo de recurso:
Fecha de publicación:
2018
Institución:
Universidad Tecnológica de Pereira
Repositorio:
Repositorio Institucional UTP
Idioma:
spa
OAI Identifier:
oai:repositorio.utp.edu.co:11059/9824
Acceso en línea:
https://hdl.handle.net/11059/9824
Palabra clave:
Espacios de Hilbert
Procesos de markov
Funciones de Kernel
Procesamiento de señales - Técnicas digitales
Rights
License
Attribution-NonCommercial-NoDerivatives 4.0 International
Description
Summary:El método de embebimiento de distribuciones de probabilidad en un espacio de Hilbert con kernel reproductivo (RKHS) consiste en representar distribuciones de probabilidad como un elemento de un espacio de Hilbert generado por un kernel. Generalmente, este método ha sido usado en aplicaciones donde se supone que las observaciones son independientes e idénticamente distribuidas. Sin embargo, dentro de la literatura de los embebimiento de distribuciones de probabilidad en un RKHS, existen pocos trabajos donde se supone dependencia temporal de las observaciones. Motivado por este poderoso marco teórico del método de embebimiento de distribuciones en un RKHS, este trabajo de investigación desarrolla dos aplicaciones en Procesamiento Digital de Señales (DSP), donde se supondrá relación de dependencia entre las observaciones. En la primera aplicación, se introducen varias métricas entre distribuciones de probabilidad y entre modelos ocultos de Markov (HMMs), la discusión está limitada al kernel Gaussiano, al kernel de Laplaciano y al estimador de Parzen. Finalmente, se evalúa el rendimiento de las métricas en tareas de clasificación de series de tiempo, usando las métricas dentro del clasificador los K vecinos más cercanos. Los resultados muestran que nuestras métricas proporcionan una mejor precisión en clasificación de series de tiempo en comparación con la medida Kullback-Leibler (KL) y la métrica Euclidiana, en datos sintéticos y en datos reales. En la segunda aplicación, se propone una versión kernelizada de un modelo autoregresivo de orden p. Esta versión del modelo autorregresivo muestra un mayor rendimiento en predicción sobre el modelo lineal, en series de tiempo altamente complejas. Finalmente, la predicción se realiza un paso hacia adelante en diferentes series de tiempo, y nuestra versión del modelo autorregresivo se compara con otros métodos no lineales.