Diseño y prototipado de aplicación para identificación de individuos a partir de su voz usando técnicas de machine learning

El reconocimiento de la voz es un tema que ha empezado a cobrar interés en los últimos años. En especial, el reconocimiento de un individuo a partir de su voz está siendo ampliamente tratado desde el campo de la inteligencia artificial. Claro está, la mayoría de publicaciones y proyectos usan el ing...

Full description

Autores:
Polo Bolaño, José David
Villa Narvaez, Carlos Daniel
Tovar Agudelo, Wilson Andrés
Tipo de recurso:
Fecha de publicación:
2020
Institución:
Universidad del Norte
Repositorio:
Repositorio Uninorte
Idioma:
spa
OAI Identifier:
oai:manglar.uninorte.edu.co:10584/8865
Acceso en línea:
http://hdl.handle.net/10584/8865
Palabra clave:
Neural networks
ASR
MFCC
Deep Learning
Dataset
Speaker Recognition
LSTM
Convolution
Speech Recognition
Redes neuronales
Aprendizaje Profundo
Conjunto de datos
Reconocimiento de hablantes
Reconocimiento del habla
Convolución
Coeficientes Cepstrales en las Frecuencias de Mel
Rights
License
Universidad del Norte
Description
Summary:El reconocimiento de la voz es un tema que ha empezado a cobrar interés en los últimos años. En especial, el reconocimiento de un individuo a partir de su voz está siendo ampliamente tratado desde el campo de la inteligencia artificial. Claro está, la mayoría de publicaciones y proyectos usan el inglés como lenguaje principal dejando de lado otros idiomas como el español. Es por tal motivo que en este proyecto se implementa un sistema de reconocimiento automático de hablantes hispanos a partir de su voz usando técnicas de machine learning. Para la predicción se usaron los coeficientes cepstrales en las frecuencias de mel que, de acuerdo a (R. Sharma, et. al, 2017) representan el habla basado en la percepción auditiva humana, los cuales sirven como entrada de las dos redes. Para el reconocimiento del hablante implementamos un modelo de red neuronal convolucional con una salida para la probabilidad de las N personas y para el reconocimiento del dígito usamos una red neuronal similar, pero con una capa de memoria a largo plazo (LSTM) que también es usada por (Senior et al., 2015) para la tarea del reconocimiento del habla. Finalmente, tenemos una capa de salida de 10 neuronas, las cuales representan la probabilidad para cada dígito. Nuestro modelo alcanza una precisión de entre el 90% y 93%. Los datos fueron recolectados usando una aplicación web propia que se construyó como parte del protocolo de recolección de datos del proyecto. Este conjunto de datos contiene los audios de un determinado grupo de personas, los cuales se pasan a través de un proceso de limpieza para la eliminación del ruido. Cada persona grabó un total de 50 audios en donde pronuncia cada uno de los dígitos del 0 al 9. Gracias a esto podremos determinar qué persona dijo cualquier dígito y además, el dígito que dijo esa persona.