Diseño e implementación de redes neuronales recurrentes para la traducción automática

La traducción automática neuronal es un enfoque reciente en la traducción automática. El traductor pertenece a la familia del codificador-decodificador encontrado en varios artículos. Este campo aún tiene espacio para mejoras pero ha sido estudiado solo en los siguientes idiomas: inglés, francés y a...

Full description

Autores:
Perez Becerra, Andres Alberto
Tipo de recurso:
http://purl.org/coar/version/c_b1a7d7d4d402bcce
Fecha de publicación:
2017
Institución:
Universidad Industrial de Santander
Repositorio:
Repositorio UIS
Idioma:
spa
OAI Identifier:
oai:noesis.uis.edu.co:20.500.14071/36332
Acceso en línea:
https://noesis.uis.edu.co/handle/20.500.14071/36332
https://noesis.uis.edu.co
Palabra clave:
Redes Neuronales Recurrentes (Rnn)
Traducción Automática Neuronal (Nmt)
Recurrent Neuronal Networks (Rnn)
Neural Machine Translation (Nmt)
Rights
License
Attribution-NonCommercial 4.0 International (CC BY-NC 4.0)
Description
Summary:La traducción automática neuronal es un enfoque reciente en la traducción automática. El traductor pertenece a la familia del codificador-decodificador encontrado en varios artículos. Este campo aún tiene espacio para mejoras pero ha sido estudiado solo en los siguientes idiomas: inglés, francés y alemán. En este proyecto se aplican las redes neuronales recurrentes para la traducción automática del español al inglés usando dos modelos, uno con 1000 unidades escondidas GRU (arquitectura 1) en cada RNN y otra usando 500 unidades escondidas GRU (arquitectura 2). Igualmente se usan dos dataset de entrenamiento, uno con 54M de palabras y otro con 28M de palabras y un dataset de prueba que consta de alrededor de 5M de palabras. Se obtuvieron resultados favorables usando el dataset de 54M con la arquitectura 1 obteniendo un puntaje BLEU de 27.60 comparado al estado del arte de 28.45, la diferencia es que el estado del arte usa un dataset 6 veces mayor al de este proyecto. Igualmente la arquitectura 2 con el dataset de 54M de palabras demostró ser efectiva al obtener 24.74 puntos sin haber tenido el mismo número de iteraciones o tiempo de computo de las otros modelos. Ha de resaltarse la capacidad de traducir por los modelos se basa en el uso de textos afines con los usados en el entrenamiento, ya que mantiene un orden sintáctico incluso cuando existen palabras desconocidas en la frase.