Diseño e implementación de redes neuronales recurrentes para la traducción automática

La traducción automática neuronal es un enfoque reciente en la traducción automática. El traductor pertenece a la familia del codificador-decodificador encontrado en varios artículos. Este campo aún tiene espacio para mejoras pero ha sido estudiado solo en los siguientes idiomas: inglés, francés y a...

Full description

Autores:
Perez Becerra, Andres Alberto
Tipo de recurso:
http://purl.org/coar/version/c_b1a7d7d4d402bcce
Fecha de publicación:
2017
Institución:
Universidad Industrial de Santander
Repositorio:
Repositorio UIS
Idioma:
spa
OAI Identifier:
oai:noesis.uis.edu.co:20.500.14071/36332
Acceso en línea:
https://noesis.uis.edu.co/handle/20.500.14071/36332
https://noesis.uis.edu.co
Palabra clave:
Redes Neuronales Recurrentes (Rnn)
Traducción Automática Neuronal (Nmt)
Recurrent Neuronal Networks (Rnn)
Neural Machine Translation (Nmt)
Rights
License
Attribution-NonCommercial 4.0 International (CC BY-NC 4.0)
id UISANTADR2_273cfe1a988278e4f8e2d7d446138e36
oai_identifier_str oai:noesis.uis.edu.co:20.500.14071/36332
network_acronym_str UISANTADR2
network_name_str Repositorio UIS
repository_id_str
dc.title.none.fl_str_mv Diseño e implementación de redes neuronales recurrentes para la traducción automática
dc.title.english.none.fl_str_mv Design and implementation of recurrent nerual networks for machine translation.
title Diseño e implementación de redes neuronales recurrentes para la traducción automática
spellingShingle Diseño e implementación de redes neuronales recurrentes para la traducción automática
Redes Neuronales Recurrentes (Rnn)
Traducción Automática Neuronal (Nmt)
Recurrent Neuronal Networks (Rnn)
Neural Machine Translation (Nmt)
title_short Diseño e implementación de redes neuronales recurrentes para la traducción automática
title_full Diseño e implementación de redes neuronales recurrentes para la traducción automática
title_fullStr Diseño e implementación de redes neuronales recurrentes para la traducción automática
title_full_unstemmed Diseño e implementación de redes neuronales recurrentes para la traducción automática
title_sort Diseño e implementación de redes neuronales recurrentes para la traducción automática
dc.creator.fl_str_mv Perez Becerra, Andres Alberto
dc.contributor.advisor.none.fl_str_mv Ramos Pollan, Raul
dc.contributor.author.none.fl_str_mv Perez Becerra, Andres Alberto
dc.subject.none.fl_str_mv Redes Neuronales Recurrentes (Rnn)
Traducción Automática Neuronal (Nmt)
topic Redes Neuronales Recurrentes (Rnn)
Traducción Automática Neuronal (Nmt)
Recurrent Neuronal Networks (Rnn)
Neural Machine Translation (Nmt)
dc.subject.keyword.none.fl_str_mv Recurrent Neuronal Networks (Rnn)
Neural Machine Translation (Nmt)
description La traducción automática neuronal es un enfoque reciente en la traducción automática. El traductor pertenece a la familia del codificador-decodificador encontrado en varios artículos. Este campo aún tiene espacio para mejoras pero ha sido estudiado solo en los siguientes idiomas: inglés, francés y alemán. En este proyecto se aplican las redes neuronales recurrentes para la traducción automática del español al inglés usando dos modelos, uno con 1000 unidades escondidas GRU (arquitectura 1) en cada RNN y otra usando 500 unidades escondidas GRU (arquitectura 2). Igualmente se usan dos dataset de entrenamiento, uno con 54M de palabras y otro con 28M de palabras y un dataset de prueba que consta de alrededor de 5M de palabras. Se obtuvieron resultados favorables usando el dataset de 54M con la arquitectura 1 obteniendo un puntaje BLEU de 27.60 comparado al estado del arte de 28.45, la diferencia es que el estado del arte usa un dataset 6 veces mayor al de este proyecto. Igualmente la arquitectura 2 con el dataset de 54M de palabras demostró ser efectiva al obtener 24.74 puntos sin haber tenido el mismo número de iteraciones o tiempo de computo de las otros modelos. Ha de resaltarse la capacidad de traducir por los modelos se basa en el uso de textos afines con los usados en el entrenamiento, ya que mantiene un orden sintáctico incluso cuando existen palabras desconocidas en la frase.
publishDate 2017
dc.date.available.none.fl_str_mv 2017
2024-03-03T23:19:55Z
dc.date.created.none.fl_str_mv 2017
dc.date.issued.none.fl_str_mv 2017
dc.date.accessioned.none.fl_str_mv 2024-03-03T23:19:55Z
dc.type.local.none.fl_str_mv Tesis/Trabajo de grado - Monografía - Pregrado
dc.type.hasversion.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.coar.none.fl_str_mv http://purl.org/coar/version/c_b1a7d7d4d402bcce
format http://purl.org/coar/version/c_b1a7d7d4d402bcce
dc.identifier.uri.none.fl_str_mv https://noesis.uis.edu.co/handle/20.500.14071/36332
dc.identifier.instname.none.fl_str_mv Universidad Industrial de Santander
dc.identifier.reponame.none.fl_str_mv Universidad Industrial de Santander
dc.identifier.repourl.none.fl_str_mv https://noesis.uis.edu.co
url https://noesis.uis.edu.co/handle/20.500.14071/36332
https://noesis.uis.edu.co
identifier_str_mv Universidad Industrial de Santander
dc.language.iso.none.fl_str_mv spa
language spa
dc.rights.none.fl_str_mv http://creativecommons.org/licenses/by/4.0/
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.license.none.fl_str_mv Attribution-NonCommercial 4.0 International (CC BY-NC 4.0)
dc.rights.uri.none.fl_str_mv http://creativecommons.org/licenses/by-nc/4.0
dc.rights.creativecommons.none.fl_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
rights_invalid_str_mv Attribution-NonCommercial 4.0 International (CC BY-NC 4.0)
http://creativecommons.org/licenses/by/4.0/
http://creativecommons.org/licenses/by-nc/4.0
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
http://purl.org/coar/access_right/c_abf2
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidad Industrial de Santander
dc.publisher.faculty.none.fl_str_mv Facultad de Ingenierías Fisicomecánicas
dc.publisher.program.none.fl_str_mv Ingeniería de Sistemas
dc.publisher.school.none.fl_str_mv Escuela de Ingeniería de Sistemas e Informática
publisher.none.fl_str_mv Universidad Industrial de Santander
institution Universidad Industrial de Santander
bitstream.url.fl_str_mv https://noesis.uis.edu.co/bitstreams/613f6d36-248c-4408-9455-552a98fe98ba/download
https://noesis.uis.edu.co/bitstreams/305ea249-3847-4652-a737-fd0442324d74/download
https://noesis.uis.edu.co/bitstreams/a6aca28b-3974-4fb0-9b13-ef475d560915/download
bitstream.checksum.fl_str_mv 644c81c290ec677efbaab2bb81e7b3a6
c91d587575393f4ae9615f1d81d726da
05e908a8429a8f899906dbca1abeed64
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv DSpace at UIS
repository.mail.fl_str_mv noesis@uis.edu.co
_version_ 1814095235850960896
spelling Attribution-NonCommercial 4.0 International (CC BY-NC 4.0)http://creativecommons.org/licenses/by/4.0/http://creativecommons.org/licenses/by-nc/4.0Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2Ramos Pollan, RaulPerez Becerra, Andres Alberto2024-03-03T23:19:55Z20172024-03-03T23:19:55Z20172017https://noesis.uis.edu.co/handle/20.500.14071/36332Universidad Industrial de SantanderUniversidad Industrial de Santanderhttps://noesis.uis.edu.coLa traducción automática neuronal es un enfoque reciente en la traducción automática. El traductor pertenece a la familia del codificador-decodificador encontrado en varios artículos. Este campo aún tiene espacio para mejoras pero ha sido estudiado solo en los siguientes idiomas: inglés, francés y alemán. En este proyecto se aplican las redes neuronales recurrentes para la traducción automática del español al inglés usando dos modelos, uno con 1000 unidades escondidas GRU (arquitectura 1) en cada RNN y otra usando 500 unidades escondidas GRU (arquitectura 2). Igualmente se usan dos dataset de entrenamiento, uno con 54M de palabras y otro con 28M de palabras y un dataset de prueba que consta de alrededor de 5M de palabras. Se obtuvieron resultados favorables usando el dataset de 54M con la arquitectura 1 obteniendo un puntaje BLEU de 27.60 comparado al estado del arte de 28.45, la diferencia es que el estado del arte usa un dataset 6 veces mayor al de este proyecto. Igualmente la arquitectura 2 con el dataset de 54M de palabras demostró ser efectiva al obtener 24.74 puntos sin haber tenido el mismo número de iteraciones o tiempo de computo de las otros modelos. Ha de resaltarse la capacidad de traducir por los modelos se basa en el uso de textos afines con los usados en el entrenamiento, ya que mantiene un orden sintáctico incluso cuando existen palabras desconocidas en la frase.PregradoIngeniero de SistemasThe neural machine translation is a recent approach in machine translation. The translator belongs to the coder-decoder family found in many articles. This field still show room for advances, but only has been studied in the following languages: English, French and German. In this project the recurrent neural network are used for the machine translation form Spanish to English using two models, one with 1000 GRU hidden units (architecture 1) and the other with 500 GRU hidden units (architecture 2). Here two training dataset are used, one with 54M of words and the other with 28M of words, and a test dataset of 5M of words. We got good results using the 54M dataset with the architecture 1 getting a BLEU score of 27.60, very similar to the state of the art score 28.45, the difference with the state of the art is that they use a dataset 6 times bigger than the used in this project. The architecture 2 with the 54M dataset showed a good performance getting 24.74 BLEU points without the same iteration number or time computed as of the other models. It has to be said that the capacity to translate by the models is based in the use of related texts to those used in the training, in this way the translated sentence will keep a syntactic order even .application/pdfspaUniversidad Industrial de SantanderFacultad de Ingenierías FisicomecánicasIngeniería de SistemasEscuela de Ingeniería de Sistemas e InformáticaRedes Neuronales Recurrentes (Rnn)Traducción Automática Neuronal (Nmt)Recurrent Neuronal Networks (Rnn)Neural Machine Translation (Nmt)Diseño e implementación de redes neuronales recurrentes para la traducción automáticaDesign and implementation of recurrent nerual networks for machine translation.Tesis/Trabajo de grado - Monografía - Pregradohttp://purl.org/coar/resource_type/c_7a1fhttp://purl.org/coar/version/c_b1a7d7d4d402bcceORIGINALCarta de autorización.pdfapplication/pdf369860https://noesis.uis.edu.co/bitstreams/613f6d36-248c-4408-9455-552a98fe98ba/download644c81c290ec677efbaab2bb81e7b3a6MD51Documento.pdfapplication/pdf1911332https://noesis.uis.edu.co/bitstreams/305ea249-3847-4652-a737-fd0442324d74/downloadc91d587575393f4ae9615f1d81d726daMD52Nota de proyecto.pdfapplication/pdf357088https://noesis.uis.edu.co/bitstreams/a6aca28b-3974-4fb0-9b13-ef475d560915/download05e908a8429a8f899906dbca1abeed64MD5320.500.14071/36332oai:noesis.uis.edu.co:20.500.14071/363322024-03-03 18:19:55.944http://creativecommons.org/licenses/by-nc/4.0http://creativecommons.org/licenses/by/4.0/open.accesshttps://noesis.uis.edu.coDSpace at UISnoesis@uis.edu.co