Exploración del modelo Word2Vec: Bag-of-Words y Skip-gram, en el marco del Procesamiento del Lenguaje Natural.

Nuestro objetivo consiste en comprender el funcionamiento de las dos redes neuronales que forman parte del modelo Word2Vec, presentado por Mikolov et al\cite{mikolovl-inguistic}. Con este propósito, ofreceremos una breve introducción al concepto de redes neuronales y su proceso de entrenamiento. Lue...

Full description

Autores:
Casas Peñarete , Cristian Camilo
Tipo de recurso:
Fecha de publicación:
2024
Institución:
Universidad Distrital Francisco José de Caldas
Repositorio:
RIUD: repositorio U. Distrital
Idioma:
OAI Identifier:
oai:repository.udistrital.edu.co:11349/92075
Acceso en línea:
http://hdl.handle.net/11349/92075
Palabra clave:
Redes neuronales
Retropropagación
Procesamiento del Lenguaje Natural
Wor2Vec
Matemáticas -- Tesis y disertaciones académicas
Redes neurales (Computadores)
Lingüística computacional
Word2Vec
Neural Networks, Backpropagation, Natural Language Processing, Word2Vec.
Backpropagation,
Natural Language Processing
Word2Vec
Rights
License
Abierto (Texto Completo)
Description
Summary:Nuestro objetivo consiste en comprender el funcionamiento de las dos redes neuronales que forman parte del modelo Word2Vec, presentado por Mikolov et al\cite{mikolovl-inguistic}. Con este propósito, ofreceremos una breve introducción al concepto de redes neuronales y su proceso de entrenamiento. Luego, proporcionaremos una breve contextualización sobre el procesamiento del lenguaje natural, para finalmente adentrarnos en el detalle del funcionamiento de los modelos Word2Vec. Este análisis incluirá nociones sobre por qué estos modelos son efectivos, respaldado por ejemplos ilustrativos