Exploración del modelo Word2Vec: Bag-of-Words y Skip-gram, en el marco del Procesamiento del Lenguaje Natural.
Nuestro objetivo consiste en comprender el funcionamiento de las dos redes neuronales que forman parte del modelo Word2Vec, presentado por Mikolov et al\cite{mikolovl-inguistic}. Con este propósito, ofreceremos una breve introducción al concepto de redes neuronales y su proceso de entrenamiento. Lue...
- Autores:
-
Casas Peñarete , Cristian Camilo
- Tipo de recurso:
- Fecha de publicación:
- 2024
- Institución:
- Universidad Distrital Francisco José de Caldas
- Repositorio:
- RIUD: repositorio U. Distrital
- Idioma:
- OAI Identifier:
- oai:repository.udistrital.edu.co:11349/92075
- Acceso en línea:
- http://hdl.handle.net/11349/92075
- Palabra clave:
- Redes neuronales
Retropropagación
Procesamiento del Lenguaje Natural
Wor2Vec
Matemáticas -- Tesis y disertaciones académicas
Redes neurales (Computadores)
Lingüística computacional
Word2Vec
Neural Networks, Backpropagation, Natural Language Processing, Word2Vec.
Backpropagation,
Natural Language Processing
Word2Vec
- Rights
- License
- Abierto (Texto Completo)
Summary: | Nuestro objetivo consiste en comprender el funcionamiento de las dos redes neuronales que forman parte del modelo Word2Vec, presentado por Mikolov et al\cite{mikolovl-inguistic}. Con este propósito, ofreceremos una breve introducción al concepto de redes neuronales y su proceso de entrenamiento. Luego, proporcionaremos una breve contextualización sobre el procesamiento del lenguaje natural, para finalmente adentrarnos en el detalle del funcionamiento de los modelos Word2Vec. Este análisis incluirá nociones sobre por qué estos modelos son efectivos, respaldado por ejemplos ilustrativos |
---|