Aproximación estocástica con dos escalas de tiempo en algoritmos Actor-Critic

Esta tesis profundiza en el algoritmo Actor-Critic de Reinforcement Learning, destacando su capacidad para manejar problemas complejos y de alta dimensión. Se presenta una sólida fundamentación teórica que respalda la convergencia del algoritmo mediante la Aproximación Estocástica con dos escalas de...

Full description

Autores:
Fino Villamil, Santiago
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2021
Institución:
Universidad de los Andes
Repositorio:
Séneca: repositorio Uniandes
Idioma:
spa
OAI Identifier:
oai:repositorio.uniandes.edu.co:1992/73682
Acceso en línea:
https://hdl.handle.net/1992/73682
Palabra clave:
Optimización
Machine learning
Reinforcement learning
Aproximación estocástica
Matemáticas
Rights
openAccess
License
Attribution 4.0 International
Description
Summary:Esta tesis profundiza en el algoritmo Actor-Critic de Reinforcement Learning, destacando su capacidad para manejar problemas complejos y de alta dimensión. Se presenta una sólida fundamentación teórica que respalda la convergencia del algoritmo mediante la Aproximación Estocástica con dos escalas de tiempo. Además, se incluye un ejemplo práctico simulado, ilustrando la eficacia y aplicabilidad del algoritmo en escenarios del mundo real, demostrando así su potencial en diversas aplicaciones prácticas.