Aproximación estocástica con dos escalas de tiempo en algoritmos Actor-Critic
Esta tesis profundiza en el algoritmo Actor-Critic de Reinforcement Learning, destacando su capacidad para manejar problemas complejos y de alta dimensión. Se presenta una sólida fundamentación teórica que respalda la convergencia del algoritmo mediante la Aproximación Estocástica con dos escalas de...
- Autores:
-
Fino Villamil, Santiago
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2021
- Institución:
- Universidad de los Andes
- Repositorio:
- Séneca: repositorio Uniandes
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.uniandes.edu.co:1992/73682
- Acceso en línea:
- https://hdl.handle.net/1992/73682
- Palabra clave:
- Optimización
Machine learning
Reinforcement learning
Aproximación estocástica
Matemáticas
- Rights
- openAccess
- License
- Attribution 4.0 International
Summary: | Esta tesis profundiza en el algoritmo Actor-Critic de Reinforcement Learning, destacando su capacidad para manejar problemas complejos y de alta dimensión. Se presenta una sólida fundamentación teórica que respalda la convergencia del algoritmo mediante la Aproximación Estocástica con dos escalas de tiempo. Además, se incluye un ejemplo práctico simulado, ilustrando la eficacia y aplicabilidad del algoritmo en escenarios del mundo real, demostrando así su potencial en diversas aplicaciones prácticas. |
---|