Enfoques de Bajo Rango para Resolver MDPs y Problemas de RL
En el presente trabajo se estudian algunas consecuencias de la hipótesis de bajo rango en el contexto de MDPs y Aprendizaje por Refuerzo en general, desde trabajos recientes como los de [Zhu et al., 2021], [Agarwal et al., 2020] y [Uehara et al., 2021] hasta implementaciones de los algoritmos descri...
- Autores:
-
Gómez Polo, Diego Andrés
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2022
- Institución:
- Universidad de los Andes
- Repositorio:
- Séneca: repositorio Uniandes
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.uniandes.edu.co:1992/64291
- Acceso en línea:
- http://hdl.handle.net/1992/64291
- Palabra clave:
- Reinforcement Learning
MDP
Low-Rank Hypothesis
Matemáticas
- Rights
- openAccess
- License
- Atribución 4.0 Internacional
Summary: | En el presente trabajo se estudian algunas consecuencias de la hipótesis de bajo rango en el contexto de MDPs y Aprendizaje por Refuerzo en general, desde trabajos recientes como los de [Zhu et al., 2021], [Agarwal et al., 2020] y [Uehara et al., 2021] hasta implementaciones de los algoritmos descritos en dichos papers con algunas modificaciones propuestas. Se hablará también de las complejidades teóricas de dichos algoritmos, sus supuestos y limitaciones prácticas, y de los resultados experimentales obtenidos en cada implementación. |
---|