Enfoques de Bajo Rango para Resolver MDPs y Problemas de RL

En el presente trabajo se estudian algunas consecuencias de la hipótesis de bajo rango en el contexto de MDPs y Aprendizaje por Refuerzo en general, desde trabajos recientes como los de [Zhu et al., 2021], [Agarwal et al., 2020] y [Uehara et al., 2021] hasta implementaciones de los algoritmos descri...

Full description

Autores:
Gómez Polo, Diego Andrés
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2022
Institución:
Universidad de los Andes
Repositorio:
Séneca: repositorio Uniandes
Idioma:
spa
OAI Identifier:
oai:repositorio.uniandes.edu.co:1992/64291
Acceso en línea:
http://hdl.handle.net/1992/64291
Palabra clave:
Reinforcement Learning
MDP
Low-Rank Hypothesis
Matemáticas
Rights
openAccess
License
Atribución 4.0 Internacional
Description
Summary:En el presente trabajo se estudian algunas consecuencias de la hipótesis de bajo rango en el contexto de MDPs y Aprendizaje por Refuerzo en general, desde trabajos recientes como los de [Zhu et al., 2021], [Agarwal et al., 2020] y [Uehara et al., 2021] hasta implementaciones de los algoritmos descritos en dichos papers con algunas modificaciones propuestas. Se hablará también de las complejidades teóricas de dichos algoritmos, sus supuestos y limitaciones prácticas, y de los resultados experimentales obtenidos en cada implementación.