User: Guest  Login
Original title:
Policy Regularization for Model-Based Offline Reinforcement Learning
Translated title:
Policy Regularisierung für Modellbasiertes Offline Reinforcement Learning
Author:
Swazinna, Phillip A.
Year:
2023
Document type:
Dissertation
Faculty/School:
TUM School of Computation, Information and Technology
Advisor:
Runkler, Thomas (Prof. Dr.)
Referee:
Runkler, Thomas (Prof. Dr.); Althoff, Matthias (Prof. Dr.)
Language:
en
Subject group:
DAT Datenverarbeitung, Informatik
Keywords:
Reinforcement Learning, Offline RL, Policy Regularization, Model-based RL, Proximity conditioning
TUM classification:
DAT 500
Abstract:
This thesis proposes three novel algorithms for offline reinforcement learning, which allow for training policies from pre-collected datasets without direct environment interaction. The proposed methods are evaluated on challenging tasks and environments, and it is shown that they can produce well-performing policies reliably using model-based return estimation and new methods for policy regularization. The final algorithm, LION, even allows users to tune the trade-off between familiarity and pe...     »
Translated abstract:
Die Arbeit schlägt drei neue Algorithmen für Offline Reinforcement Learning vor, die aus statischen Datensätzen ohne direkte Umgebungsinteraktion Policies trainieren können. Es wird gezeigt, dass die Methoden unter Verwendung von modellbasierter Return-Schätzung und neuen Methoden zur Policy Regularisierung auf anspruchsvollen Benchmarks zuverlässig gut funktionierende Policies erzeugen. Der letzte Algorithmus, LION, ermöglicht Nutzern sogar die Anpassung des Trade-offs zwischen Vertrautheit und...     »
WWW:
https://mediatum.ub.tum.de/?id=1700032
Date of submission:
22.02.2023
Oral examination:
04.08.2023
File size:
7102552 bytes
Pages:
135
Urn (citeable URL):
https://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:91-diss-20230804-1700032-1-3
Last change:
23.08.2023
 BibTeX