Benutzer: Gast  Login
Originaltitel:
Policy Regularization for Model-Based Offline Reinforcement Learning
Übersetzter Titel:
Policy Regularisierung für Modellbasiertes Offline Reinforcement Learning
Autor:
Swazinna, Phillip A.
Jahr:
2023
Dokumenttyp:
Dissertation
Fakultät/School:
TUM School of Computation, Information and Technology
Betreuer:
Runkler, Thomas (Prof. Dr.)
Gutachter:
Runkler, Thomas (Prof. Dr.); Althoff, Matthias (Prof. Dr.)
Sprache:
en
Fachgebiet:
DAT Datenverarbeitung, Informatik
Stichworte:
Reinforcement Learning, Offline RL, Policy Regularization, Model-based RL, Proximity conditioning
TU-Systematik:
DAT 500
Kurzfassung:
This thesis proposes three novel algorithms for offline reinforcement learning, which allow for training policies from pre-collected datasets without direct environment interaction. The proposed methods are evaluated on challenging tasks and environments, and it is shown that they can produce well-performing policies reliably using model-based return estimation and new methods for policy regularization. The final algorithm, LION, even allows users to tune the trade-off between familiarity and pe...     »
Übersetzte Kurzfassung:
Die Arbeit schlägt drei neue Algorithmen für Offline Reinforcement Learning vor, die aus statischen Datensätzen ohne direkte Umgebungsinteraktion Policies trainieren können. Es wird gezeigt, dass die Methoden unter Verwendung von modellbasierter Return-Schätzung und neuen Methoden zur Policy Regularisierung auf anspruchsvollen Benchmarks zuverlässig gut funktionierende Policies erzeugen. Der letzte Algorithmus, LION, ermöglicht Nutzern sogar die Anpassung des Trade-offs zwischen Vertrautheit und...     »
WWW:
https://mediatum.ub.tum.de/?id=1700032
Eingereicht am:
22.02.2023
Mündliche Prüfung:
04.08.2023
Dateigröße:
7102552 bytes
Seiten:
135
Urn (Zitierfähige URL):
https://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:91-diss-20230804-1700032-1-3
Letzte Änderung:
23.08.2023
 BibTeX