User: Guest  Login
Original title:
Parameter Exploring Policy Gradients and their Implications
Translated title:
Parameter-explorierende Policy Gradients und ihre Implikationen
Author:
Sehnke, Frank
Year:
2012
Document type:
Dissertation
Faculty/School:
Fakultät für Informatik
Advisor:
van der Smagt, Patrick (Prof. Dr.); Schmidhuber, Jürgen (Prof. Dr.)
Referee:
van der Smagt, Patrick (Prof. Dr.); Schmidhuber, Jürgen (Prof. Dr.)
Language:
en
Subject group:
DAT Datenverarbeitung, Informatik
Keywords:
Reinforcement Learning, Policy Gradients, Parameter Exploration, Robotics
Translated keywords:
Reinforcement Learning, Policy Gradients, Parameter Exploration, Robotik
Controlled terms:
Bestärkendes Lernen Künstliche Intelligenz; Robotik
TUM classification:
DAT 708d; DAT 815d
Abstract:
Reinforcement Learning is the most commonly used class of learning algorithms which lets robots or other systems autonomously learn their behaviour. Learning is enabled solely through interaction with the environment. Today’s learning systems are often confronted with high dimensional and continuous problems. To solve those, so-called Policy Gradient methods are used more and more often. The PGPE algorithm developed in this thesis, a new type of Policy Gradient algorithm, allows model-fre...     »
Translated abstract:
Reinforcement Learning (Bestärkendes Lernen) ist die am häufigsten verwendete Klasse von Lernalgorithmen, um Robotern oder anderen Systemen das selbständige Erlernen ihres Verhalten zu ermöglichen. Lernen geschieht hierbei allein durch Interaktion des Systems mit seiner Umwelt. Heutige lernende Systeme haben es oft mit hochdimensionalen und kontinuierlichen Problemen zu tun. Hierfür kommen vermehrt die so genannten Policy Gradient Methoden zum Einsatz. Der in dieser Arbeit entwickelte PGP...     »
WWW:
https://mediatum.ub.tum.de/?id=1099128
Date of submission:
03.05.2012
Oral examination:
30.10.2012
File size:
13148936 bytes
Pages:
158
Urn (citeable URL):
https://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:91-diss-20121030-1099128-0-7
Last change:
11.04.2013
 BibTeX