KIT | KIT-Bibliothek | Impressum | Datenschutz

Efficient Reinforcement Learning using Gaussian Processes

Deisenroth, Marc Peter

Abstract:
This book examines Gaussian processes in both model-based reinforcement learning (RL) and inference in nonlinear dynamic systems.
First, we introduce PILCO, a fully Bayesian approach for efficient RL in continuous-valued state and action spaces when no expert knowledge is available. PILCO takes model uncertainties consistently into account during long-term planning to reduce model bias.
Second, we propose principled algorithms for robust filtering and smoothing in GP dynamic systems.

Open Access Logo


Volltext §
DOI: 10.5445/KSP/1000019799
Seitenaufrufe: 93
seit 29.04.2018
Downloads: 2863
seit 25.11.2010
Die gedruckte Version dieser Publikation können Sie hier kaufen.
Coverbild
Zugehörige Institution(en) am KIT Institut für Anthropomatik (IFA)
Publikationstyp Hochschulschrift
Jahr 2010
Sprache Englisch
Identifikator ISBN: 978-3-86644-569-7
ISSN: 1867-3813
urn:nbn:de:0072-197996
KITopen-ID: 1000019799
Verlag KIT Scientific Publishing, Karlsruhe
Umfang IX, 205 S.
Serie Karlsruhe Series on Intelligent Sensor-Actuator-Systems / Karlsruher Institut für Technologie, Intelligent Sensor-Actuator-Systems Laboratory ; 9
Abschlussart Dissertation
Fakultät Fakultät für Informatik (INFORMATIK)
Institut Institut für Anthropomatik (IFA)
Prüfungsdaten 04.12.2009
Referent/Betreuer Prof. U. Hanebeck
Schlagworte machine learning, Gaussian processes, Bayesian inference, autonomous learning, control
KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft
KITopen Landing Page