KIT | KIT-Bibliothek | Impressum | Datenschutz

Ein künstliches Gedächtnis in N Schritten

Stang, Marco; Molinar, Gabriela

  • 00:00:00 Start
  • 00:01:16 RNN-Architekturen
  • 00:02:29 Many-to-Many
  • 00:02:51 One-to-Many
  • 00:03:06 Many-to-One
  • 00:03:16 Long-Short-Term Memory Networks
  • 00:03:36 LSTM Zelle
  • 00:04:01 Input, Forget und Output Gates
  • 00:04:23 Gestapelte LSTM-Netze

Zugehörige Institution(en) am KIT Institut für Technik der Informationsverarbeitung (ITIV)
Zentrum für Mediales Lernen (ZML)
Publikationstyp Audio & Video
Publikationsdatum 19.10.2021
Erstellungsdatum 20.09.2021
Sprache Deutsch
DOI 10.5445/IR/1000139107
Identifikator KITopen-ID: 1000139107
Lizenz Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International
Bemerkung zur Veröffentlichung In diesem Video wird die Funktionsweise von RNNs im Detail betrachtet. Dazu werden zunächst die drei Architekturen von RNNs behandelt: Many-to-Many, One-to-Many und Many-to-Many. Anschließend wird eine wichtige Art der RNNs vorgestellt, die Long Short-Term Memory Netze (LSTMs), und deren Aufbau und Funktionsweise erläutert. Abgeschlossen wir dieses Video dann mit den gestapelten LSTM-Netzen.
Serie Angewandte Machine Learning Algorithmen (AMALEA)
Folge 22
KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft
KITopen Landing Page