KIT | KIT-Bibliothek | Impressum | Datenschutz

Wir trainieren nur bergab?

Stang, Marco; Molinar, Gabriela

  • 00:00:00 Start
  • 00:00:56 Aktivierungs-funktionen
  • 00:01:41 Sigmoid
  • 00:02:13 Tangens Hyperbolicus
  • 00:02:36 ReLU
  • 00:03:21 Backpropagation
  • 00:05:10 Epochen
  • 00:05:57 Learning Rate
  • 00:07:08 Hyperparameter
  • 00:07:52 Zusammenfassung

Zugehörige Institution(en) am KIT Institut für Technik der Informationsverarbeitung (ITIV)
Zentrum für Mediales Lernen (ZML)
Publikationstyp Audio & Video
Publikationsdatum 19.10.2021
Erstellungsdatum 20.09.2021
Sprache Deutsch
DOI 10.5445/IR/1000139097
Identifikator KITopen-ID: 1000139097
Lizenz Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International
Bemerkung zur Veröffentlichung In diesem Video wird die Funktionsweise von neuronalem Netzen für die Regression im Detail betrachtet. Konkret werden die drei bekannte Aktivierungsfunktionen Sigmoid, Tangens Hyperbolicus und ReLU behandelt und der Backpropagation Algorithmus zum Optimieren von Bias und Gewichten anschaulich am Beispiel eines „blinden“ Bergabstiegs erklärt. Des Weiteren werden die wichtigsten Hyperparameter von neuronalen Netzen behandelt, die Performanz und Trainingsdauer des Netzes elementar beeinflussen können.
Serie Angewandte Machine Learning Algorithmen (AMALEA)
Folge 14
KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft
KITopen Landing Page