KIT | KIT-Bibliothek | Impressum | Datenschutz

100% Genauigkeit, das muss doch gut sein, oder?

Stang, Marco; Molinar, Gabriela

  • 00:00:00 Start
  • 00:00:40 Metriken für Regressionsmodellen
  • 00:01:17 Lineare Regression
  • 00:01:28 Polynomiale Regression
  • 00:01:41 Das Generalisieren
  • 00:02:22 Overfitting und Underfitting
  • 00:04:22 Verlustmetriken
  • 00:04:44 Rohfehler
  • 00:05:03 Mean Absolute Error (MAE)
  • 00:05:37 Mean Squared Error (MSE)
  • 00:06:49 Mean Absolute Percentage Error (MAPE)
  • 00:07:06 Root Mean Squared Error (RMSE)
  • 00:07:32 Zusammenfassung

Zugehörige Institution(en) am KIT Institut für Technik der Informationsverarbeitung (ITIV)
Universität Karlsruhe (TH) – Zentrale Einrichtungen (Zentrale Einrichtungen)
Zentrum für Mediales Lernen (ZML)
Publikationstyp Audio & Video
Publikationsdatum 19.10.2021
Erstellungsdatum 20.09.2021
Sprache Deutsch
DOI 10.5445/IR/1000139089
Identifikator KITopen-ID: 1000139089
Lizenz Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International
Bemerkung zur Veröffentlichung Dieses Video stellt zwei bekannte Formen der Regression vor: lineare Regression und polynomiale Regression. Zudem wird die Frage beantwortet, ob eine sehr hohe Genauigkeit auch wirklich immer ein Indikator für ein gutes Modell ist. Im Rahmen dessen werden die Begriffe Generalisieren, Overfitting und Underfitting erklärt, die im Rahmen des Maschinellen Lernens eine zentrale Rolle spielen. Außerdem werden verschiedene, häufig verwendete Metriken der Regression vorgestellt, wie z. B. Rohfehler, Mean Absolute Error (MAE), Mean Squared Error (MSE).
Serie Angewandte Machine Learning Algorithmen (AMALEA)
Folge 7
KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft
KITopen Landing Page