KIT | KIT-Bibliothek | Impressum | Datenschutz

Kernel-based information theoretical measures: accelerations and limits

Kalinke, Florian ORCID iD icon 1
1 Institut für Programmstrukturen und Datenorganisation (IPD), Karlsruher Institut für Technologie (KIT)

Abstract:

Kernelmethoden bilden die Grundlage für einige der leistungsstärksten und fundiertesten Algorithmen für maschinelles Lernen. Die Eigenschaften, welche Kernelmethoden omnipräsent machen, sind die Anzahl der Domänen, für die sie entwickelt wurden, die Hilbert-Struktur der mit Kerneln verbundenen Funktionsklasse, die ihre statistische Analyse erlaubt, und die Möglichkeit, Wahrscheinlichkeitsmaße als Elemente in einem reproduzierenden Kernel-Hilbert-Raum ohne Informationsverlust und unter sehr milden Annahmen abzubilden. All diese Eigenschaften haben zur Entwicklung zahlreicher kernelbasierter informationstheoretischer Maße geführt, wie zum Beispiel der Maximum Mean Discrepancy (MMD; in der Statistikliteratur auch als ``energy distance'' bezeichnet), die den Unterschied zwischen zwei Wahrscheinlichkeitsmaßen quantifiziert; dem Hilbert-Schmidt Independence Criterion (HSIC; in der Statistikliteratur auch als ``distance covariance'' bezeichnet), welches die (Un-)abhängigkeit einer Verteilung quantifiziert; oder der Kernel Stein Discrepancy (KSD), die den Unterschied einer Verteilung zu einem gegebenen Ziel quantifiziert. ... mehr

Abstract (englisch):

Kernel methods have been at the forefront of data science for several decades and provide the basis of some of the most powerful and principled machine learning algorithms currently known. The key properties rendering kernel methods ubiquitous are the number of domains they have been designed for, the Hilbert structure of the function class associated with kernels facilitating their statistical analysis, and their ability to represent probability measures as elements in a reproducing kernel Hilbert space without loss of information under very mild assumptions. These properties have led to the invention of many kernel-based information theoretical measures such as the maximum mean discrepancy (MMD; also known as energy distance in the statistics literature), quantifying the difference of two distributions, the Hilbert-Schmidt independence criterion (HSIC; also known as distance covariance in the statistics literature), quantifying the dependence of a distribution, or kernel Stein discrepancies (KSD), quantifying the difference of a distribution to a given target. ... mehr


Volltext §
DOI: 10.5445/IR/1000182140
Veröffentlicht am 04.06.2025
Cover der Publikation
Zugehörige Institution(en) am KIT Institut für Anthropomatik und Robotik (IAR)
Institut für Programmstrukturen und Datenorganisation (IPD)
Publikationstyp Hochschulschrift
Publikationsdatum 04.06.2025
Sprache Englisch
Identifikator KITopen-ID: 1000182140
Verlag Karlsruher Institut für Technologie (KIT)
Umfang x, 102 S.
Art der Arbeit Dissertation
Fakultät Fakultät für Informatik (INFORMATIK)
Institut Institut für Programmstrukturen und Datenorganisation (IPD)
Prüfungsdatum 19.05.2025
Schlagwörter kernel mean embedding, independence testing, goodness-of-fit testing, minimax lower bound, change detection, Nyström method, Stein's method
Nachgewiesen in OpenAlex
Referent/Betreuer Stühmer, Jan
Szabó, Zoltán
Böhm, Klemens
KIT – Die Universität in der Helmholtz-Gemeinschaft
KITopen Landing Page