KIT | KIT-Bibliothek | Impressum | Datenschutz

Verantwortungsvoller Umgang mit Bias in Großen Sprachmodellen

Halfmann, Matthias

Abstract:

Mit der zunehmenden Verbreitung und Anwendung Großer Sprachmodelle (kurz: LLMs) wie ChatGPT in nahezu allen gesellschaftlichen Bereichen werden Bedenken hinsichtlich der Gefahren durch potenzielle Bias-Behaftung dieser laut. Diese Arbeit untersucht die Natur und Ursachen von Bias in LLMs und stellt dar, wie diese Verzerrungen durch technische und ethische Ansätze gemindert werden können. Zunächst wird erläutert, wie Bias in den Modellen identifiziert und gemessen wird. Anschließend werden verschiedene Debiasing-Strategien präsentiert, die in unterschiedliche Phasen des Modellentwicklungszyklus eingreifen. Trotz dieser technischen Maßnahmen bleibt die vollständige Beseitigung von Bias eine Herausforderung. Daher wird die Notwendigkeit einer umfassenden ethischen Reflexion und zusätzlichen Ansätzen diskutiert, um den verantwortungsvollen Einsatz von LLMs zu gewährleisten und die gesellschaftlichen Implikationen von Bias in diesen Modellen zu adressieren.

Zugehörige Institution(en) am KIT Institut für Informationssicherheit und Verlässlichkeit (KASTEL)
Institut für Technikzukünfte (ITZ)
Publikationstyp Hochschulschrift
Publikationsmonat/-jahr 07.2024
Sprache Deutsch
Identifikator KITopen-ID: 1000178257
Verlag Karlsruher Institut für Technologie (KIT)
Umfang 16 S.
Art der Arbeit Studienarbeit
Bemerkung zur Veröffentlichung Proseminar Software-Sustainability (SoSe 2024)
Referent/Betreuer Fuchß, Dominik
Krüger, Marcel

Volltext §
DOI: 10.5445/IR/1000178257
Veröffentlicht am 20.01.2025
Seitenaufrufe: 86
seit 20.01.2025
Downloads: 121
seit 21.01.2025
Cover der Publikation
KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft
KITopen Landing Page