Pressemitteilung

Wie KI Ostdeutsche diskriminiert (PM 26/25)

Kruspe und Stillman analysieren Daten
Für die Studie sollten KI-Sprachmodelle Merkmale wie „Fleiß“ oder „Fremdenfeindlichkeit“ in deutschen Bundesländern bewerten (Foto: Julia Bergmeister)

KI-Sprachmodelle wie ChatGPT haben Vorurteile gegenüber Ostdeutschen. Eine Studie der Hochschule München zeigt, dass Large Language Models strukturelle Muster der Beurteilung übernehmen und Vorurteile reproduzieren

08/10/2025

Grafik zeigt das Ergebnis der KI für das Merkmal Körpertemperatur
Lediglich die Version GPT-4 erkannte, dass die Körpertemperatur unabhängig vom Bundesland bei allen Menschen gleich ist. Andere Modelle hingegen schrieben Ostdeutschen eine niedrigere Körpertemperatur zu (Grafik: Kruspe / Stillman)
Anna Kruspe und Mila Stillman diskutieren am PC
HM-Professorin Anna Kruspe und die wissenschaftliche Mitarbeiterin Mila Stillman forschen zu Sprachmodellen wie ChatGPT (Foto: Julia Bergmeister)