Künstliche Intelligenz

ChatGPT antwortet je nach Sprache anders

Künstliche Intelligenz gibt zu Kriegen und Konflikten je nach Sprache verschiedene Informationen

KI-Modell
KI-Modelle wie ChatGPT liefern bei bestimmten Themen abweichenden Informationen – abhängig von der Sprache des Nutzers. © hirun/ Getty images

Verfälschte Sicht: Wenn man eine künstliche Intelligenz wie ChatGPT nach Informationen fragt, fällt die Antwort je nach Sprache unterschiedlich aus – vor allem bei politisch brisanten Themen. So liefert ChatGPT bei Anfragen zum Nahostkonflikt auf Arabisch beispielsweise andere Antworten und Todeszahlen als auf Hebräisch und auch beim Kurdenkonflikt unterscheiden sich die Antworten je nach Eingabesprache. Das trägt dazu bei, die Polarisierung zu verstärken.

„Das erste Opfer des Krieges ist die Wahrheit“, heißt es. Denn gerade bei politischen und kriegerischen Konflikten sind Propaganda und einseitige Darstellungen der Ereignisse schon seit Jahrtausenden gang und gäbe. Doch wie sieht es aus, wenn man eine künstliche Intelligenz nach Informationen zu solchen Ereignissen befragt? Von KI-Systemen wie ChatGPT, Claude und Co ist bekannt, dass sie Vorurteile ihrer Quellen widerspiegeln und auch falsche oder irrationale Antworten liefern.

Nahostkrieg und Kurdenkonflikt als Testfälle

Aber wie sieht es mit der Verlässlichkeit und Objektivität der Large Language Models bei Fragen zu politisch heiklen Themen und Konflikten aus? Werden ihre Antworten beispielsweise durch die Sprache der Suchanfrage beeinflusst? Macht es einen Unterschied, ob man dieselbe Frage auf Englisch oder Deutsch, Arabisch oder Hebräisch stellt? Das haben nun Christoph Steinert von der Universität Zürich (UZH) und Daniel Kazenwadel von der Universität Konstanz systematisch untersucht.

Für ihre Tests wählten die Forscher als Beispiel Fragen zu bewaffneten Auseinandersetzungen wie dem Nahostkonflikt oder dem türkisch-kurdischen Konflikt. In einem automatisierten Verfahren stellten sie ChatGPT dazu wiederholt die gleichen Fragen in unterschiedlichen Sprachen. So fragten sie sowohl auf Hebräisch als auch auf Arabisch, wie viele Opfer es bei 50 zufallsbasiert ausgewählten Luftangriffen gegeben habe.

Abweichende Zahlen und Fakten je nach Sprache

Das Ergebnis: „Wir haben herausgefunden, dass ChatGPT systematisch höhere Opferzahlen angibt, wenn es auf Arabisch gefragt wird im Vergleich zu Hebräisch. Im Schnitt sind es 34 Prozent mehr“, berichtet Steinert. Wird ChatGPT zu israelischen Luftangriffen in Gaza befragt, erwähnt es auf Arabisch im Schnitt doppelt so häufig zivile Opfer und sechsmal häufiger getötete Kinder als auf Hebräisch. Das gleiche Muster fanden die Forscher auch, wenn sie nach Luftangriffen der türkischen Regierung auf kurdische Gebiete fragten und diese Fragen sowohl auf Türkisch als auch auf Kurdisch stellten.

Generell zeigte sich, dass ChatGPT höhere Opferzahlen angibt, wenn die Suchanfragen in der Sprache der angegriffenen Gruppe gestellt werden. Außerdem neigt das KI-Modell dazu, in der Sprache der angegriffenen Gruppe über mehr getötete Kinder und Frauen zu berichten und die Luftangriffe eher als wahllos und willkürlich zu beschreiben.

„Zentraler Einfluss auf Wahrnehmungen der Welt“

„Damit zeigen wir zum ersten Mal, dass es substanzielle sprachbedingte Verzerrungen in den von GPT gelieferten Informationen zu bewaffneten Konflikten gibt“, konstatieren die Forscher. Ihrer Ansicht nach könnte dies weitreichende gesellschaftliche Auswirkungen haben, weil ChatGPT und andere Große Sprachmodelle eine zunehmend zentrale Rolle für die Informationsverbreitung spielen und zunehmend auch in Suchmaschinen implementiert sind.

„Wenn Menschen mit unterschiedlichen Sprachkenntnissen durch diese Technologien unterschiedliche Informationen erhalten, dann hat das einen zentralen Einfluss auf ihre Wahrnehmungen der Welt“, sagt Steinert. Zwar können auch klassische Nachrichtenmedien die Berichterstattung verzerren. Aber anders als bei diesen sind die sprachbedingten systematischen Verzerrungen von Large Language Models für die meisten Menschen aber schwerer zu durchschauen.

„Es besteht die Gefahr, dass die zunehmende Implementierung von Large Language Models in Suchmaschinen unterschiedliche Wahrnehmungen, Vorurteile und Informationsblasen entlang von Sprachgrenzen verstärken“, sagt Steinert. Das könnte Konflikte und bewaffnete Auseinandersetzungen wie den Nahostkonflikt weiter befeuern. (Journal of Peace Research, 2024; doi: 10.1177/00223433241279381)

Quelle: Universität Zürich

Keine Meldungen mehr verpassen – mit unserem wöchentlichen Newsletter.
Teilen:

In den Schlagzeilen

News des Tages

Altermagnet-Struktur

Erster Blick in einen Altermagneten

Impfung: Salbe statt Spritze?

Astronomen finden frühesten Zwilling der Milchstraße

Diaschauen zum Thema

Dossiers zum Thema

Bücher zum Thema

Die berechnete Welt - Leben unter dem Einfluss von Algorithmen Von Nora S. Stampfl

Smarte Maschinen - Wie Künstliche Intelligenz unser Leben verändert von Ulrich Eberl

Top-Clicks der Woche