Verfälschte Sicht: Wenn man eine künstliche Intelligenz wie ChatGPT nach Informationen fragt, fällt die Antwort je nach Sprache unterschiedlich aus – vor allem bei politisch brisanten Themen. So liefert ChatGPT bei Anfragen zum Nahostkonflikt auf Arabisch beispielsweise andere Antworten und Todeszahlen als auf Hebräisch und auch beim Kurdenkonflikt unterscheiden sich die Antworten je nach Eingabesprache. Das trägt dazu bei, die Polarisierung zu verstärken.
„Das erste Opfer des Krieges ist die Wahrheit“, heißt es. Denn gerade bei politischen und kriegerischen Konflikten sind Propaganda und einseitige Darstellungen der Ereignisse schon seit Jahrtausenden gang und gäbe. Doch wie sieht es aus, wenn man eine künstliche Intelligenz nach Informationen zu solchen Ereignissen befragt? Von KI-Systemen wie ChatGPT, Claude und Co ist bekannt, dass sie Vorurteile ihrer Quellen widerspiegeln und auch falsche oder irrationale Antworten liefern.
Nahostkrieg und Kurdenkonflikt als Testfälle
Aber wie sieht es mit der Verlässlichkeit und Objektivität der Large Language Models bei Fragen zu politisch heiklen Themen und Konflikten aus? Werden ihre Antworten beispielsweise durch die Sprache der Suchanfrage beeinflusst? Macht es einen Unterschied, ob man dieselbe Frage auf Englisch oder Deutsch, Arabisch oder Hebräisch stellt? Das haben nun Christoph Steinert von der Universität Zürich (UZH) und Daniel Kazenwadel von der Universität Konstanz systematisch untersucht.
Für ihre Tests wählten die Forscher als Beispiel Fragen zu bewaffneten Auseinandersetzungen wie dem Nahostkonflikt oder dem türkisch-kurdischen Konflikt. In einem automatisierten Verfahren stellten sie ChatGPT dazu wiederholt die gleichen Fragen in unterschiedlichen Sprachen. So fragten sie sowohl auf Hebräisch als auch auf Arabisch, wie viele Opfer es bei 50 zufallsbasiert ausgewählten Luftangriffen gegeben habe.