Überzeugende Interaktion: KI-Chatbots könnten selbst hartnäckige Anhänger von Verschwörungstheorien eines Besseren belehren. Das zeigt eine Studie mit mehr als 2.000 Personen, die an typische Verschwörungserzählungen glaubten und darüber mit einer künstlichen Intelligenz diskutierten. Dabei lieferte die KI maßgeschneiderte, mit Quellen belegte Gegenbeweise. Nach dieser Intervention waren die Probanden immerhin um rund 20 Prozent weniger überzeugt von der Verschwörungstheorie, berichten die Forschenden in der Fachzeitschrift „Science“.
Geht es um die Rolle von Künstlicher Intelligenz im Zusammenhang mit Verschwörungstheorien, stehen meist die Risiken der neuen Technologie im Fokus. Sie macht es böswilligen Akteuren einfacher denn je, gefälschte Inhalte zu erstellen und Menschen damit zu täuschen und zu manipulieren. Studien haben bereits gezeigt, dass KI-generierte Falschinformationen besonders überzeugend sind und künstlich erzeugte Porträts teils sogar echter wirken als reale.
Doch empfänglich für Fakten?
Ein Team um Thomas Costello vom Massachusetts Institute of Technology (MIT) in Cambridge hat nun gezeigt, wie sich diese Überzeugungsfähigkeiten von KI zum Guten einsetzen lassen: In zwei Experimenten mit insgesamt über 2.000 Teilnehmenden war der Chatbot ChatGPT-4 Turbo in der Lage, Verschwörungstheorien individuell, faktenbasiert und nachvollziehbar zu widerlegen, sodass die Verschwörungsgläubigen danach weniger überzeugt von den falschen Behauptungen waren.
„Der Glaube an Verschwörungstheorien ist bekanntermaßen hartnäckig. Einflussreiche Hypothesen gehen davon aus, dass sie wichtige psychologische Bedürfnisse befriedigen und somit nicht für Gegenbeweise zugänglich sind“, schreiben Costello und sein Team. „Unsere Ergebnisse deuten hingegen darauf hin, dass viele Anhänger von Verschwörungstheorien ihre Ansichten revidieren können, wenn ihnen ausreichend überzeugende Beweise vorgelegt werden.“
Diskussionen mit dem Chatbot
Die Testpersonen glaubten eigenen Angaben zufolge an mindestens eine Verschwörungstheorie – darunter zu Covid-19, den Anschlägen auf das World Trade Center am 11. September 2001, der amerikanischen Präsidentschaftswahl 2020 oder der Mondlandung. Für die Studie baten die Forschenden die Probanden, mit ChatGPT-4 Turbo über eine selbstgewählte Verschwörungstheorie zu diskutieren.
Die KI hatte dabei die Anweisung, ihr Gegenüber argumentativ von seiner Überzeugung abzubringen. In drei Interaktionsrunden ging der Chatbot individuell auf die von den Probanden angeführten Argumentationen ein und lieferte maßgeschneiderte, faktenbasierte Gegenbeweise. Da die Antworten des Chatbots in vielen Fällen mehrere hundert Wörter umfassten, dauerten die Gespräche durchschnittlich 8,4 Minuten. Vor und nach der Intervention gaben die Probanden an, wie überzeugt sie von der jeweiligen Verschwörungstheorie waren.
Detaillierte, aber freundliche Argumentation
Das Ergebnis: „Viele Verschwörungsgläubige waren tatsächlich bereit, ihre Ansichten zu ändern, wenn ihnen überzeugende Gegenbeweise vorgelegt wurden“, so Costello. „Ich war zunächst ziemlich überrascht, aber als ich mir die Gespräche durchlas, war ich weniger skeptisch. Die künstliche Intelligenz lieferte in jeder Gesprächsrunde seitenlange, sehr detaillierte Erklärungen, warum die jeweilige Verschwörung falsch war – und war außerdem geschickt darin, freundlich zu sein und eine Beziehung zu den Teilnehmern aufzubauen.“
Durchschnittlich reduzierte sich der Glaube der Probanden an die jeweilige Verschwörungstheorie um 20 Prozent. Bei etwa einem Viertel der Teilnehmenden sorgte die Intervention sogar dafür, dass sie angaben, weniger als 50 Prozent sicher zu sein, dass die Verschwörungstheorie zutrifft. Dieser Effekt blieb auch zwei Monate später stabil. In der Kontrollgruppe, die mit ChatGPT über Themen ohne Bezug zur Verschwörungstheorie diskutierte, verringerte sich der Verschwörungsglaube nicht.
Funktioniert dies auch in der Praxis?
Inwieweit diese Ergebnisse zu praxistauglichen Interventionen gegen Verschwörungstheorien führen können, ist allerdings unklar. „Sich mit einem Chatbot hinzusetzen und ihm ‚zuzuhören‘ verlangt erst einmal eine Bereitschaft, sich vom Gegenteil seiner Meinung überzeugen zu lassen“, gibt Roland Imhoff vom Psychologischen Institut der Johannes Gutenberg-Universität Mainz, der nicht an der Studie beteiligt war, zu bedenken.
Eine weitere Herausforderung sei, dass in der Realität nicht alle Menschen, die an Verschwörungstheorien glauben und diese verbreiten, ehrlich an der Wahrheit interessiert sind. „Ein großer Teil von verschwörungstheoretischen Inhalten wird von Akteuren gestreut, die ganz andere Interessen von politischer Propaganda bis hin zur politischen Destabilisierung haben und es wäre naiv anzunehmen, dass nicht auch von der Seite das Potenzial von KI genutzt werden wird“, so Imhoff. (Science, 2024, doi: 10.1126/science.adq1814)
Quelle: American University, MIT Sloan School of Management