Digitales

Kann ChatGPT Deepfakes entlarven?

Neueste Versionen des Chatbots sind auch zur Bildanalyse fähig

Deepfake
ChatGPT könnte künftig bei der Fahndung nach Deepfakes helfen. © gece33/ iStock

Gefährliche Fakes: Von Videos über Fotos bis hin zu Sprachaufnahmen können heutzutage so ziemlich alle digitalen Dateien täuschend echt gefälscht werden und in der Folge großen Schaden anrichten.  Bei der Entlarvung solcher Deepfakes könnte künftig überraschenderweise ChatGPT helfen. Zwar kann der Chatbot nicht ganz so zuverlässig Fälschungen erkennen wie speziell dafür entwickelte Algorithmen, doch dafür hat er einen anderen besonderen Vorteil.

Hochentwickelte, KI-gestützte Programme machen es heute so einfach wie nie, täuschend echte Fälschungen – sogenannten Deepfakes – zu erstellen. So ging im vergangenen Jahr zum Beispiel ein mit Künstlicher Intelligenz erstelltes Foto viral, das Papst Franziskus in einer hippen Daunenjacke zeigte. Die Bürgermeister von Berlin, Madrid und Wien wähnten sich außerdem bereits in einer Videokonferenz mit einem Vitali Klitschko, der keiner war, und künstlich erzeugte Stimmen helfen Trickbetrügern mittlerweile dabei, am Telefon wie Personen zu klingen, die ihren Opfern nahestehen.

Der Entlarvung von Deepfakes auf der Spur

Um den Schaden einzudämmen, der mit täuschend echten Videos, Fotos und Sprachaufnahmen angerichtet werden kann, braucht es verlässliche Deepfake-Erkennungssoftware. Entsprechende Algorithmen stehen bereits zur Verfügung und können Wirklichkeit und Illusion in weit über 90 Prozent der Fälle korrekt auseinanderhalten.

Auch die neuesten Versionen des eigentlich auf menschliche Sprache in Textform spezialisierten KI-Chatbots ChatGPT können mittlerweile Bilder analysieren. Um zu verstehen, was auf einem Bild zu sehen ist, arbeitet das Programm mit einer großen Datenbank an Bildunterschriften und lernt so immer besser die Beziehung zwischen Wörtern und Bildern. Aber heißt das auch, dass ChatGPT gefälschte Bilder entlarven kann? Um das herauszufinden, zeigten Computerwissenschaftler um Shan Jia von der University at Buffalo dem Chatbot tausende Bilder mit echten und gefälschten Gesichtern und baten ihn jeweils darum, nach Anzeichen von Manipulation zu suchen.

ChatGPT ist ein talentierter Detektiv

Und tatsächlich: Je nach Fälschungsmethode konnte ChatGPT im Test zwischen 77,2 bis 79,5 Prozent der Deepfakes korrekt als solche identifizieren, wie die Forschenden berichten. „Das ist vergleichbar mit früheren Deepfake-Erkennungsmethoden, sodass ChatGPT mit der richtigen Anleitung eine ziemlich gute Leistung bei der Erkennung von KI-generierten Bildern erbringen kann“, berichtet Seniorautor Siwei Lyu von der University at Buffalo.

Doch noch viel entscheidender ist eine andere Qualität des Chatbots: „Bestehende Modelle zur Erkennung von Fälschungen sagen uns zwar, wie wahrscheinlich es ist, dass ein Bild echt oder gefälscht ist, aber sie sagen uns nur selten, warum sie zu diesem Schluss gekommen sind“, erklärt Lyu. „Im Gegensatz dazu ist alles, was ChatGPT ausgibt, für den Menschen verständlich.“

ChatGPT Beispiele
ChatGPT erklärt genau, welche Stellen eines Fotos auf Manipulation hindeuten. © University at Buffalo

Denn das Programm erklärt in leichter, verständlicher Sprache, was genau ihm an einem Foto seltsam vorkommt. Bei einem KI-generierten Foto eines Mannes mit Brille machte ChatGPT das Forschungsteam zum Beispiel auf folgende Auffälligkeiten aufmerksam: „die Haare auf der linken Seite des Bildes verschwimmen leicht“ und „der Übergang zwischen der Person und dem Hintergrund ist etwas abrupt und es fehlt an Tiefe“. Solche für jeden nachvollziehbaren Erklärungen machen die Deepfake-Entlarvung per ChatGPT deutlich nutzerfreundlicher und praktischer als mit herkömmlichen Systemen.

Problematische Arbeitsverweigerung

ChatGPT wäre damit ein vielversprechender Kandidat für die Deepfake-Entlarvung der Zukunft, doch ein Problem bleibt: Arbeitsverweigerung. Häufig sträubte sich das System dagegen, die Bilder hinsichtlich ihrer Echtheit zu analysieren. Den Forschenden teilte der Chatbot dann mit: „Tut mir leid, bei dieser Anfrage kann ich nicht helfen.“

Das war zu erwarten, denn: „Das Modell ist so programmiert, dass es nicht antwortet, wenn es ein bestimmtes Vertrauensniveau nicht erreicht“, erklärt Lyu. Ist sich ChatGPT seiner Antwort zu unsicher, dann schweigt der Chatbot lieber. Und da das System ursprünglich nicht für die Deepfake-Erkennung konzipiert wurde, wählte es diese Option im Test überdurchschnittlich oft. Die Forschenden gehen aber davon aus, dass sich ChatGPT und Co. künftig feiner auf ihre neue Aufgabe trainieren lassen und dadurch auch seltener streiken. (Computer Vision Foundation, 2024; doi: 10.48550/arXiv.2403.14077

Quelle: University at Buffalo

Keine Meldungen mehr verpassen – mit unserem wöchentlichen Newsletter.
Teilen:

In den Schlagzeilen

News des Tages

Skelett eines ungeborenee Kindes

So entstehen die Knochen des ungeborenen Kindes

Astronomen entdecken jüngsten Transit-Planet

Mehr Blackouts durch Wind- und Sonnenstrom?

Diaschauen zum Thema

Dossiers zum Thema

Bücher zum Thema

Smarte Maschinen - Wie Künstliche Intelligenz unser Leben verändert von Ulrich Eberl

Maschinen mit Bewusstsein - Wohin führt die künstliche Intelligenz? von Bernd Vowinkel

Top-Clicks der Woche