Gefährliche Fakes: Von Videos über Fotos bis hin zu Sprachaufnahmen können heutzutage so ziemlich alle digitalen Dateien täuschend echt gefälscht werden und in der Folge großen Schaden anrichten. Bei der Entlarvung solcher Deepfakes könnte künftig überraschenderweise ChatGPT helfen. Zwar kann der Chatbot nicht ganz so zuverlässig Fälschungen erkennen wie speziell dafür entwickelte Algorithmen, doch dafür hat er einen anderen besonderen Vorteil.
Hochentwickelte, KI-gestützte Programme machen es heute so einfach wie nie, täuschend echte Fälschungen – sogenannten Deepfakes – zu erstellen. So ging im vergangenen Jahr zum Beispiel ein mit Künstlicher Intelligenz erstelltes Foto viral, das Papst Franziskus in einer hippen Daunenjacke zeigte. Die Bürgermeister von Berlin, Madrid und Wien wähnten sich außerdem bereits in einer Videokonferenz mit einem Vitali Klitschko, der keiner war, und künstlich erzeugte Stimmen helfen Trickbetrügern mittlerweile dabei, am Telefon wie Personen zu klingen, die ihren Opfern nahestehen.
Der Entlarvung von Deepfakes auf der Spur
Um den Schaden einzudämmen, der mit täuschend echten Videos, Fotos und Sprachaufnahmen angerichtet werden kann, braucht es verlässliche Deepfake-Erkennungssoftware. Entsprechende Algorithmen stehen bereits zur Verfügung und können Wirklichkeit und Illusion in weit über 90 Prozent der Fälle korrekt auseinanderhalten.
Auch die neuesten Versionen des eigentlich auf menschliche Sprache in Textform spezialisierten KI-Chatbots ChatGPT können mittlerweile Bilder analysieren. Um zu verstehen, was auf einem Bild zu sehen ist, arbeitet das Programm mit einer großen Datenbank an Bildunterschriften und lernt so immer besser die Beziehung zwischen Wörtern und Bildern. Aber heißt das auch, dass ChatGPT gefälschte Bilder entlarven kann? Um das herauszufinden, zeigten Computerwissenschaftler um Shan Jia von der University at Buffalo dem Chatbot tausende Bilder mit echten und gefälschten Gesichtern und baten ihn jeweils darum, nach Anzeichen von Manipulation zu suchen.