Informatik

Mit KI gegen Deepfakes von Politikern

Biometrische, sprachliche und gestische Eigenheiten entlarven gefälschte Videos

Selenskyj
Der ukrainische Präsident war schon mehrfach Opfer von Deepfakes. © Präsident der Ukraine/ gemeinfrei

Schutz für Selenskyj und Co: Forscher haben eine Methode entwickelt, die gefälschte Videos von Politikern und anderen Prominenten mit 99,99-prozentiger Präzision erkennen kann. Möglich wird dies durch lernfähige Algorithmen, die anhand von authentischem Videomaterial biometrische, sprachliche und gestische Eigenheiten der Zielperson erfasst haben – und so Abweichungen in der Fälschung schnell identifizieren können. Als Testperson diente der ukrainische Präsident Wolodymyr Selenskyj, der schon mehrfach Gegenstand von Deepfakes war.

Technische Fortschritte haben es inzwischen immer einfacher gemacht, Bilder und Videos zu fälschen und sogenannte Deepfakes zu erzeugen. Dabei werden Gesichter in Videoaufnahmen ausgetauscht oder die Mundbewegungen digital so verändert, dass man den Personen beliebige Aussagen in den Mund legen kann. Solche Deepfakes wurden schon häufiger zur Erpressung, für Betrugszwecke oder auch zur gezielten Desinformation eingesetzt.

Deepfakes im Ukrainekrieg

Ein prominentes Beispiel sind Deepfakes im Kontext des Ukrainekriegs: Im März 2022, kurz nach Kriegsbeginn, tauchte beispielsweise ein Video im Internet auf, in dem der ukrainische Präsident Wolodymyr Selenskyj die Niederlage im Krieg gegen Russland und die Kapitulation zu erklären schien. Dieser Deepfake wurde erst entlarvt, nachdem das Video schon über soziale Medien verbreitet und sogar im ukrainischen Fernsehen gesendet worden war.

Ein weiterer Fall ereignete sich im Sommer 2022: Ein Deepfake täuschte erfolgreich die Bürgermeister der Städte Berlin, Madrid und Wien, als diese glaubten, in einer Videokonferenz mit Vitali Klitschko, dem Bürgermeister von Kiew zu sprechen. „Diese jüngsten Ereignisse sind erst der Anfang einer neuen Welle von Deepfake-Angriffen auf aufgezeichnete und live versendete Videos“, erklären Hany Farid von der University of California in Berkeley und Matyas Bohacek vom Kepler-Gymnasium in Prag.

Identitätsbasierte Verfahren für Politiker besonders geeignet

Doch was kann man gegen solche Deepfakes tun? Schon jetzt werden verschiedene Technologien eingesetzt, um Deepfakes zu identifizieren. Gängige Methoden suchen dabei beispielsweise nach Artefakten in den Videodateien, wie sie durch das Einmontieren der falschen Mundbewegungen oder Gesichter entstehen. Auch biometrische Vergleiche lassen sich nutzen, um die Identität der abgebildeten Personen zu überprüfen. Dafür müssen die entsprechenden Merkmale der Originalperson erfasst und mit dem Video verglichen werden – ein relativ aufwendiger Prozess.

Gerade bei prominenten Personen des öffentlichen Lebens ließe sich diese identitätsbasierte Überprüfung aber deutlich abkürzen – indem man schon im Vorhinein lernfähige Algorithmen auf die individuellen Merkmale und Eigenheiten der Zielperson trainiert. Möglich wird dies durch das von solchen Personen reichlich öffentlich verfügbare Videomaterial, wie die Forscher erklären. Gerät dann ein verdächtiges Video im Umlauf, kann die Software direkt mit ihrer vergleichenden Analyse loslegen.

„Eine solche identitätsbasierte Methode ist unserer Meinung nach der sinnvollste und robusteste Ansatz, wenn es um den Schutz von Politikern von Weltrang geht“, konstatieren Farid und Bohacek.

Biometrische, sprachliche und gestische Merkmale

Um ihr System zu entwickeln und zu testen, wählten die Forscher aus aktuellem Anlass den ukrainischen Präsidenten Selenskyj als Testobjekt. Ihre lernfähigen Algorithmen analysierten dabei zunächst insgesamt 506 Minuten an Videoaufnahmen, die Selenskyj bei öffentlichen Reden, in Pressekonferenzen und in von ihm gemachten Videobotschaften zeigten.

Die lernfähigen Analysesysteme werteten biometrische Daten der Gesichts- und Körperbewegungen aus, aber auch stimmliche und sprachliche Eigenheiten. Aus diesen Analysen resultierte ein Satz von 20 Gesichtsmerkmalen, zwölf gestischen und acht sprachlichen Eigenheiten, deren Kombination 780 charakteristische Erkennungszeichen für Wolodymyr Selenskyj ergaben. Eine weitere Software nutzte anschließend diese Merkmale, um Videos auf ihre Echtheit zu prüfen.

Treffsicherheit
Anstieg der Treffsicherheit und korrekten Identifizierung mit der Zahl der berücksichtigten Merkmalskombinationen. © Farid, Bohacek/ PNAS, CC-by-nc-nd 4.0

99,99 Prozent Treffsicherheit

Im Test sollte dieses System dann vier Deepfakes von Selenskyj und 250 Videos mit fremden Vergleichspersonen zuverlässig von echten Aufnahmen des ukrainischen Präsidenten unterscheiden. Mit Erfolg: Das Verfahren erreichte eine Treffsicherheit von 99,99 Prozent. Schon ab etwa 400 berücksichtigten Merkmalen lag die Erfolgsquote bei 99,5 Prozent, wie die Wissenschaftler berichten.

Dabei erwiesen sich einige Eigenheiten Selenskyjs als besonderes aussagekräftig, sie trugen schon einzeln genommen mehr als zehn Prozent zur Genauigkeit der Identifizierung bei. „Das hervorstechendste Merkmal ist eine Neigung Präsident Selenskyjs, mit seinem linken Arm zu gestikulieren, während sein rechter Arm an der Seite herunterhängt“, berichten die Forscher. „Das erzeugt eine starke Korrelation zwischen der Bewegung seines rechten Ellenbogens und der rechten Schulter, wenn er sich von Seite zu Seite bewegt.“ Auch eine Asymmetrie im Lächeln Selenskyj erwies sich als aussagekräftig.

Verfügbar für Behörden und seriöse Nachrichtenmedien

„Solche hochgradig spezifischen Korrelationen dürften es Fälschern erschweren, die individuellen Manierismen im Verhalten einer Person voll zu erfassen und zu reproduzieren“, so Farid und Bohacek. Sie halten es daher für sinnvoll und vielversprechend, gezielt solche Prüfmodelle für wichtige Persönlichkeiten der Politik und des öffentlichen Lebens zu erzeugen, um Deepfakes dann schnell entlarven zu können.

Um mögliche Gegenmaßnahmen von Seiten der Fälscher zu vermeiden, haben sie ihre Algorithmen nicht öffentlich zugänglich gemacht. „Wir werden unsere Klassifizierer aber seriösen Medien und Regierungsbehörden zur Verfügung stellen, damit sie Desinformationskampagnen bekämpfen können“, so die Forscher. (Proceedings of the National Academy of Sciences, 2022; doi: 10.1073/pnas.2216035119)

Quelle: Proceedings of the National Academy of Sciences

Keine Meldungen mehr verpassen – mit unserem wöchentlichen Newsletter.
Teilen:

In den Schlagzeilen

News des Tages

Skelett eines ungeborenee Kindes

So entstehen die Knochen des ungeborenen Kindes

Astronomen entdecken jüngsten Transit-Planet

Mehr Blackouts durch Wind- und Sonnenstrom?

Parkinson: Wenn mehr Dopamin mehr Zittern bedeutet

Diaschauen zum Thema

Dossiers zum Thema

Big Data - Mehr Daten – mehr Erkenntnis?

Bücher zum Thema

Die berechnete Welt - Leben unter dem Einfluss von Algorithmen Von Nora S. Stampfl

Top-Clicks der Woche