Fortschritte der künstlichen Intelligenz machen es heute immer einfacher, Bilder und Videos zu fälschen und Deepfakes zu erzeugen. Die Bezeichnung für solche gefälschten, synthetisch erzeugten oder zusammenmontierten Aufnahmen zeigt an, dass sie mithilfe von „Deep Learning“ erstellt wurden, einer Variante des maschinellen Lernens.

Duo neuronaler Netzwerke perfektioniert die Fälschung
Ein Verfahren hinter der Erzeugung solcher Bilder nennt sich GAN für Generative Adversarial Networks. „Im Grunde sind solche Netzwerke immer zweigeteilt: Ein Teil generiert das Bild, ein anderer, der sogenannte Diskriminator, entscheidet, ob das generierte Bild echt aussieht oder nicht“, erklärt Jonas Ricker von der RUB. „Man kann sich das so vorstellen, als wäre der eine Teil ein Geldfälscher, der andere Teil die Polizei, die gefälschte von echten Banknoten unterscheiden muss.“
Diese Entscheidung trifft die künstliche Intelligenz auf der Basis vieler echter Bilder, die als Lerndatensatz in ihr Training einfließen. Am Anfang erzeugt der Generator dabei einfach zufällig irgendwelche Pixel. Im Verlauf lernt er durch die Rückmeldung des Diskriminators immer mehr, worauf es ankommt. Auch der Diskriminator wird immer besser darin, die Bilder des Generators von echten zu unterscheiden. Generator und Diskriminator trainieren sich quasi gegenseitig, was schlussendlich zu täuschend echten Bildern führt.
Wie kann man Deepfakes erkennen?
Entsprechend schwierig ist es, den Deepfakes auf die Spur zu kommen. Bei Videos prominenter Personen können charakteristische Bewegungsmuster bei der Erkennung von Fälschungen helfen, wie Forschende Anfang 2023 berichteten. Voraussetzung dafür ist allerdings, dass es von der fraglichen Person genügend Videomaterial gibt, um ein als Deepfake-Fahnder eingesetztes KI-System vorab entsprechend zu trainieren.