Manipulierten Videos auf der Spur: Sogenannte Deepfake-Videos könnten in Zukunft leichter enttarnt werden. Denn Forscher haben eine Methode entwickelt, mit der sich echte Gesichter von computergenerierten Nachbildungen unterscheiden lassen. Als Differenzierungsmerkmal nutzen sie dabei den Pulsschlag. Dieser lässt sich bei realen Menschen auch am Gesicht ablesen – bei virtuellen Gesichtern fehlt dagegen das Pulssignal.
Jeden Tag schauen wir unzähligen Menschen ins Gesicht. Die Fähigkeit, das Antlitz unserer Mitmenschen wiederzuerkennen und zu unterscheiden ist für unser Sozialverhalten dabei enorm wichtig. Kein Wunder also, dass unser Gehirn spezielle Zentren für die Gesichtserkennung besitzt und bestimmte Gesichter in jeweils eigenen Neuronen abspeichert: Ein Blick genügt und wir wissen, wen wir vor uns haben.
Bei Begegnungen auf dem Bildschirm ist die Sache inzwischen allerdings komplizierter. Denn nicht immer steckt hinter dem Gesicht in einem Video tatsächlich die Person, der dieses im realen Leben gehört. Bei sogenannten Deepfakes werden Gesichter einfach ausgetauscht – und Personen so Worte in den Mund gelegt, die sie nie gesagt haben. Ein neuronales Netz analysiert dafür bereits vorhandenes Videomaterial bestimmter Personen und lernt, wie sich deren Gesichtszüge bewegen. Im Ergebnis entsteht eine täuschend echte, aber computergenerierte Version.
Echt oder nicht?
Problematisch ist, dass diese Technologie nicht nur von der Unterhaltungsindustrie genutzt werden kann. Sie ist offen zugänglich und birgt großes Missbrauchspotenzial: Nutzer haben sich die Technik bereits zu eigen gemacht, um die Gesichter von Hollywoodstars in Pornos zu montieren. Und was wäre, wenn Politikern mithilfe manipulierter Videos falsche Aussagen untergeschoben würden? Oder Privatpersonen gemobbt und bloßgestellt würden? „Wir brauchen daher dringend Ansätze, um zu erkennen, was real ist und was nicht“, betonen Mattia Bonomi und Giulia Boato von der Universität Trient.