Hör mal, wer da spricht: Täuschend echte Kopien einer Stimme können elektronische Sicherheitssysteme unterlaufen – und das beängstigend leicht. Denn mit frei erhältlicher Software kann man diese geklonten Stimmmuster einfach herstellen. US-Forscher warnen darum zur Vorsicht: Proben der eigenen Stimme sollte man nur zurückhaltend online stellen, und Systeme zur Stimmerkennung müssten noch zuverlässiger werden.
Unsere Stimme nutzen wir jeden Tag, um uns in persönlichen Gesprächen zu unterhalten oder über große Entfernungen zu telefonieren, um uns mit dem Rest der Welt zu verständigen. Der Klang der Stimme, zusammen mit typischem Tonfall und Sprachmustern, macht sie zu einem ganz persönlichen Erkennungsmerkmal. Wenn wir die Stimme erkennen, sind wir normalerweise sicher, es auch mit der zugehörigen Person zu tun zu haben, und wer „sein Wort gibt“, meint es normalerweise ehrlich.
Persönliche Stimme ist leicht zugänglich
Doch gerade in dieser Alltäglichkeit könnte ein Sicherheitsrisiko liegen, warnt Nitesh Saxena von der University of Alabama. „Menschen hinterlassen Spuren ihrer Stimme auf viele verschiedene Arten“, erklärt der Informatiker. „Sie unterhalten sich laut, wenn sie sich im Restaurant treffen, sie halten öffentliche Vorträge, führen Telefonate oder geben online Stimmproben ab.“ Für Menschen mit kriminellen Absichten ist die persönliche Stimme eines anderen auf diesen Wegen leicht zugänglich.
Und das Risiko, das von einigen heimlich mit dem Smartphone aufgenommenen oder online aufgespürten Gesprächsminuten ausgeht, ist größer, als man denkt. Saxena und Kollegen haben mit einfach erhältlicher „voice morphing“-Software überprüft, wie gut sich eine Stimme anhand weniger Proben imitieren lässt.
Ein paar Minuten für einen vollständigen Klon
Solche Software errechnet aus den vorhandenen Proben Stimmlage und Tonfall, um die Stimme zu duplizieren. Anschließend kann man dieses Stimmenimitat jeden gewünschten Satz sprechen lassen. „Das Ergebnis von nur ein paar Minuten Tonspur mit der Stimme des Opfers führen zu einem vollständigen Klon von dessen Stimme“, beschreibt Saxena.
„Die Folgen einer solchen Kopie können schwerwiegend sein“, so der Forscher weiter. „Weil die Stimme für jede Person charakteristisch und einzigartig ist, bildet sie die Grundlage zu ihrer Identifikation. Einem Angreifer gibt das die Schlüssel zur Privatsphäre dieser Person.“ Banken und Kreditkartenfirmen arbeiten zunehmend daran, Kunden die Stimmidentifikation als bequeme Alternative zu bisherigen Verfahren wie Nummerncodes anzubieten. Auch in Smartphones kommt diese sogenannte Stimm-Biometrie bereits zum Einsatz.
Falsche Nachrichten, falsche Telefonate, falsche Beweise
Gegen die von Saxena und Kollegen erstellten gefälschten Stimmen waren diese Systeme jedoch größtenteils machtlos: Nur in weniger als ein Fünftel der Fälle erkannten sie einen unautorisierten Angriff und wiesen die geklonte Stimme zurück. War das Sicherheitssystem erst überwunden, hatten die Informatiker uneingeschränkten Zugang zu den privaten Daten ihrer freiwilligen Versuchspersonen.
Aber das menschliche Ohr kann eine Stimme besser erkennen als ein Computer, oder? Leider nur begrenzt: Die Forscher nutzten die Voice-morphing-Software in einer Studie, um die Stimmen der US-Stars Oprah Winfrey und Morgan Freeman nachzustellen. Damit täuschten sie immerhin rund die Hälfte der Studienteilnehmer.
„Die Möglichkeiten sind endlos“, sagt Saxena. „Ein Angreifer könnte falsche Stimmproben im Internet hinterlegen, falsche Stimmnachrichten an Bekannte des Opfers verschicken, falsche Audio-Beweise für Gerichtsprozesse erstellen, und sogar das Opfer in einem Telefongespräch mit einem Bekannten imitieren.“
Computer werden besser, das menschliche Ohr nicht
Die Software für diese Tricks ist bereits frei verfügbar. Die Forscher fürchten aber, dass die Gefahr in Zukunft noch weiter steigen könnte, wenn die Programme zur Stimmerkennung und –synthese immer besser werden, „während die menschliche Fähigkeit dazu das mit ziemlicher Sicherheit nicht tun wird.“
Doch völlig wehrlos sind wir nicht gegenüber dem böswilligen Stimmenklau: Sich der Gefahr bewusst zu sein, sei bereits ein erster Schritt zu größerer Sicherheit, meint Saxena. Menschen sollten darum zum Beispiel nicht unbedacht Audio-Clips ihrer Stimme allzu leicht online verfügbar machen. Die beste Verteidigung seien Stimm-Biometriesysteme, die auch überprüfen können, ob tatsächlich ein echter Mensch vorhanden ist, der gerade spricht. Solche und andere Verteidigungsstrategien wollen Saxena und Kollegen als nächstes erforschen.
(University of Alabama at Birmingham, 28.09.2015 – AKR)