Falschen Nachrichten auf der Spur: Forscher haben ein Computerprogramm entwickelt, das künftig bei der Bekämpfung von Fake News helfen könnte. Ihre intelligente Software erkennt Texte, die typische Merkmale solcher Falschmeldungen aufweisen. Neben sprachlichen Eigenschaften fließen dabei auch Metadaten wie der Zeitpunkt eines Posts oder Veröffentlichungsraten mit in die Analyse ein. Auf diese Weise lassen sich beispielsweise Social Bots enttarnen, wie das Team berichtet.
Fake News haben zwar eine lange Tradition – doch selten war ihr Einfluss so groß wie heute. Denn über die sozialen Medien verbreiten sich absichtlich lancierte Falschmeldungen so schnell wie nie. Das macht sie zu einem hervorragenden Mittel, um Meinungsmache zu betreiben und viele Menschen gezielt zu manipulieren. Dies funktioniert auch deshalb so gut, weil professionell gemachte Fake News oft schwer von „echten“ Nachrichten zu unterscheiden sind.
Was lässt sich dagegen tun? Forscher haben bereits Algorithmen entwickelt, die Nachrichten mit Lauffeuer-Potenzial auf Facebook, Twitter und Co identifizieren können – und somit Meldungen, die möglichst schnell auf ihren Wahrheitsgehalt überprüft werden sollten. Einen Schritt weiter geht nun ein Programm, das ein Team um Ulrich Schade vom Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie in Wachtberg konzipiert hat: Ihr Algorithmus erkennt Nachrichten, die typische Merkmale von Falschmeldungen aufweisen.
Typische Merkmale im Blick
Um diesen automatischen Fake-News-Fahnder zu entwickeln, sammelten die Wissenschaftler zunächst eine Vielzahl seriöser Beispielbeiträge sowie Texte, die Nutzer als Fake News klassifiziert hatten. Dieses Material diente als Trainingsmaterial für ein selbstlernendes Computerprogramm. Auf diese Weise lernte der Algorithmus, was Falschmeldungen als solche enttarnen kann. Dies können zum Beispiel bestimmte Formulierungen und Wortkombinationen sein oder sprachliche Fehler.
Denn oftmals werden Fake News nicht von Muttersprachlern verfasst, wie Schade und seine Kollegen berichten. In solchen Fällen deuten falsche Gedankenstriche, Orthografie-, Deklinations- oder Satzbaufehler darauf hin, dass eine Meldung eine Falschmeldung sein könnte. Auch unangemessene Ausdrücke oder umständliche Formulierungen können ein Indiz für Fake News sein.
Verräterische Metadaten
Doch das Programm der Forscher analysiert nicht nur den Text selbst – es schaut sich auch verräterische Metadaten an: Wann wurde ein Tweet veröffentlicht und wie häufig postet ein bestimmter Absender Nachrichten? So kann der Zeitpunkt des Posts beispielsweise darauf hinweisen, aus welchem Land und welcher Zeitzone er versendet wurde. Eine hohe Sendefrequenz deutet dagegen auf einen Social Bot hin – das erhöht die Wahrscheinlichkeit einer Fake News.
Darüber hinaus erkennt die neue Software auch sogenannten Hate Speech – Äußerungen, die Menschen abwerten, angreifen oder zu Hass und Gewalt aufrufen. Wie die Forscher berichten, verweisen derartige Beiträge häufig über Links auf Fake News. „Hier ist es wichtig, einen Klassifikator zu entwickeln, der die eindeutigen Fälle identifiziert. Dies sind beispielsweise Ausdrücke wie ‚Politischer Abschaum‘ oder ‚Nigger'“, erklärt Schade.
Die Wissenschaftler hoffen, dass ihr Tool in Zukunft dabei hilft, erfundene Nachrichten und verdrehte Fakten im Netz aufzuspüren. Wie sie betonen, können sie das System an unterschiedliche Arten von Texten anpassen. „Unsere Software lässt sich für jeden Kunden individuell anpassen und trainieren“, sagt Schade.
Quelle: Fraunhofer-Gesellschaft