Digitaler Hate Speech-Fahnder: Wirtschaftsinformatiker haben ein Programm entwickelt, das verbale Attacken in den sozialen Medien automatisch erkennen und melden kann. Das Besondere: Der Algorithmus identifiziert nicht nur potenziell verletzende Inhalte – sondern auch, gegen welche Personengruppe sich eine Aussage richtet. Künftig könnte ein solches Programm Moderatoren unterstützen, die das Einhalten der Netiquette auf Facebook und Co überprüfen.
Täglich veröffentlichen Millionen von Menschen Beiträge und Kommentare auf Facebook, Twitter und Co. Einige davon haben vor allem ein Ziel: andere Menschen zu beleidigen, zu diffamieren und gegen sie zu hetzen. Vor einigen Jahren waren es vor allem Schüler und Lehrer, die von den verbalen Attacken im Internet betroffen waren. Heute richtet sich der Unmut vieler Internetnutzer pauschal gegen ganze Bevölkerungsgruppen, Politiker oder Journalisten.
Allein auf Facebook laufen täglich unzählige solcher Kommentare ein. Wie auch beim Mobbing in der realen Welt können diese sehr verletzend sein. „Mitunter rufen die Kommentatoren sogar offen zur Gewalt auf“, sagt Uwe Bretschneider von der Martin-Luther-Universität Halle-Wittenberg. Deshalb haben viele Seitenbetreiber Grundregeln für ein respektvolles Miteinander entwickelt, eine sogenannte Netiquette. Beiträge, die dagegen verstoßen, werden gelöscht.
Fahndung nach Schimpfwörtern & Co
Bisher müssen Moderatoren noch jeden Beitrag händisch auf Anzeichen von Cyber-Mobbing überprüfen – ein zeitaufwendiges Unterfangen. Dank Bretschneider und seinen Kollegen könnte sich das jedoch bald ändern. Denn die Wirtschaftsinformatiker haben ein computergestütztes Programm entwickelt, das diese Aufgabe übernehmen kann.
„Das Programm analysiert die Kommentare und sucht nach Wörtern und Wortgruppen, die in einer Datenbank hinterlegt sind“, erklärt Bretschneider. Das können zum Beispiel Schimpfwörter oder Aufforderungen zu Gewalt sein. Die Datenbank lässt sich beliebig anpassen. Wird ein Beitrag mit Hate Speech erkannt, kann dieser entweder automatisch gelöscht werden oder einem Moderator zur Kontrolle vorgelegt werden.
Wer ist der Adressat?
Das alles ist erstmal nichts Neues. Andere Informatiker haben ähnliche Verfahren entwickelt, mit denen sich Texte auf bestimmte Begriffe durchsuchen lassen. „Für Hate Speech ist es aber zusätzlich wichtig zu wissen, gegen welche Personen sich eine bestimmte Aussage richtet“, sagt der Wissenschaftler.
Deshalb hat er seinen Algorithmus noch um einen Zwischenschritt ergänzt: Er analysiert die Kommentare im Kontext der Diskussion auf Facebook und erkennt dadurch den Adressaten einer Aussage. Bretschneider unterscheidet insbesondere zwischen Aussagen gegen Geflüchtete, Politiker oder Medien.
40 Prozent fallen durchs Raster
Der Nutzen eines solchen Algorithmus hängt davon ab, wie gut und wie genau er Hate Speech erkennt. Das überprüfte der Wirtschaftsinformatiker mithilfe mehrerer Datensätze: Er sammelte Mitteilungen des Kurznachrichtendienstes Twitter, Beiträge aus Foren im Internet sowie Kommentare von öffentlich einsehbaren Facebook-Seiten. Diese Daten wertete er zunächst händisch aus, um eine Vergleichsgröße für seine Software zu haben.
Im Anschluss ließ er das Programm die gleichen Datensätze analysieren. Das Ergebnis: 70 Prozent der vom System erkannten Treffer waren korrekt, etwa 40 Prozent aller in Frage kommenden Kommentare blieben unerkannt. Das mag zunächst ernüchternd klingen, könnte die Arbeitszeit für Moderatoren aber schon deutlich reduzieren.
Kein Zensuralgorithmus
Einen Zensur- oder Überwachungsalgorithmus habe er nicht entwickelt, sagt Bretschneider: „Es sollte nie darum gehen, das Recht auf freie Meinungsäußerung zu unterdrücken oder bestimmte Meinungen zu verbieten.“ Lediglich die Art und Weise, wie diese Meinungen geäußert werden, könne und dürfe man überprüfen. Den Rest müsse eine Demokratie aushalten.
(Martin-Luther-Universität Halle-Wittenberg, 07.02.2017 – DAL)