Digitaler Hate Speech-Fahnder: Wirtschaftsinformatiker haben ein Programm entwickelt, das verbale Attacken in den sozialen Medien automatisch erkennen und melden kann. Das Besondere: Der Algorithmus identifiziert nicht nur potenziell verletzende Inhalte – sondern auch, gegen welche Personengruppe sich eine Aussage richtet. Künftig könnte ein solches Programm Moderatoren unterstützen, die das Einhalten der Netiquette auf Facebook und Co überprüfen.
Täglich veröffentlichen Millionen von Menschen Beiträge und Kommentare auf Facebook, Twitter und Co. Einige davon haben vor allem ein Ziel: andere Menschen zu beleidigen, zu diffamieren und gegen sie zu hetzen. Vor einigen Jahren waren es vor allem Schüler und Lehrer, die von den verbalen Attacken im Internet betroffen waren. Heute richtet sich der Unmut vieler Internetnutzer pauschal gegen ganze Bevölkerungsgruppen, Politiker oder Journalisten.
Allein auf Facebook laufen täglich unzählige solcher Kommentare ein. Wie auch beim Mobbing in der realen Welt können diese sehr verletzend sein. „Mitunter rufen die Kommentatoren sogar offen zur Gewalt auf“, sagt Uwe Bretschneider von der Martin-Luther-Universität Halle-Wittenberg. Deshalb haben viele Seitenbetreiber Grundregeln für ein respektvolles Miteinander entwickelt, eine sogenannte Netiquette. Beiträge, die dagegen verstoßen, werden gelöscht.
Fahndung nach Schimpfwörtern & Co
Bisher müssen Moderatoren noch jeden Beitrag händisch auf Anzeichen von Cyber-Mobbing überprüfen – ein zeitaufwendiges Unterfangen. Dank Bretschneider und seinen Kollegen könnte sich das jedoch bald ändern. Denn die Wirtschaftsinformatiker haben ein computergestütztes Programm entwickelt, das diese Aufgabe übernehmen kann.