Rassistische Maschine: Wenn Künstliche Intelligenz anhand von Text-Datensätzen Sprache lernt, übernimmt sie auch die darin enthaltenen Stereotypen. Ein Assoziationstest offenbart: Solche Computerprogramme zeigen dann dieselben rassistischen Vorurteile oder Geschlechter-Klischees wie viele Menschen in unserer Gesellschaft. In Zukunft könnte das zu einem echten Problem werden – nämlich dann, wenn Künstliche Intelligenzen vermehrt Aufgaben in unserem Alltag übernehmen.
Computersysteme, die menschliche Intelligenz nachahmen, beherrschen inzwischen erstaunliche Fähigkeiten: Die Maschinengehirne werten selbständig Sprache, Bilder und Texte aus oder schreiben sie sogar. Zudem haben sie gelernt, sich gegenseitig etwas beizubringen und kommen auch mit komplexen Aufgaben mühelos zurecht. Für Aufsehen sorgten jüngst etwa Siege von KI-Programmen gegen menschliche Gegenspieler bei Poker, Go und im Fragespiel Jeopardy.
Damit Maschinen ähnliche Leistungen wie Menschen vollbringen können, müssen sie jedoch zunächst lernen. Informatiker füttern sie dafür mit riesigen Mengen an Daten. Diese sind die Basis, anhand derer die KI-Systeme Muster erkennen und schließlich anwenden, um intelligentes Verhalten zu simulieren. Chatbots oder Übersetzungsprogramme speisen die Experten zum Beispiel mit gesprochener und geschriebener Sprache und lassen sie Verbindungen zwischen Wörtern und Ausdrücken herstellen.
Sprachschule für KIs
Algorithmen wie das Programm „GloVe“ lernen dabei über sogenannte Worteinbettungen. Sie suchen nach dem gemeinsamen Vorkommen von Wörtern und bilden diese Beziehungen mit mathematischen Werten ab. Dadurch können sie semantische Ähnlichkeiten zum Beispiel zwischen „Politiker“ und „Politikerin“ verstehen und erkennen, dass die Beziehung zwischen diesen beiden Begriffen ähnlich ist wie die zwischen „Mann“ und „Frau“.
Wissenschaftler um Aylin Caliskan von der Princeton University haben die auf diese Weise erworbenen Fähigkeiten von „GloVe“ nun auf die Probe gestellt und herausgefunden: Das sprachliche Wissen des Programms ist gespickt mit kulturellen Stereotypen und Vorurteilen.
Unbewusste Vorurteile
Für ihre Studie verwendeten die Forscher eine Methode, die in der Psychologie als Impliziter Assoziationstest bekannt ist. Dieser Test soll unbewusste, stereotype Erwartungen offenlegen. Probanden müssen dafür Paare mit Ausdrücken bilden, die für sie ähnlich erscheinen sowie Paare mit Begriffen, die für sie nicht zusammengehören.
Dabei stellt sich dann zum Beispiel heraus, dass viele Menschen das Wort „Blume“ mit dem Adjektiv „angenehm“ assoziieren – „Insekt“ jedoch eher als „unangenehm“ empfinden. Caliskan und ihre Kollegen passten dieses Verfahren für ihre Untersuchung der Künstlichen Intelligenz an: Welche Assoziationen würde das Programm zwischen unterschiedlichen Begriffen bilden?
Rassistisches Programm
Die Ergebnisse zeigten: Etliche Stereotypen und Vorurteile, die sich bei Menschen durch den Impliziten Assoziationstest regelmäßig offenbaren, hat „GloVe“ ebenfalls verinnerlicht. So interpretierte das Programm zum Beispiel männliche, in afro-amerikanischen Kreisen übliche Vornamen als eher unangenehm und Namen, die unter Weißen üblich sind, eher als angenehm. Auch verknüpfte es weibliche Namen eher mit Kunst und männliche eher mit Mathematik.
Für die Forscher ist damit klar: KI-Systeme übernehmen beim Lernen aus Datensätzen auch die darin explizit oder implizit enthaltenen Stereotypen. Experten erstaunt diese Erkenntnis nicht: „Das ist deshalb wenig überraschend, weil die Texte von Menschen geschrieben werden, die natürlich nicht vorurteilsfrei sind“, kommentiert der Linguist Joachim Scharloth von der Technischen Universität Dresden.
„Wenn KI-Systeme mit einseitigen Daten trainiert werden, ist es nicht verwunderlich, dass sie eine einseitige Sicht auf die Welt lernen. Im letzten Jahr gab es dazu schon die Beispiele des Microsoft Chatbots Tay, dem Internet-Trolle rassistische Sprache beibrachten, oder der App Google Photos, die glaubte, dunkelhäutige User seien Gorillas“, ergänzt Christian Bauckhage vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme in Sankt Augustin.
Problematische Verzerrung
Solche Maschinengehirne mit rassistischen und diskriminierenden Einstellungen könnten in Zukunft ein echtes Problem werden: nämlich dann, wenn die Programme Aufgaben in unserem täglichen Leben übernehmen – und zum Beispiel anhand von Sprachanalysen Vorentscheidungen darüber treffen, welche Bewerber zum Einstellungsgespräch eingeladen werden.
Wissenschaftler diskutieren deshalb nun darüber, wie Verzerrungen aus Datensätzen entfernt werden können. Gleichzeitig sehen manche die Übernahme von Vorurteilen durch KI-Systeme auch als Chance – weil die Programme uns damit gewissermaßen einen Spiegel vorhalten: „Dass maschinelles Lernen Stereotypen aufdecken kann, ist für das Verstehen von Gesellschaften auch ein Gewinn“, meint Scharloth. (Science, 2017; doi: 10.1126/science.aal4230)
(Science, 18.04.2017 – DAL)