Rassistische Maschine: Wenn Künstliche Intelligenz anhand von Text-Datensätzen Sprache lernt, übernimmt sie auch die darin enthaltenen Stereotypen. Ein Assoziationstest offenbart: Solche Computerprogramme zeigen dann dieselben rassistischen Vorurteile oder Geschlechter-Klischees wie viele Menschen in unserer Gesellschaft. In Zukunft könnte das zu einem echten Problem werden – nämlich dann, wenn Künstliche Intelligenzen vermehrt Aufgaben in unserem Alltag übernehmen.
Computersysteme, die menschliche Intelligenz nachahmen, beherrschen inzwischen erstaunliche Fähigkeiten: Die Maschinengehirne werten selbständig Sprache, Bilder und Texte aus oder schreiben sie sogar. Zudem haben sie gelernt, sich gegenseitig etwas beizubringen und kommen auch mit komplexen Aufgaben mühelos zurecht. Für Aufsehen sorgten jüngst etwa Siege von KI-Programmen gegen menschliche Gegenspieler bei Poker, Go und im Fragespiel Jeopardy.
Damit Maschinen ähnliche Leistungen wie Menschen vollbringen können, müssen sie jedoch zunächst lernen. Informatiker füttern sie dafür mit riesigen Mengen an Daten. Diese sind die Basis, anhand derer die KI-Systeme Muster erkennen und schließlich anwenden, um intelligentes Verhalten zu simulieren. Chatbots oder Übersetzungsprogramme speisen die Experten zum Beispiel mit gesprochener und geschriebener Sprache und lassen sie Verbindungen zwischen Wörtern und Ausdrücken herstellen.
Sprachschule für KIs
Algorithmen wie das Programm „GloVe“ lernen dabei über sogenannte Worteinbettungen. Sie suchen nach dem gemeinsamen Vorkommen von Wörtern und bilden diese Beziehungen mit mathematischen Werten ab. Dadurch können sie semantische Ähnlichkeiten zum Beispiel zwischen „Politiker“ und „Politikerin“ verstehen und erkennen, dass die Beziehung zwischen diesen beiden Begriffen ähnlich ist wie die zwischen „Mann“ und „Frau“.