Wenn eine künstliche Intelligenz von Menschen oder menschengemachten Daten lernt, übernimmt sie auch unsere allzu menschlichen Eigenheiten – so viel scheint inzwischen klar. Ob dies nun implizite Vorurteile oder auch offen diskriminierende Entscheidungen sind. Doch lässt sich diese „Falle“ umgehen?
Nachsitzen für die KI
Ein Problem dabei: Meist wird die Verzerrung der Trainings-Daten erst im Nachhinein klar – wenn die KI bereits Anzeichen voreingenommener Einordnungen zeigt. Im Falle der falschen Klassifizierung der Afro-Amerikaner durch die Google-Photo-App ließ sich dies durch „Nachsitzen“ des Maschinenhirns lösen: Durch Aufstocken der Bilddatenbank mit mehr Bildern von dunkelhäutigen Menschen und einen neuen Trainingsdurchgang korrigierte die KI ihre Einordnung.
Doch dieses Nachsitzen ist nicht immer machbar. Es kann daran scheitern, dass entsprechende Verzerrungen erst gar nicht erkannt werden. Oder aber, dass es schlicht an unverzerrten Daten fehlt. Ein Beispiel ist die Einstufung der Kreditwürdigkeit auf Basis von Personendaten. Wenn Kredite aufgrund der Algorithmen nicht mehr an bestimmte Personengruppen vergeben werden, laufen auch keine Daten mehr dazu ein, die dem eintrainierten Schema widersprechen. Die Datenbasis bleibt dadurch selbst dann verzerrt, wenn die Zahl der Daten wächst.
Gegen die „Anderen“
Und es gibt noch ein Problem: Wissenschaftler haben Indizien dafür gefunden, dass künstliche Intelligenzen womöglich sogar ohne vorbelasteten Input von uns Menschen Vorurteile entwickeln können. Für diese Studie ließen die Forscher 100 smarte Bots in einem Geben-und-Nehmen-Spiel miteinander interagieren. Sie sollten jeweils entscheiden, ob sie jemandem aus dem eigenen Team etwas spenden oder einem Spielteilnehmer von außerhalb.
Dabei zeigte sich Überaschendes: Im Laufe der Zeit tendierten die Bots immer stärker dazu,
fremde Gruppen auszuschließen und Spenden nur an eigenen Teammitglieder zu vergeben. Sie entwickelten damit immer stärkere Vorurteile gegenüber „den Anderen“. Der Grund dafür: Die smarten Bots passten ihre Spielstrategie an, indem sie das Verhalten der Mitspielenden kopierten, die am meisten Geld einsammelten und am erfolgreichsten waren. Auf diese Weise entstanden Gruppen von Akteuren, die sich ähnlich verhielten und konsequent nicht zugehörige Spielteilnehmer ausschlossen.
Vorurteil auch ohne den Menschen
Mit anderen Worten: Die Bots erlernten ihre Voreingenommenheit durch das schlichte Kopieren anderer Computergehirne. „Dies legt nahe, dass für die Entwicklung von Vorurteilen keine höheren kognitiven Fähigkeiten notwendig sind“, erklärt Roger Withaker von der Cardiff University. Ihnen zufolge scheint klar: Künstliche Intelligenzen benötigen keine von Menschen gemachten Daten, um voreingenommen zu werden – es reicht, wenn sie andere Maschinen um sich haben. Denn auch dadurch kann eine Gruppendynamik entstehen, die auch aus menschlichen Gesellschaften bekannt ist – und die Vorurteile fördert.