Wenn eine künstliche Intelligenz von Menschen oder menschengemachten Daten lernt, übernimmt sie auch unsere allzu menschlichen Eigenheiten – so viel scheint inzwischen klar. Ob dies nun implizite Vorurteile oder auch offen diskriminierende Entscheidungen sind. Doch lässt sich diese „Falle“ umgehen?

Nachsitzen für die KI
Ein Problem dabei: Meist wird die Verzerrung der Trainings-Daten erst im Nachhinein klar – wenn die KI bereits Anzeichen voreingenommener Einordnungen zeigt. Im Falle der falschen Klassifizierung der Afro-Amerikaner durch die Google-Photo-App ließ sich dies durch „Nachsitzen“ des Maschinenhirns lösen: Durch Aufstocken der Bilddatenbank mit mehr Bildern von dunkelhäutigen Menschen und einen neuen Trainingsdurchgang korrigierte die KI ihre Einordnung.
Doch dieses Nachsitzen ist nicht immer machbar. Es kann daran scheitern, dass entsprechende Verzerrungen erst gar nicht erkannt werden. Oder aber, dass es schlicht an unverzerrten Daten fehlt. Ein Beispiel ist die Einstufung der Kreditwürdigkeit auf Basis von Personendaten. Wenn Kredite aufgrund der Algorithmen nicht mehr an bestimmte Personengruppen vergeben werden, laufen auch keine Daten mehr dazu ein, die dem eintrainierten Schema widersprechen. Die Datenbasis bleibt dadurch selbst dann verzerrt, wenn die Zahl der Daten wächst.

Gegen die „Anderen“
Und es gibt noch ein Problem: Wissenschaftler haben Indizien dafür gefunden, dass künstliche Intelligenzen womöglich sogar ohne vorbelasteten Input von uns Menschen Vorurteile entwickeln können. Für diese Studie ließen die Forscher 100 smarte Bots in einem Geben-und-Nehmen-Spiel miteinander interagieren. Sie sollten jeweils entscheiden, ob sie jemandem aus dem eigenen Team etwas spenden oder einem Spielteilnehmer von außerhalb.