Wie entstehen Vorurteile?
Für ihre Studie untersuchten Roger Withaker von der Cardiff University und seine Kollegen mithilfe von Computersimulationen, wie Vorurteile entstehen und befeuert werden. In ihrem Modell interagierten 100 smarte Bots in einem Geben-und-Nehmen-Spiel miteinander, bei dem sie entweder jemandem aus dem eigenen Team etwas spenden sollten oder einem Spielteilnehmer von außerhalb.
Wen sie bedachten, entschieden diese virtuellen Akteure aufgrund der eigenen Spielstrategie sowie der Reputation anderer Individuen. Wer würde mit wem kooperieren – und wer würde wen von den Spenden ausschließen? „Indem wir diese Simulationen tausende Male durchspielten, konnten wir erkennen, wie sich Vorbehalte gegenüber anderen entwickeln und unter welchen Bedingungen sie gefördert werden“, erklärt Whitaker.
Immer voreingenommener
Die Auswertung zeigte: Je häufiger die Wissenschaftler die Simulationen durchspielten, desto voreingenommener wurden die Bots. Sie tendierten im Laufe der Zeit immer stärker dazu, Akteure aus fremden Gruppen von ihren Spenden auszuschließen und exklusiv innerhalb ihres eigenen Teams zu handeln. Kurzum: Sie entwickelten immer stärkere Vorurteile gegenüber „den anderen“.
Dabei beobachteten Whitaker und seine Kollegen, dass die smarten Bots ihre Spielstrategie anpassten, indem sie andere Teilnehmer kopierten – und zwar jene, die kurzfristig am meisten Geld einsammelten und demnach am erfolgreichsten waren. Auf diese Weise entstanden Gruppen von Akteuren, die sich ähnlich verhielten und konsequent nicht zugehörige Spielteilnehmer ausschlossen. Besonders hoch war das Vorurteilslevel dann, wenn es eher wenige anstatt viele unterschiedliche Gruppen innerhalb der virtuellen Population gab.
Schlichtes Kopierverhalten
Die Bots erlernten ihre Voreingenommenheit demnach durch das schlichte Kopieren anderer Computergehirne. „Dies legt nahe, dass für die Entwicklung von Vorurteilen keine höheren kognitiven Fähigkeiten notwendig sind“, schreiben die Forscher. Ihnen zufolge scheint klar: Künstliche Intelligenzen benötigen keine von Menschen gemachten Daten, um voreingenommen zu werden – es reicht, wenn sie andere Maschinen um sich haben.
„Viele KI-Entwicklungen beruhen auf Autonomie und Selbstkontrolle. Das bedeutet: Das Verhalten solcher Maschinen wird auch von anderen Maschinen um sie herum beeinflusst. Unsere Studie zeigt, was theoretisch bei Akteuren passieren kann, die regelmäßig auf Ressourcen von anderen angewiesen sind“, konstatiert Whitaker.
„Damit belegen wir, dass die kollektive Intelligenz solcher Maschinen potenziell anfällig für ein Phänomen ist, das wir auch aus menschlichen Gesellschaften kennen“, schließt das Team. (Scientific Reports, 2018; doi: 10.1038/s41598-018-31363-z)
(Cardiff University, 10.09.2018 – DAL)
10. September 2018