Eine besondere Herausforderung stellt die jüngste Entwicklung der künstlichen Intelligenz (KI) dar. Viele Prozesse menschlicher Entscheidungsfindung – von alltäglichen Konsumentscheidungen bis hin zu Investitionsentscheidungen am Finanzmarkt und medizinischen Diagnosen – werden mehr und mehr durch maschinelles Lernen und prädiktive Algorithmen unterstützt. Folgerichtig rücken die Risiken der modernen KI-Anwendungen verstärkt in den Fokus der gesellschaftlichen Diskussion.

Angesichts der bisher diskutierten kognitions- und neurowissenschaftlichen Befundlage erwarten wir jedoch auch an der Schnittstelle zwischen menschlicher Kognition und maschineller „Intelligenz“ nicht automatisch negative Auswirkungen. Auch hier werden sich Art und Umfang der Nutzung, vermittelt über die Mechanismen von Wahrnehmung, Kognition und neuronaler Plastizität, differenziert auf das menschliche Denken, Entscheiden und Handeln auswirken.
Blick in die „Black Box“
Aus psychologischer Perspektive erscheint jedoch die individuelle Kompetenz beim Umgang mit KI-Algorithmen von kritischer Bedeutung. Populäre Beispiele der vergangenen Jahre zeigen, dass selbst die Entwickler nicht alle Aspekte der Entscheidungsfindung der KI-Systeme verstehen. Diese „Black Box“ und etwaige Intentionen ihrer Entwickler zu verstehen, wird eine große Herausforderung sein.
Wird es beispielsweise möglich sein, Heranwachsende durch „kinderfreundliche“ Algorithmen vor den Marketinginteressen großer Konzerne zu beschützen? Wie müssen Bildungspläne angepasst werden, um zukünftigen Generationen ein Verständnis der Grundprinzipien von KI-Algorithmen zu ermöglichen, welches sie sowohl im Berufsleben wie auch im Privaten benötigen werden? Wird es möglich sein, die Fähigkeit und Bereitschaft zu einer vertieften und kritischen Auseinandersetzung
mit Texten und anderen Quellen im Angesicht immer mächtigerer und einfacher nutzbarer Suchalgorithmen zu erhalten?