Was ist Intelligenz? Diese Frage ist nicht nur zentral, wenn es um unsere eigenen geistigen Fähigkeiten geht. Sie spielt auch eine entscheidende Rolle in der Diskussion um Fortschritte, Vorteile und Risiken der künstlichen Intelligenz.
Kognitiv schon nahe dran
„Intelligenz ist ein facettenreiches und schwer fassbares Konzept, das Psychologen, Philosophen und Computerwissenschaftler seit langem herausfordert“, erklärt der KI-Forscher Sebastien Bubeck von Microsoft Research. „Es gibt keine allgemein akzeptierte Definition der Intelligenz.“ Einig ist sich die Forschung allerdings darin, dass sie eine breite Palette an kognitiven Fähigkeiten umfasst – gängige IQ-Tests versuchen dies durch eine Batterie verschiedenster Aufgaben abzudecken.
In solchen rein kognitiven Fähigkeiten scheinen uns KI-Systeme wie GPT-4 oder BARD bereits ebenbürtig. Die Computerhirne haben in gängigen IQ-Tests besser als 99,9 Prozent der menschlichen Absolventen abgeschnitten und auch einige Tests zur Maschinenintelligenz bestanden. Dazu gehört der berühmte Turing-Test. Er gilt als bestanden, wenn ein Mensch nicht unterscheiden kann, ob er mit einem Computer kommuniziert oder einem echten Menschen. Auch akademische Prüfungen oder berufliche Tätigkeiten absolvieren KI-Systeme inzwischen ähnlich erfolgreich wie menschliche Testpersonen.
Starke und schwache KI
Was aber sagt dies über die Intelligenz der künstlichen Intelligenz? Im Jahr 1980 entwickelte der US-Philosoph John Searle dazu die Theorie der starken und schwachen KI. Als schwache KI sieht er Systeme, die zwar die ihnen gestellten Aufgaben lösen, aber nicht wirklich verstehen, was sie tun und auch keine Intentionen oder ein Bewusstsein entwickeln. Gängiges Beispiel dafür sind Expertensysteme in der Technik oder die Spracherkennungssysteme digitaler Assistenten wie Siri, Alexa und Co. Ein starkes KI-System kann dagegen nicht nur die Aufgaben lösen, sondern auch ihren Sinn verstehen, eigene Pläne und Vorgehensweisen entwickeln und Neues erschaffen.
Das Problem jedoch: Woher erkenne ich, ob eine künstliche Intelligenz weiß, was sie tut? Bisher wissen selbst die Entwicklung der Großen Sprachmodelle nicht, wie und warum ihre Systeme zu ihrem Antworten und Lösungen kommen. „Wir nennen es eine ‚Black Box: Wir können nicht genau sagen, warum die KI dies sagt oder jenes falsch macht“, erklärte Google-CEO Sundar Pichai kürzlich in einem Interview des US-Senders CBS. Dadurch ist es nahezu unmöglich einzuschätzen, was im Maschinenhirn wirklich vor sich geht.
Bloße Imitation oder echte Einsicht?
Anders ausgedrückt: Wenn die künstliche Intelligenz so funktioniert, als hätte sie ein Bewusstsein, lässt sich nur schwer herausfinden, ob sie dies nur imitiert oder wirklich ein tieferes Verständnis ihres Tuns besitzt. Unter anderem deshalb argumentieren einige Kritiker der aktuellen Debatte, ChatGPT und Co seien nicht einmal ansatzweise intelligent, denn sie folgen nur stur bestimmten Wahrscheinlichkeiten in der Wortfolge.
„Einige denken, dass KI-Systeme nie wirklich intelligent sein werden, weil sie nicht verstehen, was sie tun, weil sie kein Bewusstsein haben“, erklärt der Technikphilosoph Paul Formosa von der Macquarie University in Australien. „Aber die Fortschritte in der KI legen nahe, dass es auch Intelligenz ohne Bewusstsein geben kann.“ Anders ausgedrückt: Wenn ein „unverständiges“ selbstlernendes System die gleichen Leistungen zeigt wie ein wirklich intelligentes, sind die Konsequenzen für uns Menschen letztlich die gleichen.
„Ich denke, dass KI die menschliche Intelligenz übertreffen kann. Es ist nur eine Frage der Zeit“, konstatierte jüngst der australische KI-Experte Seyedali Mirjalili vom Center for Artificial Intelligence Research. Schon jetzt habe der rapide Fortschritt bei Algorithmen, Datenmenge und Computerressourcen zu einem Niveau der Intelligenz geführt, das zuvor unvorstellbar war. „Wenn diese Entwicklung anhält, ist eine generalisiertere KI nicht länger eine bloße Möglichkeit, sondern wird zur Gewissheit.“