Noch ist strittig, ob und wann es eine generelle künstliche Intelligenz geben wird – KI-Systeme, die uns ebenbürtig oder sogar überlegen sind. Doch schon jetzt warnen einige KI-Experten vor den möglichen Folgen. Bereits im April 2023 veröffentlichen mehr als tausend Personen aus der Tech-Branche – darunter Elon Musk und der Apple-Mitgründer Steve Wozniak – einen offenen Brief, in dem sie eine sechsmonatige Pause in der Entwicklung neuer KI-Systeme forderten.
Droht die Auslöschung der Menschheit?
Im Mai 2023 veröffentlichte das Center for AI Safety (CAIS) ein Statement, in dem sogar vor einem existenziellen Risiko für die Menschheit durch künstliche Intelligenz gewarnt wurde: „Die Auslöschung der Menschheit durch KI zu verhindern, sollte eine ebenso große Priorität erhalten wie andere Risiken von global-gesellschaftlichem Ausmaß, darunter Pandemien oder ein Atomkrieg“, so das Statement.
Unter den hunderten Unterzeichnern des CAIS-Statements waren auch OpenAI-CEO Sam Altman, der Leiter von Google DeepMind Demis Hassabis und andere führende Vertreter der KI-Branche. „Einige Menschen in der KI-Forschung denken, dass die Risiken einer AGI und ihren Nachfolgesystemen reine Fiktion sind. Wir wären entzückt, wenn sie Recht haben sollten“, sagt Altman. „Aber wir werden weiterhin so arbeiten, als wenn diese Risiken existenziell sind.“
In Umfragen beziffern KI-Experten das Risiko für eine Auslöschung der Menschheit durch künstliche Intelligenzen – auch P(doom) genannt – auf Werte zwischen weniger als 0,1 Prozent und mehr als zehn Prozent.
Das „HAL 9000“-Szenario
Doch worin genau besteht die Bedrohung? Wie könnte uns eine superintelligente KI gefährlich werden? Ein Szenario beschrieb der britische Mathematiker und KI-Visionär Irving John Good schon im Jahr 1965: Ein KI-System könnte immer bessere, leistungsfähigere Versionen seiner selbst entwickeln, bis sich das Ganze so verselbstständigt, dass die Maschinenintelligenz die menschlichen Fähigkeiten weit hinter sich lässt – und unkontrollierbar wird.
„Die erste ultraintelligente Maschine wäre dann die letzte Erfindung, die der Mensch jemals machen wird“, so Good. Die möglichen Folgen einer solchen nicht mehr kontrollierbaren Superintelligenz gingen in die Filmgeschichte ein: Good war der Mastermind, der Stanley Kubrick bei seinem Film „2001 – Odyssee im Weltraum“ beriet und der wesentlich zur Ausgestaltung des berühmten Bordcomputers „HAL 9000“ beitrug. Dieses fiktionale KI-System erkennt, dass die Unzulänglichkeiten der menschlichen Besatzung die Raummission gefährden – und beginnt daher prompt damit, die Astronauten zu töten.
Ein aktuelles Analog dazu: Was würde passieren, wenn man einer superintelligenten künstlichen Intelligenz die Aufgabe gäbe, den Klimawandel zu stoppen? Es wäre nicht ausgeschlossen, dass sie ähnlich wie HAL zu dem Schluss kommt, dass der Mensch das Problem ist. Ein anderes, oft zitiertes Szenario ist eine KI, die für die Erfüllung ihres Auftrags – beispielsweise die massenhafte Produktion einer bestimmten Ware oder Technologie – alle verfügbaren Ressourcen aufbraucht. Dann könnte die Menschheit quasi als Kollateralschaden zugrunde gehen.
Killerroboter und KI-gesteuerte Infrastruktur
Doch solche „Doomsday“-Szenarien setzen einiges voraus: Anders als die meisten heutigen generativen KI-Systeme müssten solche künstlichen Intelligenzen Zugriff auf Steuersysteme, Roboter, Waffen und andere physikalische Systeme haben. Noch ist dies bei GPT und Co nicht der Fall. Allerdings gibt es schon jetzt spezialisierte KI-Systeme, die beispielsweise in der Industrie oder Logistik eingesetzt werden und damit durchaus Zugriff auf sensible Infrastruktur haben könnten.
Noch bedrohlicher: Schon jetzt nutzt das Militär Waffensysteme, die von lernfähigen Computeralgorithmen gesteuert werden. Experten schätzten im Jahr 2018, dass weltweit schon gut 380 teilautonome oder vollautonome Waffensysteme existierten oder in Arbeit waren. Mindestens zwölf Staaten sind aktiv an der Entwicklung von Killerdrohnen oder Killerrobotern beteiligt. Bisher agierten diese KI-System zwar primär unterstützend und nicht ohne menschliche Kontrolle – doch das könnte sich in Zukunft ändern.
Das Alignment-Problem
Ein weiterer Faktor: Eine künstliche Intelligenz wird dann zur Gefahr, wenn sie grundlegende moralische und ethische Prinzipien und Grenzen missachtet. Ziel aktueller KI-Forschung ist es daher, den lernfähigen Modellen diese Grundregeln beizubringen und dafür zu sorgen, dass sie diese befolgen. Diese auch als „Alignment“ bezeichneten Kontrollmechanismen gelten als Voraussetzung für eine sichere Weiterentwicklung der KI.
„Wir müssen neue Techniken des Alignments entwickeln, wenn unsere Modelle leistungsfähiger werden“, räumt OpenAI-CEO Sam Altman ein. „Und wir benötigen Tests, um zu verstehen, wo unsere aktuellen Maßnahmen versagen.“ Denn bisher scheitern die KI-Entwickler schon daran, ihren Systemen Vorurteile, diskriminierende Aktionen oder Fehlinformationen auszutreiben. Und mit zunehmender Komplexität der Systeme wird das Alignment nicht einfacher.
Kontrollverlust durch Emergenz?
In diesem Kontext kommt auch die Emergenz wieder zum Tragen: Wenn KI-Systeme sich zunehmend selbstständig weiterentwickeln und neue Fähigkeiten erlangen, schwindet auch der menschliche Einfluss auf diesen Prozess. Wie aber kann man dann sicherstellen, dass eine künstliche Intelligenz nicht einen Nachfolger ihrer selbst kreiert, dem die ursprünglich eingeimpften moralischen Regeln fehlen?
Im schlimmsten Fall bekäme man eine künstliche Superintelligenz, die ohne Rücksicht auf Verluste agiert. Der „Zauberlehrling“ Mensch hätte dann die Kontrolle über sein Werkzeug verloren. „Wenn sich das bestätigt, dann wird die Welt zu einer vollkommen anderen werden als sie es heute ist und das wäre mit außerordentlichen Risiken verknüpft. Eine fehlgeleitete superintelligente AGI könnte der Welt schweren Schaden zufügen“, schreibt Sam Altman in einem Statement.
„Das hoffnungsvollste und angsteinflößendste Projekt der Menschheit“
Allerdings: Längst nicht alle Wissenschaftler halten solche Szenarien für realistisch. Sie plädieren eher dafür, sich auf die aktuellen, sehr realen Risiken durch künstliche Intelligenz zu konzentrieren: den Verlust von Arbeitsplätzen, die Erzeugung von Deep-Fakes und Fake-News und die Frage, wo in Wirtschaft und Gesellschaft KI eingesetzt werden sollte und wo nicht. Andererseits unterstreichen schon diese jetzt und in naher Zukunft anstehenden Fragen, wie groß das disruptive Potenzial dieser Technologie ist.
Klar scheint, dass sich die rasante Entwicklung der künstlichen Intelligenz kaum mehr aufhalten lässt. Die generativen KI-Systeme und neuronalen Netze werden immer leistungsfähiger und komplexer werden. Dies bietet viele Chancen für einen sinnvollen und der Menschheit zugutekommenden Einsatz dieser Technologien. Ob die Menschheit sie jedoch im Griff behalten und kontrollieren kann, wird sich zeigen müssen.
„Der erfolgreiche Übergang in eine Welt mit einer künstlichen Superintelligenz ist das wahrscheinlich wichtigste, hoffnungsvollste und angsteinflößendste Projekt in der Geschichte der Menschheit“, konstatiert Sam Altman. Der Erfolg sei alles andere als garantiert.