Informatik

Wäre eine digitale Superintelligenz kontrollierbar?

Künftige selbstlernende KI-Systeme könnten programmiertechnisch unbeherrschbar sein

KI
Könnte die Menschheit eine superintelligente KI kontrollieren? © Andrea Danti/ iStock.com

Außer Kontrolle: Wie realistisch sind Science-Fiction-Szenarien von unkontrollierbaren, die Menschheit schädigenden künstlichen Intelligenzen? Nach Ansicht von Computerwissenschaftlern könnte es tatsächlich unmöglich sein, ein selbstlernendes, superintelligentes KI-System vollständig zu überwachen. Selbst eine Kontrolle durch spezielle Schutz-Algorithmen könnte aus programmiertechnischen Gründen ins Leere laufen.

Die künstliche Intelligenz macht rasante Fortschritte. Dank neuronaler Netzwerke und lernfähiger Algorithmen steuern KI-Systeme bereits autonome Fahrzeuge, diagnostizieren Krankheiten und entschlüsseln die komplexe Struktur von Proteinen. Selbst Fahrradfahren, Pokerspielen und Strategiespiele meistern lernfähige Maschinenhirne heute schon – teils sogar besser als wir Menschen. Gleichzeitig sind ihre Entscheidungen manchmal weniger objektiv als man erwarten würde.

Super-KI
Eine Super-KI mit der Rettung der Welt zu beauftragen, könnte unbeabsichtigte Folgen nach sich ziehen. © Iyad Rahwan

Kommt bald die Super-KI?

Das weckt die Frage, wie weit diese Entwicklung noch gehen wird: Wird es irgendwann eine künstliche Intelligenz (KI) geben, die dem Menschen überlegen ist? Angeschlossen an das Internet hätte eine solche KI Zugriff auf alle Daten der Menschheit, sie könnte alle bestehenden Programme ersetzen und alle ans Internet angeschlossenen Maschinen kontrollieren. Würde ein solches KI-System Krebs heilen, den Weltfrieden herbeiführen und die Klimakatastrophe verhindern? Oder würde sie die Menschheit vernichten und die Erde übernehmen?

„Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science-Fiction“, sagt Koautor Manuel Cebrian vom Max-Planck-Institut für Bildungsforschung. „Doch schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbständig erledigen, ohne dass diejenigen, die sie programmiert haben, komplett verstehen, wie sie das gelernt haben. Daher stellt sich für uns die Frage, ob das für die Menschheit irgendwann unkontrollierbar und gefährlich werden könnte.“

Debattiert wird dies schon jetzt im Zusammenhang mit autonomen Waffen, die allein wegen ihres Entscheidungstempos Menschen töten oder einen Krieg beginnen könnten, bevor Menschen fähig wären einzugreifen.

Einsperren oder durch Regeln kontrollieren?

Ob und wie eine Super-KI kontrollierbar wäre, haben Cebrian, Erstautor Manuel Alfonseca von der Autonomen Universität Madrid und ihre Kollegen theoretisch durchgespielt. Demnach gibt es zwei grundsätzliche Ansätze zur Kontrolle einer digitalen Superintelligenz: Zum einen könnte man ihre Ressourcen gezielt einschränken, indem man sie beispielsweise vom Internet und anderen Geräten abschottet, so dass sie keinen Kontakt zur Außenwelt hat. Doch dadurch wären auch die Fähigkeiten der superintelligente KI deutlich geringer. Die großen Menschheitsprobleme würde sie so nicht lösen.

Die andere Option wäre, die KI von vornherein zu motivieren, nur Ziele zu verfolgen, die im Interesse der Menschheit liegen, zum Beispiel indem man ihr ethische Regeln einprogrammiert. Bekannte Beispiele für solche Regeln sind die drei Robotergesetze von Isaac Asimov. Sie besagen in Kurzform, dass ein Roboter keine Menschen verletzen darf, dass er Menschen gehorchen soll, außer wenn der Befehl gegen Regel 1 verstößt. Und der Roboter soll sich selbst schützen, außer es widerspricht den Regeln 1 und 2.

Das Problem jedoch: Für einfache Algorithmen sind solche Regeln geeignet, nicht aber für eine selbstlernende, superintelligente KI. „Denn eine solche Superintelligenz kann verschiedenste Ressourcen mobilisieren, um Ziele zu erreichen, die für Menschen potenziell unbegreifbar und erst recht nicht kontrollierbar sind“, erklären die Forscher.

Kontroll-Algorithmus stoppt sich selbst

Wo die Probleme praktisch liegen, illustrieren Alfonseca und sein Team in einem Beispiel: Sie konzipieren einen theoretischen Algorithmus, der sicherstellen soll, dass eine superintelligente KI unter keinen Umständen der Menschheit schadet. Dafür muss dieser Algorithmus zunächst das Verhalten der KI nachvollziehen und quasi in einem Trockendurchlauf herausfinden, ob ihre Aktionen schädlich wären. Ist das der Fall, folgt eine zweite Subroutine, die die KI stoppt.

In der Praxis stößt dieses Prinzip jedoch an seine Grenzen: „Bricht man das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, versehentlich seine eigenen Prozesse zum Stillstand bringen könnte“, erklärt Cebrians Kollege Iyad Rahwan. „Das macht diesen Algorithmus praktisch unbrauchbar.“

„Grundlegende mathematische Beschränkungen“

Auf Basis ihrer Berechnungen kommen die Wissenschaftler zu dem Schluss, dass es nicht möglich ist, einen Algorithmus zu programmieren, der erkennt, ob eine KI der Welt Schaden zufügen würde oder nicht – und trotzdem funktioniert. „Es gibt grundlegende mathematische Beschränkungen darin, ein KI-System zu nutzen, um ein zweites auf einem Null-Risiko-Kurs zu halten“, erklären sie.

Hinzu kommt, dass wir wahrscheinlich nicht einmal erkennen würden, ob eine Maschine superintelligent ist. Denn ob die Intelligenz einer solchen KI dem Menschen überlegen ist, lässt sich nach aktuellen Erkenntnissen ebenfalls nicht berechnen. (Journal of Artificial Intelligence Research, 2021; doi: 10.1613/jair.1.12202)

Quelle: Max-Planck-Institut für Bildungsforschung, Berlin

Keine Meldungen mehr verpassen – mit unserem wöchentlichen Newsletter.
Teilen:

In den Schlagzeilen

News des Tages

Diaschauen zum Thema

Dossiers zum Thema

Killerroboter - Autonome Waffensysteme – wenn Computer über Leben und Tod entscheiden

Alan Turing - Genialer Computerpionier und tragischer Held

Bücher zum Thema

keine Buchtipps verknüpft

Top-Clicks der Woche