Außer Kontrolle: Wie realistisch sind Science-Fiction-Szenarien von unkontrollierbaren, die Menschheit schädigenden künstlichen Intelligenzen? Nach Ansicht von Computerwissenschaftlern könnte es tatsächlich unmöglich sein, ein selbstlernendes, superintelligentes KI-System vollständig zu überwachen. Selbst eine Kontrolle durch spezielle Schutz-Algorithmen könnte aus programmiertechnischen Gründen ins Leere laufen.
Die künstliche Intelligenz macht rasante Fortschritte. Dank neuronaler Netzwerke und lernfähiger Algorithmen steuern KI-Systeme bereits autonome Fahrzeuge, diagnostizieren Krankheiten und entschlüsseln die komplexe Struktur von Proteinen. Selbst Fahrradfahren, Pokerspielen und Strategiespiele meistern lernfähige Maschinenhirne heute schon – teils sogar besser als wir Menschen. Gleichzeitig sind ihre Entscheidungen manchmal weniger objektiv als man erwarten würde.

Kommt bald die Super-KI?
Das weckt die Frage, wie weit diese Entwicklung noch gehen wird: Wird es irgendwann eine künstliche Intelligenz (KI) geben, die dem Menschen überlegen ist? Angeschlossen an das Internet hätte eine solche KI Zugriff auf alle Daten der Menschheit, sie könnte alle bestehenden Programme ersetzen und alle ans Internet angeschlossenen Maschinen kontrollieren. Würde ein solches KI-System Krebs heilen, den Weltfrieden herbeiführen und die Klimakatastrophe verhindern? Oder würde sie die Menschheit vernichten und die Erde übernehmen?
„Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science-Fiction“, sagt Koautor Manuel Cebrian vom Max-Planck-Institut für Bildungsforschung. „Doch schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbständig erledigen, ohne dass diejenigen, die sie programmiert haben, komplett verstehen, wie sie das gelernt haben. Daher stellt sich für uns die Frage, ob das für die Menschheit irgendwann unkontrollierbar und gefährlich werden könnte.“