Die neuen Erkenntnisse und Überlegungen zum Wesen der Intelligenz und des Bewusstseins blieben nicht ohne Folgen für die Wissenschaft von der künstlichen Intelligenz. Die lange Zeit dominierende Vorstellung, künstliche Intelligenz könne im Prinzip auf eine Abfolge von Algorithmen reduziert werden, begann sich zu wandeln.
Die traditionelle KI hatte ihre Wurzeln vor allem in der Kryptographie des zweiten Weltkriegs, als Mathematiker versuchten, mithilfe erster primitiver Computerprogramme die Geheimcodes des Feindes zu entschlüsseln. Nach Meinung der traditionellen KI-Forscher war es möglich, die menschliche Intelligenz einzufangen, indem man dem Computer einfach gewaltige Listen von Regeln einprogrammierte.
Wo diese Algorithmen berechnet wurden, ob im Gehirn, einem Computer oder einem Stück Schweizer Käse, war, so glaubte man, völlig unerheblich, Hauptsache die Algorithmen selbst stimmten. Bekanntestes und leistungsfähigstes Beispiel für diesen traditionellen Ansatz in der KI-Forschung ist der von IBM entwickelte Schachcomputer „Deep Blue“. Ihm gelang es im Jahr 1997 immerhin, den damaligen Schachweltmeister Gary Kasparov zu besiegen.
Nur Fachidioten
Aber trotz dieser Leistung sind Programme wie Deep Blue nach Ansicht von Hans Moravec und anderen KI-Forschern bestenfalls „Fachidioten“, – eine Sackgasse für die Suche nach einer wirklich intelligenten Maschine. Denn diese Programme brillieren zwar dort, wo der Mensch sich schwertut: in der schnellen Verarbeitung großer Datenmengen oder der Speicherung und Auswertung von Milliarden von Informationshäppchen. Doch in punkto Lernfähigkeit, Flexibilität oder Interaktion mit ihrer Umwelt – wichtigen Bestandteilen der menschlichen Intelligenz – müssen die Superrechner passen.
Ausgehend von dieser Erkenntnis versuchen KI-Forscher mit neuen Ansätzen, ihrem Ziel, den Dingen das Denken beizubringen, näher zu komen. Dabei kristallisieren sich vor allem zwei gegensätzliche Forschungsrichtungen heraus, der „Top-Down“ und der „Bottom-Up“-Ansatz…
Nadja Podbregar
Stand: 20.05.2002