Maschine imitiert Mensch: Ein Chatbot soll angeblich erstmals den Turing-Test bestanden haben. Er hat Menschen erfolgreich vorgegaukelt, dass sie mit einem von ihresgleichen kommunizieren. Immerhin 33 Prozent der Tester hielten das Chat-Programm Eugene Goostman für einen 13-Jährigen Jungen. Allerdings: Namhafte KI-Experten halten das ganze ehr für einen Publicity-Stunt, denn es gebe bereits Rechner, die weitaus besser abgeschnitten hätten.
Der Turingtest geht zurück auf eine 1950 von dem Mathematiker und Computerpionier Alan Turing veröffentlichte Idee. Er schlug vor, die Intelligenz einer Maschine in einer Art Imitationsspiel auf die Probe zu stellen. Wenn ein Mensch in einem Dialog mit einem für ihn unsichtbaren Partner nicht unterscheiden könne, ob sich ein Mensch oder ein Computerprogramm am anderen Ende befindet, dann sei das Programm als intelligent zu werten.
Meilenstein der KI-Forschung
„Auf dem Gebiet der künstlichen Intelligenz gibt es keinen Meilenstein, der kontroverser und ikonischer ist als der Turingtest“, sagt KI-Experte Kevin Warwick von der University of Reading. Computer, die quasi menschliche Dialoge führen können, gibt es schon länger. Immer allerdings kamen sie bisher an einen Punkt, an dem sie sich durch „computeresische“ Ausrutscher verrieten, indem sie simple Fragen falsch verstanden. Denn nur wenn die Bedeutung einer Phrase klar ist, kann auch eine sinnvolle – menschliche – Reaktion darauf erfolgen.
„Ein echter Turingtest gibt weder die Fragen noch die Themen der Gespräche vor“, sagt Warwick. Seinen Angaben nach müssen für das Bestehen des Turingtests mindestens 30 Prozent der Gesprächspartner des Rechners überzeugt sein, mit einem Menschen zu kommunizieren. Dies ist allerdings genauso strittig wie die Frage, ob andere Chatprogramme diesen Test bereits bestanden haben.