Der Wunsch nach einer technischen „Ausbesserung“ des Menschen ist nicht neu – und keineswegs auf rein medizinische Anwendungen beschränkt. Im Gegenteil: Immer stand auch der Wunsch dahinter, den Menschen zu optimieren, die engen Grenzen der natürlichen Fähigkeiten zu überwinden.
Schon der Forscher, der 1960 erstmals den Begriff „Cyborg“ prägte, hatte Höheres im Sinn: Manfred Clynes, ein Wissenschaftler der amerikanischen Weltraumbehörde NASA, suchte damals nach einer Möglichkeit, den menschlichen Körper für den Weltraumflug zu optimieren, ihn an die Bedingungen des Alls anzupassen. Eine fest mit dem Körper des Astronauten verbundene „osmotische Druckpumpe“ sollte den menschlichen Organismus gezielt mit den jeweils benötigten Stoffen versorgen. Für Clynes lag der Sinn und Zweck eines solchen Cyborgs vor allem darin, „dem Menschen die Freiheit zu geben, zu forschen, zu schaffen, zu denken und zu fühlen.“
„Lasst uns Supermenschen schaffen…“
Für Kevin Warwick, den selbsternannten „Cyborg 1.0“, ist eine solche Erweiterung der Fähigkeiten eine ganz normale Phase der menschlichen Evolution: „Den Menschen durch Chipimplantate direkt mit superintelligenten Maschinen zu verbinden erscheint mir als eine natürliche Fortentwicklung, als einen Weg, die Maschinenintelligenz zu kontrollieren, um Supermenschen zu schaffen.“ Ähnlich, wenn auch nicht ganz so explizit sehen es auch andere KI-Forscher wie Ray Kurzweil oder Hans Moravec.
So abgehoben diese Ideen eines technologisch optimierten Supermenschen scheinen, die Wissenschaftler meinen es ernst. Auch an den renommiertesten Hochburgen der KI-Forschung, wie dem Media Lab des MIT in Boston, arbeiten Wissenschaftler inzwischen mit Feuereifer an einer „Cyborgisierung“ des Menschen. Vorreiter und freiwillige Versuchskaninchen zugleich sind hierbei Thad Starner und Steve Mann, zwei Studenten des MIT, die seit 1992 einen Großteil ihrer Zeit in einer Cyborg-ähnlichen Existenz verbringen.
Invasion der Cyborgs am MIT
Steve Mann als CyborgIhre Kleidung ist voll verkabelt, Sensoren überwachen fast jede Funktion ihres Körpers und ihre Augen sind hinter verspiegelten Brillen mit integriertem Display verborgen. Auf ihm sehen sie, was die an ihrem Kopf montierten Kameras aufnehmen, auf Wunsch aus allen Richtungen gleichzeitig oder digital aufbereitet. Stockfinstere Nacht oder dichter Nebel sind für die beiden „MIT-Cyborgs“ kein Hindernis: sie schalten einfach Infrarotsicht hinzu oder hellen das Bild künstlich auf. Die Studenten kontrollieren mithilfe der Software ihre Wahrnehmung der Realität, die meisten dem Sinnesorgan Auge gesetzten Grenzen haben sie längst überwunden.
Über eine Antenne sind die Studenten zudem drahtlos und permanent mit Internet und MIT-internem Netzwerk verbunden, Informationen aus diesen Netzen können sie nach Belieben auf ihr Brillendisplay projizieren. Umgekehrt dient das Netz auch als erweitertes Gedächtnis, in das die Studenten eigene Erfahrungen und Sinneseindrücke abspeichern. Treffen sie jemanden, hilft ihnen ihr digitales Gedächtnis auf die Sprünge, nennt beispielsweise den Namen des Gegenübers, wann sie ihn zuletzt gesprochen haben und worüber gesprochen wurde.
Der MIT-Langzeitversuch hat gezeigt, das auch heutige Technologie bereits die menschlichen Fähigkeiten deutlich erweitern kann. Er hat aber gleichzeitig auch das Vorurteil widerlegt, das menschliche Nervensystem könne nur maximal einige Stunden solchen „Cyborg“-Bedingungen standhalten, ohne Überlastungssymptome zu zeigen. Thad, Steve und die anderen „Cyborg-Studenten“ haben ihre Systeme über Jahre hinweg tagtäglich getragen – ohne die geringsten negativen Folgen. Im Gegenteil: Nach einiger Zeit hatten sie sich so an ihre erweiterten Fähigkeiten gewöhnt, das sie sich ohne diese unvollständig fühlten.
Was bringt die Zukunft?
Zumindest die Erweiterung ihrer Wahrnehmung und Fähigkeiten haben die „MIT-Cyborgs“, deren Technologie ja noch auf der Haut und nicht im Körper selbst sitzt, vermutlich mit wirklichen Mensch-Maschinen-Zwittern gemeinsam. Doch ob es echte Cyborgs, entstanden aus einer Verschmelzung von Mensch und Maschine, von Neuronen und Siliziumchips in absehbarer Zeit geben wird, ist fraglich.
Rolf Pfeifer, Leiter des Labors für künstliche Intelligenz am Institut für Informatik der Universität Zürich, ist skeptisch: „Das Hirn ist nicht nur ein Schaltkreis, es ist auch eine Chemiefabrik. Wenn ich Neurochips mache, müssten sie auch sensitiv für diese chemischen Agenten sein, und ebenfalls solche Stoffe produzieren können.“ Ob nichtorganisches Material diese komplexen Funktionen nachbilden kann, bezweifelt der Schweizer KI-Forscher.
Für den amerikanischen Robotikexperten Rodney Brooks dagegen ist die Tendenz, Technologien immer stärker ins Gehirn zu integrieren, unübersehbar. Neuron-Silizium-Verbindungen sind schon heute in der Experimentierphase. Und obwohl niemand die konkreten Szenarios vorhersehen kann, hält der Forscher es durchaus für wahrscheinlich, dass Videostreaming und Internet per Direktanschluss ins Gehirn in nicht allzuferner Zukunft Realität werden könnten…
Nadja Podbregar
Stand: 20.05.2002