Der Wunsch nach einer technischen „Ausbesserung“ des Menschen ist nicht neu – und keineswegs auf rein medizinische Anwendungen beschränkt. Im Gegenteil: Immer stand auch der Wunsch dahinter, den Menschen zu optimieren, die engen Grenzen der natürlichen Fähigkeiten zu überwinden.

Schon der Forscher, der 1960 erstmals den Begriff „Cyborg“ prägte, hatte Höheres im Sinn: Manfred Clynes, ein Wissenschaftler der amerikanischen Weltraumbehörde NASA, suchte damals nach einer Möglichkeit, den menschlichen Körper für den Weltraumflug zu optimieren, ihn an die Bedingungen des Alls anzupassen. Eine fest mit dem Körper des Astronauten verbundene „osmotische Druckpumpe“ sollte den menschlichen Organismus gezielt mit den jeweils benötigten Stoffen versorgen. Für Clynes lag der Sinn und Zweck eines solchen Cyborgs vor allem darin, „dem Menschen die Freiheit zu geben, zu forschen, zu schaffen, zu denken und zu fühlen.“
„Lasst uns Supermenschen schaffen…“
Für Kevin Warwick, den selbsternannten „Cyborg 1.0“, ist eine solche Erweiterung der Fähigkeiten eine ganz normale Phase der menschlichen Evolution: „Den Menschen durch Chipimplantate direkt mit superintelligenten Maschinen zu verbinden erscheint mir als eine natürliche Fortentwicklung, als einen Weg, die Maschinenintelligenz zu kontrollieren, um Supermenschen zu schaffen.“ Ähnlich, wenn auch nicht ganz so explizit sehen es auch andere KI-Forscher wie Ray Kurzweil oder Hans Moravec.
So abgehoben diese Ideen eines technologisch optimierten Supermenschen scheinen, die Wissenschaftler meinen es ernst. Auch an den renommiertesten Hochburgen der KI-Forschung, wie dem Media Lab des MIT in Boston, arbeiten Wissenschaftler inzwischen mit Feuereifer an einer „Cyborgisierung“ des Menschen. Vorreiter und freiwillige Versuchskaninchen zugleich sind hierbei Thad Starner und Steve Mann, zwei Studenten des MIT, die seit 1992 einen Großteil ihrer Zeit in einer Cyborg-ähnlichen Existenz verbringen.