Roboter lernen sehen – und müssen dies auch. Denn sobald der Kontakt mit seinem Einsatzleiter abreißt, ist der Roboter auf sich allein gestellt. Er scannt den Raum, „sieht“ Wände, Hindernisse und Wege – und wählt unabhängig den Weg, der den größten Erfolg verspricht.
Maschinen, die wie ferngesteuerte Spielzeugwagen von ihren Betreuern per Funk gelenkt werden, sollen bald endgültig der Vergangenheit angehören. Heute konzentriert sich die Forschung auf die Entwicklung autonomer Roboter, die ohne eine direkte Steuerung des Menschen funktionieren. Denn gerade Rettungs-Roboter sollen genau dort ihre Aufgabe erfüllen, wo keine menschlichen Helfer mehr hinkommen: enge Schächte, brennende Häuser oder eingestürzte Stockwerke.
Laseraugen für die Orientierung
Damit die Roboter in dem unübersichtlichen Gelände ihren Weg finden, sehen sie je nach Arbeits-Umgebung und Funktion mit unterschiedlichen „Augen“. Zur Grundausstattung gehört dabei die gewöhnliche Video-Linse, die den Raum visuell aufzeichnet. Das System überträgt das Bild per Funk an die Rettungsleiter, die so per Bildschirm die Umgebung des Roboters beobachten können. Damit der Roboter jedoch selbst aus dem Videobild Informationen über den Raum ziehen kann, ist eine umfangreiche Bildauswertung notwendig, die dann etwa per Farbanalyse bunte Kleidungsstücke von grauen Trümmern unterscheidet.
Die wichtigsten Orientierungs-Sensoren für Roboter sind jedoch die aus Hollywood-Filmen berühmten roten Laseraugen. Der „Laser Range-Finder“ sendet einen Lichtimpuls, der von Objekten reflektiert, und auf dem Rückweg vom Sensor wieder aufgefangen wird. Die Zeit zwischen Senden und Empfangen verrät dem System den Abstand vom Objekt. Zusätzlich aber zeigt der „Doppler-Effekt“, eine Verschiebung in der Strahlungsfrequenz, auch in welche Richtung sich das Objekt mit welcher Geschwindigkeit bewegt.
Kartierung im Untergrund
Das Robotik Team der amerikanischen Carnegie Mellon Universität hat beispielsweise mit Lasertechnik eine stillgelegte Mine in Burgesttown komplett kartiert. Während sich ihr Roboter-Fahrzeug „Groundhog“ durch den roten Schlamm kämpft, scannt sein vertikaler 2D-Laser den Tunnel und erstellt zunächst eine einfache zwei-dimensionale Karte. Kurz darauf jagt der Laser zusätzlich über die Horizontale, und fügt die Werte der Karte hinzu. Dadurch bekommt der Minengang auf der Karte dann eine Decke, einen Boden und zwei Wände. Mithilfe geometrischer Berechnungen erzeugt der Roboter damit eine dreidimensionale Darstellung der Mine. Doch diese Technik funktioniert nur in komplett geschlossenen und ebenen Räumen. Eine Navigation für Roboter auf freier Fläche oder einem extrem zerklüfteten Katastrophengelände mit dieser Methode ist dagegen sehr schwierig.
Die Navigation in geschlossenen Räumen ist auch für den kleinen Roboter „KURT“ der Fraunhofer Gesellschaft das Spezialgebiet. Er bewegt sich mit einem 3D-Laser Range-Finder so sicher durch das ungleichmäßige Hindernisfeld des Rescue Robot League 2004, dass er den zweiten Platz machte. Sein zweidimensionaler Laser rotiert horizontal und lotet die Umgebung in mehreren Durchläufen aus. Eine Fläche von 180 Grad Höhe mal 120 Grad Breite scannt er in bis zu zwei Sekunden. Um eine lückenlose räumliche Darstellung zu errechnen, werden die 3-D Aufnahmen in ein Koordinatensystem eingefügt, wodurch der Roboter seine genaue Position errechnet. Diese bislang wohl genaueste Bestimmungsmethode für Roboter bildet damit nicht nur den unwegsamen Untergrund ab, sondern auch Überhänge, Nischen und Durchbrüche.
Autorennen für autonome Roboter
Zu einem Wettbewerb der besonderen Art ist die „Grand Challenge“ heran gewachsen. In dem fast 250 Kilometer langen Autorennen durch die amerikanische Wüste müssen Roboter selbst die Strecke finden und ihre Jeeps um natürliche und künstliche Hindernisse herumsteuern. Für das weite, offene Gelände kombinieren die Techniker mehrere Sensoren für eine bessere Orientierung der automatischen Steuerung. Das Team der Carnegie Mellon Universität installierte dazu auf seinem Fahrzeug ein Langstrecken-Radar mit 125 Metern Reichweite, ein Kurzstrecken-Radar bis 75 Meter, ein Lasersystem für den Bereich bis 50 Metern und ein Laser für den Nahbereich bis 25 Metern. Ergänzend wurde der jeweilige Standpunkt des Jeeps mit dem Globalen Positionierungs-System (GPS) bestimmt. Die weit reichenden Radare ermöglichten ein frühzeitiges Erkennen von Hindernissen, wodurch das Fahrzeug selbst bei hoher Geschwindigkeit rechtzeitig ausweichen konnte. Mit den Informationen der Laser brauchte der Roboter nur noch die genaue Bewegung im Nahbereich anzupassen.
In der Hochburg für deutsche Roboterforschung an der Universität Bremen arbeiten die Wissenschaftler bereits an der Navigation in Extremgebieten. Auch die bisherigen Methoden für 3D-Modelle gehen zunächst von einer zweidimensionalen Karte aus, weshalb die Roboter sich nur auf einer zumindest nahezu ebenen Fläche orientieren können. Die Arbeitsgruppe um Bernd Krieg-Brückner und Udo Frese dagegen forscht an einem „Simultaneous localization and mapping“ (SLAM) Programm, dass Robotern schon beim ersten Schritt die Positionierung in einem dreidimensionalen Raum ermöglichen soll. Damit wäre nicht nur die Navigation in völlig unebenen Trümmerhaufen möglich, sondern auch in dem Auf und Ab von Planetenoberflächen wie auf dem Mars.
Das Programm muss sich inzwischen direkt bei ihrem Bremer Kollegen Frank Kirchner unter Beweis stellen. Denn sein Roboter „Scorpion“ führt die weltweite Konkurrenz unter den mehrbeinigen Laufmodellen an. Durch acht Beine kann sich der Roboter nicht nur auf ebenen Flächen, wie seine Rad-betriebenen Kollegen, sondern auch auf groben und abschüssigem Geröll gut bewegen. Damit er sich dort aber nicht verirrt, suchen die Wissenschaftler nach einer Kombination von SLAM, GPS und anderen Sendern, um eine zentimeter-genaue Navigation im dreidimensionalen Raum zu ermöglichen.
Stand: 10.03.2006