Gezielte Schüsse statt Bombenregen, kalte Präzision statt wahllosem Gemetzel: Nach Ansicht vieler Militärs und auch einiger KI-Forscher sollen computergesteuerte Waffensysteme und Roboter den Krieg „schonender“ machen – so paradox dies klingt. Denn ihrer Argumentation nach würden durch solche Technologien weniger Menschen sterben als im „konventionellen“ Krieg. Kritiker jedoch befürchten genau den gegenteiligen Effekt.
Besserer Durchblick im Schlachtgetümmel?
Einen Vorteil sehen die Befürworter der KI-Waffen in deren überlegenen Sensor- und Erkennungssystemen. „Diese Systeme bekommen mehr Informationen und können damit bessere Entscheidungen fällen als ein Mensch in dieser Situation“, sagt KI-Forscher Ronald Arkin vom Georgia Institute of Technologie. „Einige Roboter sind schon heute stärker, schneller und schlauer als der Mensch – und wir wollen, dass sie besser sind, um letztlich mehr Menschenleben zu retten.“
Statt beispielsweise blindlings in den Nebel oder auf eine in der Dunkelheit auftauchende Gestalt zu feuern, könnten Roboter dank Radar- oder Infrarotsensoren besser unterscheiden, ob eine reale Gefahr vorliegt oder nicht. Sie sollen zudem besser unterscheiden können, ob sie einen Zivilisten oder feindlichen Soldaten, einen Schulbus oder Truppentransport vor sich haben – so jedenfalls die Theorie.
Waffe statt Schildkröte
Die Praxis sieht allerdings anders aus: Im Jahr 2003 interpretierte das teilautonome Patriot-Abwehrsystem der US-Streitkräfte im Irak ein Flugzeug der Briten irrtümlich als feindlich und schoss es ab, wenig später geschah das Gleiche mit einem US-Kampfflugzeug. Und auch aktuelle KI-Systeme haben erhebliche Schwierigkeiten, selbst vermeintlich eindeutige Zielobjekte zu erkennen, wie unter anderem ein Experiment am Massachusetts Institute of Technology (MIT) im Jahr 2017 bewies.
Die Forscher hatten mittels 3D-Druck eine Schildkrötenskulptur hergestellt, die von einem KI-basierten Erkennungssystem prompt als Waffe interpretiert wurde. Einen gemusterten Baseball wertete die KI als Espresso. „Und es gibt noch viele weitere Tests, die zeigen, wie solche Systeme leicht ausgetrickst oder in die Irre geführt werden können“, kommentiert der britische KI-Forscher Noel Sharkey.
Vom unvorhersehbaren überfordert
Ein weiteres Problem: „Statt abgewogene Entscheidungen zu treffen, handeln solche Waffensysteme auf Basis einprogrammierter Algorithmen – diese aber funktionieren in komplexen und unvorhersehbaren Situationen nicht sonderlich gut“, heißt es in einem Bericht der Organisation „Human Rights Watch“ zu autonomen Waffen. Wie beispielsweise reagiert ein autonomes Geschütz an einer Grenze, wenn plötzlich eine ganze Gruppe von Menschen auf den „Todesstreifen“ zuläuft? Wie zuverlässig erkennt es deren Absichten? Kann es dann auf die Schnelle Flüchtlinge von angreifenden Soldaten unterscheiden?
Mit genau diesen Fragen war das südkoreanische Militär konfrontiert, als es den weltweiten ersten vollautomatischen Grenzwachposten testete – den stationären Kampfroboter Samsung SGR-A1. Dessen integrierte Software sollte mittels Kameras und Infrarotsensoren erkennen, wenn feindliche Soldaten sich der Grenze nähern – und diese von Zivilisten, Tieren und leblosen Objekten unterscheiden können. Nach akustischen Warnungen eröffnet der Roboter mit seinem integrierten Maschinengewehr selbstständig das Feuer.
Doch Testeinsätze dieses Roboter-Postens im Irakkrieg und bei Pilotversuchen in Korea enthüllten sehr schnell, dass der autonome Wachposten in vielen Situationen schlicht überfordert war: Die Fehlerquote soll deutlich höher gelegen haben als bei menschlichen Wachposten. Obwohl möglicherweise einige dieser Roboter-Wachposten zunächst an der innerkoreanischen Grenze installiert worden sind, wurden sie bisher nicht flächendeckend eingesetzt.
Nadja Podbregar
Stand: 16.11.2018