Gezielte Schüsse statt Bombenregen, kalte Präzision statt wahllosem Gemetzel: Nach Ansicht vieler Militärs und auch einiger KI-Forscher sollen computergesteuerte Waffensysteme und Roboter den Krieg „schonender“ machen – so paradox dies klingt. Denn ihrer Argumentation nach würden durch solche Technologien weniger Menschen sterben als im „konventionellen“ Krieg. Kritiker jedoch befürchten genau den gegenteiligen Effekt.

Besserer Durchblick im Schlachtgetümmel?
Einen Vorteil sehen die Befürworter der KI-Waffen in deren überlegenen Sensor- und Erkennungssystemen. „Diese Systeme bekommen mehr Informationen und können damit bessere Entscheidungen fällen als ein Mensch in dieser Situation“, sagt KI-Forscher Ronald Arkin vom Georgia Institute of Technologie. „Einige Roboter sind schon heute stärker, schneller und schlauer als der Mensch – und wir wollen, dass sie besser sind, um letztlich mehr Menschenleben zu retten.“
Statt beispielsweise blindlings in den Nebel oder auf eine in der Dunkelheit auftauchende Gestalt zu feuern, könnten Roboter dank Radar- oder Infrarotsensoren besser unterscheiden, ob eine reale Gefahr vorliegt oder nicht. Sie sollen zudem besser unterscheiden können, ob sie einen Zivilisten oder feindlichen Soldaten, einen Schulbus oder Truppentransport vor sich haben – so jedenfalls die Theorie.
Waffe statt Schildkröte
Die Praxis sieht allerdings anders aus: Im Jahr 2003 interpretierte das teilautonome Patriot-Abwehrsystem der US-Streitkräfte im Irak ein Flugzeug der Briten irrtümlich als feindlich und schoss es ab, wenig später geschah das Gleiche mit einem US-Kampfflugzeug. Und auch aktuelle KI-Systeme haben erhebliche Schwierigkeiten, selbst vermeintlich eindeutige Zielobjekte zu erkennen, wie unter anderem ein Experiment am Massachusetts Institute of Technology (MIT) im Jahr 2017 bewies.