Soldaten sind fehlbare, emotionale Wesen: Während eines Kampfes empfinden sie Angst und Panik, vielleicht auch Wut und Hass auf den Feind, der ihre Kameraden oder Angehörigen getötet hat. Aus dieser Gefühllage heraus hat es in vielen Kriegen unnötige Grausamkeiten und Kriegsverbrechen gegeben – angefangen von Vergewaltigungen bis zum Gemetzel unter Zivilisten.

Kein Wut und Angst…
„Die Menschheit hat eine ziemlich düstere Bilanz des ethischen Verhaltens auf dem Schlachtfeld. Ich glaube, dass gerade das Menschsein der schwächste Punkt ist – unsere Biologie arbeitet gegen uns“, sagt der KI-Forscher Ronald Arkin. Roboter und autonome Waffen dagegen haben keine Gefühle – sie töten emotionslos. Genau deshalb könnten solche Waffensysteme nach Ansicht von Arkin und anderen künftige Kriege „menschlicher“ machen.
„Autonome Roboter und Waffen haben keinen Selbsterhaltungstrieb. Deshalb gibt es bei ihnen keinen Grund für einen ‚Erst schießen, dann fragen‘-Ansatz“, sagt Arkin. Stattdessen könne man Roboter so programmieren, dass sie bei unklarer Zielerkennung eher sich selbst opfern als wahllos zu schießen, wie es ein Mensch möglicherweise tun würde. „Autonome Waffen empfinden zudem keine Angst, Frustration oder Wut – und damit Emotionen, die das menschliche Urteilsvermögen vernebeln“, argumentiert der Forscher.
…aber auch kein Mitleid
Andere jedoch sehen gerade in der Emotionslosigkeit der Killerroboter die größte Gefahr. „Die Unfähigkeit eines Roboters, Empathie und Mitleid zu empfinden, limitiert auch sein Vermögen, andere human zu behandeln“, konstatiert die Organisation Human Rights Watch in einem Bericht. Denn nur wer sich in die Gefühle und das Leid anderer hineinversetzen könne, der könne auch menschlich und moralisch handeln.