Soldaten sind fehlbare, emotionale Wesen: Während eines Kampfes empfinden sie Angst und Panik, vielleicht auch Wut und Hass auf den Feind, der ihre Kameraden oder Angehörigen getötet hat. Aus dieser Gefühllage heraus hat es in vielen Kriegen unnötige Grausamkeiten und Kriegsverbrechen gegeben – angefangen von Vergewaltigungen bis zum Gemetzel unter Zivilisten.
Kein Wut und Angst…
„Die Menschheit hat eine ziemlich düstere Bilanz des ethischen Verhaltens auf dem Schlachtfeld. Ich glaube, dass gerade das Menschsein der schwächste Punkt ist – unsere Biologie arbeitet gegen uns“, sagt der KI-Forscher Ronald Arkin. Roboter und autonome Waffen dagegen haben keine Gefühle – sie töten emotionslos. Genau deshalb könnten solche Waffensysteme nach Ansicht von Arkin und anderen künftige Kriege „menschlicher“ machen.
„Autonome Roboter und Waffen haben keinen Selbsterhaltungstrieb. Deshalb gibt es bei ihnen keinen Grund für einen ‚Erst schießen, dann fragen‘-Ansatz“, sagt Arkin. Stattdessen könne man Roboter so programmieren, dass sie bei unklarer Zielerkennung eher sich selbst opfern als wahllos zu schießen, wie es ein Mensch möglicherweise tun würde. „Autonome Waffen empfinden zudem keine Angst, Frustration oder Wut – und damit Emotionen, die das menschliche Urteilsvermögen vernebeln“, argumentiert der Forscher.
…aber auch kein Mitleid
Andere jedoch sehen gerade in der Emotionslosigkeit der Killerroboter die größte Gefahr. „Die Unfähigkeit eines Roboters, Empathie und Mitleid zu empfinden, limitiert auch sein Vermögen, andere human zu behandeln“, konstatiert die Organisation Human Rights Watch in einem Bericht. Denn nur wer sich in die Gefühle und das Leid anderer hineinversetzen könne, der könne auch menschlich und moralisch handeln.
„Die meisten Menschen haben schon einmal physische oder psychische Schmerzen erfahren und das bringt sie dazu, auch anderen nicht unnötig Leid zuzufügen“, heißt es in einem Statement des internationalen Roten Kreuzes. „Diese Gefühle überwinden die Nationalität und andere trennende Grenzen.“ Während ein menschlicher Soldat auf dem Schlachtfeld deshalb vielleicht einen Verwundeten schont oder einen Gegner eher gefangen nimmt als ihn zu erschießen, tut dies ein Roboter nicht. Er führt seinen Tötungsauftrag ohne Mitleid oder moralische Skrupel aus.
Moral und Kontext
Hinzu kommt: Gerade für moralische und humanitäre Entscheidungen spielen die Umstände und der Kontext einer Situation eine wichtige Rolle. Ein Beispiel dafür erzählt der ehemalige US-Army Ranger und Autor Paul Scharre in seinem Buch: Als er in Afghanistan im Einsatz war, stießen er und seine Mitsoldaten auf ein kleines Mädchen, das Ziegen hütete. Doch sie konnten hören, dass die Kleine währenddessen in ein Funkgerät sprach – ein klares Indiz dafür, dass sie als Kundschafterin für die nahebei versteckten Taliban agierte.
Nach den Gesetzen des Krieges war das Mädchen ein Gegner, wie Scharre erklärt. Sie hätten sie erschießen müssen, um die Gefahr für sich und ihre Truppe zu verringern. Doch die US-Soldaten verschonten die kleine Kundschafterin: „Meine Mitsoldaten und ich wussten einfach, dass es moralisch falsch wäre, sie zu töten. Wir mussten darüber gar nicht erst diskutieren“, erzählt Scharre. Doch ob ein autonomes Waffensystem im Ernstfall die spezifischen Gegebenheiten erkennt und moralisch entscheidet, sei zweifelhaft.
Nadja Podbregar
Stand: 16.11.2018