Technik

Sind Roboter „menschlicher“?

Mitleid und Moral bei Mensch und Maschine

Soldaten sind fehlbare, emotionale Wesen: Während eines Kampfes empfinden sie Angst und Panik, vielleicht auch Wut und Hass auf den Feind, der ihre Kameraden oder Angehörigen getötet hat. Aus dieser Gefühllage heraus hat es in vielen Kriegen unnötige Grausamkeiten und Kriegsverbrechen gegeben – angefangen von Vergewaltigungen bis zum Gemetzel unter Zivilisten.

Menschliche Grausamkeit: Ein ermordeter Kriegsgefangener im Koreakrieg. © US Army/ Corporal Robert Dangel

Kein Wut und Angst…

„Die Menschheit hat eine ziemlich düstere Bilanz des ethischen Verhaltens auf dem Schlachtfeld. Ich glaube, dass gerade das Menschsein der schwächste Punkt ist – unsere Biologie arbeitet gegen uns“, sagt der KI-Forscher Ronald Arkin. Roboter und autonome Waffen dagegen haben keine Gefühle – sie töten emotionslos. Genau deshalb könnten solche Waffensysteme nach Ansicht von Arkin und anderen künftige Kriege „menschlicher“ machen.

„Autonome Roboter und Waffen haben keinen Selbsterhaltungstrieb. Deshalb gibt es bei ihnen keinen Grund für einen ‚Erst schießen, dann fragen‘-Ansatz“, sagt Arkin. Stattdessen könne man Roboter so programmieren, dass sie bei unklarer Zielerkennung eher sich selbst opfern als wahllos zu schießen, wie es ein Mensch möglicherweise tun würde. „Autonome Waffen empfinden zudem keine Angst, Frustration oder Wut – und damit Emotionen, die das menschliche Urteilsvermögen vernebeln“, argumentiert der Forscher.

…aber auch kein Mitleid

Andere jedoch sehen gerade in der Emotionslosigkeit der Killerroboter die größte Gefahr. „Die Unfähigkeit eines Roboters, Empathie und Mitleid zu empfinden, limitiert auch sein Vermögen, andere human zu behandeln“, konstatiert die Organisation Human Rights Watch in einem Bericht. Denn nur wer sich in die Gefühle und das Leid anderer hineinversetzen könne, der könne auch menschlich und moralisch handeln.

Kriegsgefangene im Kosovo: Würde ein Roboter Gefangene machen? © U.S. Marine Corps/ SGT Craig J. Shell

„Die meisten Menschen haben schon einmal physische oder psychische Schmerzen erfahren und das bringt sie dazu, auch anderen nicht unnötig Leid zuzufügen“, heißt es in einem Statement des internationalen Roten Kreuzes. „Diese Gefühle überwinden die Nationalität und andere trennende Grenzen.“ Während ein menschlicher Soldat auf dem Schlachtfeld deshalb vielleicht einen Verwundeten schont oder einen Gegner eher gefangen nimmt als ihn zu erschießen, tut dies ein Roboter nicht. Er führt seinen Tötungsauftrag ohne Mitleid oder moralische Skrupel aus.

Moral und Kontext

Hinzu kommt: Gerade für moralische und humanitäre Entscheidungen spielen die Umstände und der Kontext einer Situation eine wichtige Rolle. Ein Beispiel dafür erzählt der ehemalige US-Army Ranger und Autor Paul Scharre in seinem Buch: Als er in Afghanistan im Einsatz war, stießen er und seine Mitsoldaten auf ein kleines Mädchen, das Ziegen hütete. Doch sie konnten hören, dass die Kleine währenddessen in ein Funkgerät sprach – ein klares Indiz dafür, dass sie als Kundschafterin für die nahebei versteckten Taliban agierte.

Nach den Gesetzen des Krieges war das Mädchen ein Gegner, wie Scharre erklärt. Sie hätten sie erschießen müssen, um die Gefahr für sich und ihre Truppe zu verringern. Doch die US-Soldaten verschonten die kleine Kundschafterin: „Meine Mitsoldaten und ich wussten einfach, dass es moralisch falsch wäre, sie zu töten. Wir mussten darüber gar nicht erst diskutieren“, erzählt Scharre. Doch ob ein autonomes Waffensystem im Ernstfall die spezifischen Gegebenheiten erkennt und moralisch entscheidet, sei zweifelhaft.

  1. zurück
  2. |
  3. 1
  4. |
  5. 2
  6. |
  7. 3
  8. |
  9. 4
  10. |
  11. 5
  12. |
  13. 6
  14. |
  15. 7
  16. |
  17. weiter

Nadja Podbregar
Stand: 16.11.2018

Keine Meldungen mehr verpassen – mit unserem wöchentlichen Newsletter.
Teilen:

In den Schlagzeilen

Inhalt des Dossiers

Killerroboter
Autonome Waffensysteme – wenn Computer über Leben und Tod entscheiden

Waffen mit Computerhirn
Wenn Waffensysteme autonom werden

Schnell, selektiv und tödlich
Wie sieht das Schlachtfeld der Zukunft aus?

"Chirurgische" Präzision
Weniger Tote durch autonome Waffen?

Sind Roboter "menschlicher"?
Mitleid und Moral bei Mensch und Maschine

"Wir machen nicht mit"
KI-Forscher gegen Killerroboter

Killerroboter bei der UN
Die Diskussion über ein Verbot autonomer Waffen

Diaschauen zum Thema

News zum Thema

keine News verknüpft

Dossiers zum Thema

Drohnen - Wertvolle Helfer oder fliegende Gefahr?