Eine Frage der Moral: Wen sollen autonome Autos im Falle eines unausweichlichen Unfalls opfern? Diese schwierige ethische Frage haben Forscher nun in einer weltweiten Umfrage gestellt – der bisher größten Erhebung zu diesem Moral-Dilemma. Die Ergebnisse zeigen, dass es einige universale Tendenzen gibt: zum Beispiel die bevorzugte Rettung von Gruppen gegenüber Einzelpersonen. Doch es zeichnen sich auch deutliche kulturelle Unterschiede ab, wie die Wissenschaftler im Fachmagazin „Nature“ berichten.
Autonome Fahrzeuge sollen den Verkehr der Zukunft revolutionieren. Prototypen können bereits auf Knopfdruck vom Fahrer gerufen werden und sollen für mehr Sicherheit sorgen, indem sie Fußgänger, Geisterfahrer und Staus erkennen. Bei vollautomatisierten Fahrzeugen ergibt sich allerdings schnell ein moralisches Dilemma. Denn im Ernstfall muss das Auto selbst über Leben und Tod entscheiden: Schützt es beispielsweise die Insassen oder weicht es um jeden Preis einem unachtsamen Passanten aus?
Die deutsche Ethik-Kommission betont in ihren im Juni 2017 veröffentlichten Regeln für autonomes Fahren, dass eine automatische Steuerung für unvermeidbare Unfälle „nicht ethisch zweifelsfrei programmierbar“ sei. Doch gibt es möglicherweise einen gesellschaftlichen Konsens darüber, wie autonome Systeme in solchen Situationen reagieren sollten?
Oma oder Kind?
Genau dieser Frage sind Wissenschaftler um Edmond Awad vom Massachusetts Institute of Technology in Cambridge nachgegangen. Dafür konzipierten sie die sogenannte „Moral Machine“ – eine Art Onlinespiel, in dem sich Nutzer in unterschiedlichen Verkehrssituationen zwischen zwei möglichen Manövern entscheiden müssen.