1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen

Kann ein selbstfahrendes Auto ethisch handeln?

25. Oktober 2018

Sollen autonome Fahrzeuge bei einem Unfall eher den Tod eines alten Menschen in Kauf nehmen oder doch den eines Kindes? Wie Menschen diese moralische Frage beantworten würden, beleuchtet eine neue Studie.

https://p.dw.com/p/37CU2
Selbstfahrendes Auto von Google
Bild: picture-alliance/dpa

Können Menschen sich einig werden, wie Roboter-Autos in ethisch schwierigen Unfallsituationen entscheiden sollen? Das versucht zumindest das Massachusetts Institute of Technology (MIT) herauszufinden. Die Studie istin dem Fachmagazin "Nature" erschienen. 

Das Online-Spiel "Moral Machine" konfrontiert die Probanden mit unterschiedlichen Situationen und variierenden Verkehrsteilnehmern. Dann müssen sie sich für den in ihren Augen vertretbaren Unfallschaden entscheiden: Überfahre ich den Rentner, der bei rot die Straße überquert, oder fahre ich gegen die Betonwand, die die Insassen meines Autos, inklusive Kindern gefährdet? 

Mehr dazu: Erster Tödlicher Unfall mit selbstfahrendem Auto von Uber in den USA

MIT Vorhersage zu Autonomem Fahren
Das Online-Spiel des MIT stellt die Probanden vor unterschiedliche Verkehrssituationen, wo sie entscheiden müssen. Bild: MIT/akinbostanci

Mehrheit der Befragten: Jung vor Alt

Die Ergebnissen zeigen: Die Mehrheit der Befragten würde lieber Kinder verschonen als ältere Menschen. Und die meisten würden - vor die Wahl gestellt - eher Tiere überfahren als Menschen. Allerdings zeigten sich bei genauerer Betrachtung größere kulturelle Unterschiede zwischen Probanden in verschiedenen Weltregionen. 

Die Forscher hatten sie in drei Gruppen differenziert: westliches, östliches und südliches Cluster. So entschieden sich Befragte in asiatischen Ländern (östliches Cluster) eher dafür - aus Respekt - die älteren Verkehrsteilnehmer zu verschonen.

Über 40 Millionen Entscheidungen aus der "Moral Machine"- Umfrage hatten die Wissenschaftler analysiert. Weil junge Männer aber unter den zwei Millionen Umfrageteilnehmern überrepräsentiert waren, ist das Ergebnis allerdings nicht repräsentativ. 

Mehr dazu: Vorerst keine Tests von autonomen Uber-Autos in Arizona

BdT Fußgänger überweg
Wie soll das selbstfahrende Auto sich entscheiden, wenn ein Unfall unausweichlich ist? Bild: picture-alliance/chromorange/SPA

Ethische Programmierung von autonomen Fahrzeugen?

Durch die Ergebnisse versuchen die Forscher des MIT herauszufinden, nach welchen ethischen Vorstellungen selbstfahrende Autos in Zukunft programmiert werden könnten. Dies widerspricht teilweise den Regeln, welche die Ethikkommission für Automatisiertes und Vernetztes Fahren im Juni 2017 vorgeschlagen hatte.

Unter anderem sprach sich die deutsche Kommission gegen jegliche Diskriminierung aus: "Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt." 

Die Jura Professorin Silja Vöneky findet das Ziel der MIT-Autoren grundsätzlich richtig - stößt es doch eine Debatte über die "ethische Programmierung" von autonomen Fahrzeugen an: "Wir sollten aber nicht glauben, dass wir alle Normen und Prinzipien neu erfinden oder ändern müssen, nur weil es um eine neue Technik geht," so Vöneky gegenüber dem Science Media Center Deutschland. Sie lehrt Völkerrecht, Rechtsethik und Rechtsvergleichung der Universität Freiburg. 

Auch Armin Grunwald vom Karlsruhe Institut für Technologie (KIT) und Angehöriger der Ethikkommission für Automatisiertes und Vernetztes Fahren, zeigt sich skeptisch und warnt sogar vor den Schlussfolgerungen der Studie: "Weder aus Spielen noch aus Umfragen kann etwas über die ethische Zulässigkeit von Normen gelernt werden. Ansonsten könnte nach jedem schweren Verbrechen eine Umfrage gemacht werden, die mit ziemlicher Sicherheit für die Einführung der Todesstrafe ausgehen würde." Und das, obwohl diese in den meisten Ländern abgeschafft ist. 

sw/hf (dpa)