Kurz notiert

Mit der „Moral Machine“ über Leben und Tod im Straßenverkehr entscheiden

Autounfall
geschrieben von Ekki Kern

Wie soll ein intelligentes Fahrzeug im Straßenverkehr agieren? Nach menschlich-moralischen Maßstäben? Oder eher doch kühl-berechnend und auf möglichst wenige Opfer bedacht? Dass die Entscheidung nicht immer leicht fällt, zeigt ein Projekt, das das renommierte MIT gestartet hat.

Im vergangenen Jahr ist viel geschrieben worden über autonome Fahrzeuge. Auch die Unfälle des fahrerlosen Autos von Google haben dazu beigetragen, dass über das Thema nun auch jenseits professioneller Fachzirkel diskutiert wird.

Wer muss sterben? Noch hat der Mensch die Wahl, in Zukunft vielleicht die Maschine... (Bildquelle: moralmachine.mit.edu)

Wer muss sterben? Noch hat der Mensch die Wahl, in Zukunft vielleicht die Maschine… (Bildquelle: moralmachine.mit.edu)

Eines steht fest: Ein Teil der Debatte sollte ethischen Gesichtspunkten gewidmet sein, also auch der Frage, wie sich ein sogenanntes intelligentes Fahrzeug verhalten soll, wenn ein Unfall offenbar unabwendbar ist.

Dass sich aus solchen Situationen schwierige Fragestellungen ergeben können, ist klar. Berühmt ist das Beispiel um die Entscheidung, ob die führerlose Maschine lieber ein (auf der Straße spielendes) Kind oder eine (korrekt auf dem Fußgängerweg spazierende) ältere Dame umfahren soll.

Die „Moral Machine“ fragt den Menschen

Das Massachusetts Institute of Technology (MIT) hat mit der „Moral Machine“ eine Website gebaut, auf der man als Nutzer und Mensch entscheiden soll, wer in konkreten Verkehrssituationen und im Fall eines unabwendbaren Unfalls umgefahren wird. Stets bleiben einem zwei Wahlmöglichkeiten.

Man möchte mit dem Experiment Daten darüber gewinnen, wie Menschen in einem moralischen Dilemma entscheiden, schreibt das Institut auf seiner Website:

This website aims to take the discussion further, by providing a platform for 1) building a crowd-sourced picture of human opinion on how machines should make decisions when faced with moral dilemmas, and 2) crowd-sourcing assembly and discussion of potential scenarios of moral consequence.

Wer sich selbst testen möchte, kann das tun, direkt hier.


Vernetze dich mit uns!

Like uns auf Facebook oder folge uns bei Twitter


Über den Autor

Ekki Kern

Ekki Kern war von 2016 bis 2018 Chefredakteur von Mobility Mag. Ausbildung zum Medienredakteur an der Berliner Axel Springer Akademie und bei der "Welt". Gerne unterwegs in Bahn, Bus und Auto, mag sein Rennrad und interessiert sich beruflich wie privat auch für Film, Fernsehen und Radio.

3 Kommentare

  • Spannend fände ich auch die Frage: Ist der Computer so programmiert den Fahrer (Insassen) zu schützen oder Fußgänger oder andere Verkehrsteilnehmer? Soll der Insasse unter allen Umständen gerettet werden oder soll dann eher das Kind statt der 60jährige Insasse geschützt werden? Ich fand den Test echt hart 🙁

    Ne andere Frage wäre auch: Sollen diese Einstellungen lieber vorprogrammiert sein oder sollte man das als Wagenbesitzer selbst (von Fall zu Fall) auswählen können?

  • […] Wen soll eine intelligente Maschine in Form eines künftigen Autos töten, wenn ein Unfall unabwendbar ist? Die Kinder oder die Oma? Es gibt jede Menge moralische Fragen, mit denen wir uns im Zuge der Technologisierung unserer Gesellschaft beschäftigen müssen. Anhand der „Moral Machine“ fragt das MIT bei echten Menschen nach, wie sie in konkreten Verkehrssituationen handeln würden. […]

  • […] Rechtlich, versicherungstechnisch und auch praktisch gesehen, wird dies von vielen als die problematischste Stufe der Automatisierung gesehen. Denn wenn man als Insasse nicht fährt, ist man auch schneller abgelenkt. So guckt man vielleicht gerade aus dem Fenster oder auf sein Smartphone, wenn das Auto plötzlich bei einer Geschwindigkeit von 120 km/h den Einsatz des Fahrers verlangt. Wie lange sollen Fahrer Zeit haben, um reagieren zu können? Sollte dieses Limit gesetzlich geregelt werden? Wer ist im Falle eines Unfalls verantwortlich? All das sind Fragen, denen sich sowohl Autobauer als auch die Gesetzgeber wohl bald annehmen müssen. […]

Kommentieren