Wenn Autos zum Töten programmiert werden

Autonomes Fahren bringt Hersteller in ein moralisches Dilemma

09.11.2015 von Manfred Bremmer
In Gefahrensituationen muss ein selbstfahrendes Auto blitzschnell Entscheidungen über Leben und Tod treffen. Eine klare Regelung, etwa, wann das Fahrzeug den Weg in eine Menschenmenge beibehält, oder stattdessen sich und die Insassen gegen die Wand setzt, kann es jedoch nicht geben.

Ein wichtiges Argument dafür, die Entwicklung von selbstfahrenden autonomen Fahrzeugen voranzutreiben, ist das Ziel, durch das Ausschalten menschlichen Fehlverhaltens die Menge der Verkehrsunfälle drastisch zu senken. Wie zuletzt auch Google nach mehreren Millionen Kilometern in selbstfahrenden Autos feststellen musste, werden Unfälle jedoch immer unvermeidbar sein.

Im schlimmsten Fall muss das selbstfahrende Fahrzeug dabei in einer Gefahrensituation eine "Entscheidung" über Leben und Tod treffen: Soll es den Fußgänger auf der Straße überfahren oder ausweichen und stattdessen den Passanten am Straßenrand treffen? Nicht ganz unproblematisch - auch für den Käufer des Fahrzeugs - ist auch die Wahl, ob es in eine Menschengruppe rast oder - um den Schaden zu minimieren - stattdessen sich und seine Insassen opfert, indem es um den Aufprall zu vermeiden gegen eine Wand fährt.

In jedem der drei Fälle ist ein Schaden unausweichlich. Nur die Opfer variieren.
Foto: Toulouse School of Exonomics

Während ein menschlicher Fahrer in so einem Fall kaum Zeit für lange Überlegungen hat und häufig reflexartig reagiert, ist der Computer im autonomen Auto durchaus in der Lage, blitzschnell alle Handlungsoptionen durchzuspielen. Welche letztendlich die "richtige" Entscheidung ist, dabei kann auch ein Zufallsgenerator zum Einsatz kommen, muss man ihm natürlich erst einprogrammieren - und damit beginnt ein ethisches Dilemma. Es ist nämlich eine gewaltige Herausforderung, Kriterien vorzugeben, nach denen ein autonomes Fahrzeug in einem solchen Fall reagiert, insbesondere, weil man drei vollkommen inkompatible Ziele erfüllen muss: Die Algorithmen müssen konsequent sein, dürfen keine öffentliche Empörung hervorrufen und sollen zudem nicht den Käufer vergraulen.

Das Trolley-Problem analysiert

Forscher rund um Jean-François Bonnefon von der Toulouse School of Economics (TSE) haben in einer Studie (PDF) versucht, sich dem Problem von der wissenschaftlichen Seite zu nähern. Ihr Ansatz: Es gibt ähnlich wie beim Trolley-Problem keine richtige oder falsche Entscheidung. Dennoch wird die öffentliche Meinung dazu eine wichtige Rolle dabei spielen, inwieweit autonome Fahrzeuge weitläufig akzeptiert werden.

Um ein Muster zu ermitteln, nach dem Menschen in dieser Situation handeln würden, konfrontierten die Wissenschaftler in drei Online-Umfragen 200 bis 400 über Amazons Plattform Mechanical Turk ausgesuchte Teilnehmer (Durchschnittsalter ca. 30 Jahre) mit verschiedenen Gedankenexperimenten rund um die Problematik.

Die Ergebnisse sind interessant, wenn auch absehbar: So sah ein Großteil der Probanten generell kein Problem darin, wenn ein autonomes Fahrzeug dazu programmiert ist, die Zahl der Unfalltoten möglichst niedrig zu halten - insbesondere, in Situationen, die nicht zum Tod des Insassen führten. Nimmt ein Fahrzeug in so einen Fall auch den Tod des Insassen in Kauf, um mehrere Menschenleben zu retten, ist das für die Mehrheit der Studienteilnehmer auch in Ordnung - solange sie selbst nicht in dem autonomen Auto sitzen. Ein mit diesem Algorithmus ausgestattetes Fahrzeug würde nur etwa ein Drittel selbst kaufen.

Mit der Anzahl der vermeidbaren Opfer wächst die Bereitschaft der Teilnehmer, dafür auch den eigenen Tod in Kauf zu nehmen.
Foto: Toulouse School of Exonomics

Weitere Fragen bleiben offen

Bonnefon und seine Kollegen betonen, dass sie mit ihrer Studie gerade einmal an der Oberfläche der Problematik kratzten. So seien im Zusammenhang mit der Ausgangssituation noch zahlreiche weitere Fragestellungen zu klären, wie zum Beispiel: Soll ein autonomes Fahrzeug den Zusammenstoß mit einem Motorrad verhindern, indem es gegen eine Wand fährt, weil das Auto den Insassen eine größere Überlebenschance bietet als dem Motorradfahrer? Ist die Entscheidung davon abhängig zu machen, ob Kinder an Bord sind? Und wie steht es um die Schuld des Autofahrers, wenn ein Fahrzeughersteller verschiedene Versionen seines "moralischen Algorithmus" anbietet und sich der Käufer wissentlich für eine davon entscheidet?

Pilotiertes Fahren
Das A7 piloted driving concept kann den Fahrer auf Autobahnen im Bereich von 0 bis 70 mph Geschwindigkeit, also mehr als 110 km/h, entlasten.
Pilotiertes Fahren
Das Auto, von seinen Entwicklern „Jack“ genannt, kann Spurwechsel und Überholvorgänge selbständig durchführen.
Pilotiertes Fahren
Der A7 piloted driving concept kann selbsttätig beschleunigen und bremsen. Vor dem Ausscheren nach links oder – wie in den USA erlaubt – nach rechts gleicht er sein s Tempo an die Geschwindigkeit der Autos im Umfeld an. Wenn die Berechnung ergibt, dass Distanz und Zeit ausreichen, nimmt es den Spurwechsel zügig und exakt vor.
Pilotiertes Fahren
Unterwegs überträgt das lernfähige Fahrzeuge seine Daten in die Cloud und erhält von dort neues Wissen.
Pilotiertes Fahren
Herzstück von Jack ist das Fahrassistenzsystem.
Pilotiertes Fahren
Die Long-Range Radarsensoren der adaptive cruise control (ACC) und des Audi side assist (ASA) überwachen die Bereiche vor und hinter dem Auto. Je zwei Mid-Range-Radarsensoren an Front und Heck, nach links und rechts gerichtet, ergänzen die 360-Grad-Rundumsicht. Im Singleframe-Grill und in der Heckschürze arbeiten Laserscanner. Sie liefern redundante Informationen zur Detailerkennung statischer und dynamischer Objekte während der pilotierten Fahrt.