Wenn Autos zum Töten programmiert werden

Autonomes Fahren bringt Hersteller in ein moralisches Dilemma

Manfred Bremmer beschäftigt sich mit (fast) allem, was in die Bereiche Mobile Computing und Communications hineinfällt. Bevorzugt nimmt er dabei mobile Lösungen, Betriebssysteme, Apps und Endgeräte unter die Lupe und überprüft sie auf ihre Business-Tauglichkeit. Bremmer interessiert sich für Gadgets aller Art und testet diese auch.
In Gefahrensituationen muss ein selbstfahrendes Auto blitzschnell Entscheidungen über Leben und Tod treffen. Eine klare Regelung, etwa, wann das Fahrzeug den Weg in eine Menschenmenge beibehält, oder stattdessen sich und die Insassen gegen die Wand setzt, kann es jedoch nicht geben.
Auch das niedlichste autonome Auto ist vor Unfällen nicht gefeit.
Auch das niedlichste autonome Auto ist vor Unfällen nicht gefeit.
Foto: Google

Ein wichtiges Argument dafür, die Entwicklung von selbstfahrenden autonomen Fahrzeugen voranzutreiben, ist das Ziel, durch das Ausschalten menschlichen Fehlverhaltens die Menge der Verkehrsunfälle drastisch zu senken. Wie zuletzt auch Google nach mehreren Millionen Kilometern in selbstfahrenden Autos feststellen musste, werden Unfälle jedoch immer unvermeidbar sein.

Im schlimmsten Fall muss das selbstfahrende Fahrzeug dabei in einer Gefahrensituation eine "Entscheidung" über Leben und Tod treffen: Soll es den Fußgänger auf der Straße überfahren oder ausweichen und stattdessen den Passanten am Straßenrand treffen? Nicht ganz unproblematisch - auch für den Käufer des Fahrzeugs - ist auch die Wahl, ob es in eine Menschengruppe rast oder - um den Schaden zu minimieren - stattdessen sich und seine Insassen opfert, indem es um den Aufprall zu vermeiden gegen eine Wand fährt.

In jedem der drei Fälle ist ein Schaden unausweichlich. Nur die Opfer variieren.
In jedem der drei Fälle ist ein Schaden unausweichlich. Nur die Opfer variieren.
Foto: Toulouse School of Exonomics

Während ein menschlicher Fahrer in so einem Fall kaum Zeit für lange Überlegungen hat und häufig reflexartig reagiert, ist der Computer im autonomen Auto durchaus in der Lage, blitzschnell alle Handlungsoptionen durchzuspielen. Welche letztendlich die "richtige" Entscheidung ist, dabei kann auch ein Zufallsgenerator zum Einsatz kommen, muss man ihm natürlich erst einprogrammieren - und damit beginnt ein ethisches Dilemma. Es ist nämlich eine gewaltige Herausforderung, Kriterien vorzugeben, nach denen ein autonomes Fahrzeug in einem solchen Fall reagiert, insbesondere, weil man drei vollkommen inkompatible Ziele erfüllen muss: Die Algorithmen müssen konsequent sein, dürfen keine öffentliche Empörung hervorrufen und sollen zudem nicht den Käufer vergraulen.

Das Trolley-Problem analysiert

Forscher rund um Jean-François Bonnefon von der Toulouse School of Economics (TSE) haben in einer Studie (PDF) versucht, sich dem Problem von der wissenschaftlichen Seite zu nähern. Ihr Ansatz: Es gibt ähnlich wie beim Trolley-Problem keine richtige oder falsche Entscheidung. Dennoch wird die öffentliche Meinung dazu eine wichtige Rolle dabei spielen, inwieweit autonome Fahrzeuge weitläufig akzeptiert werden.

Um ein Muster zu ermitteln, nach dem Menschen in dieser Situation handeln würden, konfrontierten die Wissenschaftler in drei Online-Umfragen 200 bis 400 über Amazons Plattform Mechanical Turk ausgesuchte Teilnehmer (Durchschnittsalter ca. 30 Jahre) mit verschiedenen Gedankenexperimenten rund um die Problematik.

Die Ergebnisse sind interessant, wenn auch absehbar: So sah ein Großteil der Probanten generell kein Problem darin, wenn ein autonomes Fahrzeug dazu programmiert ist, die Zahl der Unfalltoten möglichst niedrig zu halten - insbesondere, in Situationen, die nicht zum Tod des Insassen führten. Nimmt ein Fahrzeug in so einen Fall auch den Tod des Insassen in Kauf, um mehrere Menschenleben zu retten, ist das für die Mehrheit der Studienteilnehmer auch in Ordnung - solange sie selbst nicht in dem autonomen Auto sitzen. Ein mit diesem Algorithmus ausgestattetes Fahrzeug würde nur etwa ein Drittel selbst kaufen.

Mit der Anzahl der vermeidbaren Opfer wächst die Bereitschaft der Teilnehmer, dafür auch den eigenen Tod in Kauf zu nehmen.
Mit der Anzahl der vermeidbaren Opfer wächst die Bereitschaft der Teilnehmer, dafür auch den eigenen Tod in Kauf zu nehmen.
Foto: Toulouse School of Exonomics

Weitere Fragen bleiben offen

Bonnefon und seine Kollegen betonen, dass sie mit ihrer Studie gerade einmal an der Oberfläche der Problematik kratzten. So seien im Zusammenhang mit der Ausgangssituation noch zahlreiche weitere Fragestellungen zu klären, wie zum Beispiel: Soll ein autonomes Fahrzeug den Zusammenstoß mit einem Motorrad verhindern, indem es gegen eine Wand fährt, weil das Auto den Insassen eine größere Überlebenschance bietet als dem Motorradfahrer? Ist die Entscheidung davon abhängig zu machen, ob Kinder an Bord sind? Und wie steht es um die Schuld des Autofahrers, wenn ein Fahrzeughersteller verschiedene Versionen seines "moralischen Algorithmus" anbietet und sich der Käufer wissentlich für eine davon entscheidet?

 

MBremmer

Hallo Herr Barheine! Ihre Möglichkeit kann ich mir nur sehr schwer vorstellen. Wie schnell und sicher kann sich der "Fahrer" wohl entscheiden, wenn er gerade noch in seine Zeitung vertieft ist oder ein Nickerchen hält - oder was man halt sonst so in einem autonomen Fahrzeug macht?

Olaf Barheine

Es gibt auch noch eine vierte Möglichkeit, welche für mich die wahrscheinlichste ist: Der Computer schaltet sich ab und gibt die Kontrolle vor einem Unfall an den Fahrer zurück. Ich kann mir jedenfalls nicht vorstellen, jemals Software zu entwickeln, deren Algorithmen über Leben und Tod entscheiden. Diese Entscheidung muss der Fahrer schon alleine treffen und dafür die Verantwortung übernehmen.

comments powered by Disqus