Autonomes Fahren: Technologie vs. Mensch

Der Tesla-Autopilot-Unfall und die Folgen

16.09.2016
Von  und Lucas Mearian
Florian Maier beschäftigt sich in erster Linie mit dem Themenbereich IT-Security. Daneben schreibt er auch über reichweitenstarke und populäre IT-Themen an der Schnittstelle zu B2C und ist für den Facebook-Auftritt der COMPUTERWOCHE zuständig. Er schreibt hauptsächlich für die Portale COMPUTERWOCHE und CIO.
Der tödliche Unfall eines Tesla-Model-S-Besitzers bei aktivierter Autopilot-Funktion wirft Fragen auf. Zum Beispiel die nach der Sicherheit der Technologie für selbstfahrende Autos.

Bislang war die Sicherheit beziehungsweise Zuverlässigkeit selbstfahrender Autos vor allem ein von theoretischen Annahmen geprägtes Thema. Mit dem tödlichen Unfall eines Tesla Model S-Besitzers in den USA hat sich das grundlegend geändert. Die Kernfrage, die Unternehmen wie Privatleute in Bezug auf das autonome Fahren umtreiben, lautet: Wie sicher ist die Technologie wirklich? Daneben stellt sich nach dem fatalen Autopilot-Crash aber auch die Frage, ob die Menschheit für einen verantwortungsvollen Umgang mit (semi-) autonomen Fahrzeugen bereit ist.

Tödlicher Unfall mit Autopilot: Zwischen NHTSA, US-Senat & Consumer Reports

Besagter Unfall spielte sich am 7. Mai 2016 in Williston, Florida ab: Ein Tesla Model S raste in einen LKW-Auflieger, durch den Aufprall wurde das Dach des Model S nahezu komplett abgerissen. Es ist der erste tödliche Unfall mit einem Fahrzeug, das die Technologie des autonomen Fahrens - basierend auf Software, Sensoren und Kameras - nutzt. Der Fahrer des Wagens wurde von der Florida Highway Patrol als der 40-jährige US-Amerikaner Joshua Brown identifiziert. Über die genauen Umstände des Unfalls herrscht derzeit noch Unklarheit - die National Highway Traffic Safety Administration (NHTSA) hat eine Untersuchung zum Unfallhergang eingeleitet. Auch Tesla Motors hat sich zum Unfall geäußert. In einem Blogeintrag heißt es, die Sensoren des Autopiloten hätten den weiß lackierten LKW-Anhänger vor dem hellen Horizont nicht erkannt.

Wie vor kurzem bekannt wurde, untersucht die NHTSA allerdings noch einen zweiten Unfall mit Beteiligung eines (semi-) autonomen Tesla-Modells: Am 1. Juli hatte sich ein Exemplar des SUV-Modells Model X in Pennsylvania überschlagen. Der Besitzer gab an, dass das Fahrzeug nach Aktivierung des Autopiloten in die Leitplanke gelenkt habe, bevor es schließlich einen Kopfstand machte. Tesla äußerte sich zu diesem Vorfall mit folgendem Statement: "Den uns zur Zeit vorliegenden Informationen nach zu urteilen, gibt es keinen Grund zu der Annahme, dass der Autopilot etwas mit diesem Unfall zu tun hat."

Inzwischen hat die amerikanische Verkehrsbehörde von Tesla detaillierte Informationen über alle wesentlichen Sicherheitssysteme ihrer Autos angefordert. In einem Brief an Tesla fordert die NHTSA unter anderem Informationen über alle Vorfälle, in denen automatische Notbremsungen und Warnhinweise vom automatischen Lenksystem registriert wurden. Zudem muss Tesla sämtliche eingegangenen Beschwerden von Kunden über genannte Systeme offenlegen. Auch diverse Datensätze, die die Testphase dieser Systeme dokumentieren wurden angefordert. Tesla hat nun bis zum 26. August Zeit, um alle Forderungen der NHTSA zu erfüllen.

Auch der US-Senat hat inzwischen Auskunft von Tesla über den Unfallhergang gefordert. Der dem zuständigen Ausschuss vorsitzende Senator John Tune schrieb in einem Brief an Tesla-CEO Musk, dass er insbesondere daran interessiert wäre zu hören, wie das Unternehmen beweisen wolle, dass die Autopilot-Software in diesem Fall zuverlässig funktioniert habe. Zudem sei auch interessant, inwieweit und in welcher Form Tesla seine Kunden über Nutzung, Vorteile und Grenzen der Technologie informiert habe. Der Senats-Ausschuss hat Tesla aufgefordert, die Informationen bis zum 29. Juli einzureichen.

Zuletzt hat auch das renommierte US-Test- und Verbraucher-Magazin Consumer Reports einen öffentlichen Appell an den Autobauer aus dem Silicon Valley gerichtet. Die Forderungen im Detail:

  • Die Abschaltung des automatischen Lenksystems, bis durch eine Neuprogrammierung dafür gesorgt ist, dass die Hände des Fahrers am Lenkrad bleiben müssen;

  • Verzicht auf den Begriff "Autopilot", der irreführend und potenziell gefährlich ist;

  • Klare Hinweise gegenüber den Kunden, wie das System zu bedienen ist und wo seine Grenzen liegen;

  • Verzicht auf künftige Beta-Releases: alle sicherheitskritischen Systeme müssen vollständig getestet werden, bevor sie für die Öffentlichkeit zugänglich sind;

Laura MacCleery von Consumer Reports dazu: "Wir haben große Sorge, dass den Konsumenten hier viele Versprechungen in Form einer unfertigen Technologie verkauft werden. Durch die Bezeichnung ‚Autopilot‘ vermittelt Tesla seinen Kunden einen falschen Eindruck von Sicherheit." In früheren Tests hatte die Nonprofit-Organisation die Tesla-Elektroboliden mit Lobpreisungen überschüttet.

"Vollständige Automatisierung ist nicht der logische Schlusspunkt"

Geht es nach David Mindell, Autor des Buches "Our Robots, Ourselves: Robotics and the Myths of Autonomy", ist die Idee vom autonomen Fahren generell eine eher schlechte. Mindell ist auch Professor am renommierten MIT Department of Aeronautics and Astronautics und weist zur Untermauerung seiner These auf das Raumfahrtprogramm Apollo hin, in dessen Rahmen bereits sechs Mondlandungen durchgeführt wurden. Diese seien anfangs als völlig autonom geplant gewesen - die Astronauten sollten nur passive Passagiere sein. Nach verschiedenen Tests und Untersuchungen mussten die Raumfahrer jedoch viele kritische Funktionen manuell steuern - beispielsweise den Landevorgang.

Unter Berufung auf ein MIT-Konzeptpapier sagte Mindell im Interview mit dem MIT Technology Review, das Level an Automation in allen möglichen Projekten lasse sich auf einer Skala von 1 bis 10 einstufen, allerdings führe ein größeres Automations-Level nicht notwendigerweise zu besseren Ergebnissen. "Der Apollo-Computer erlaubte der Crew ein Raumschiff zu bauen, dass zwar einen geringeren Grad der Automatisierung besitzt, dafür allerdings der Perfektion ziemlich nahe kommt. Die Raffinesse von Rechner und Software wurde nicht dazu benutzt, um Menschen zu ersetzen, sondern um diesen bessere und umfassendere Kontrollmöglichkeiten an die Hand zu geben."

Als weiteres Beispiel führt Mindell die Luftfahrtindustrie an. Die Airlines nutzten zwar Automatisierung - etwa in Form des Autopiloten oder Lande-Assistenten - dennoch sei auch weiterhin ein professionell ausgebildeter Pilot notwendig, um die Systeme des Flugzeugs zu managen und in kritischen Situationen schnell die richtigen Entscheidungen zu treffen. Es sei deswegen angemessen zu hoffen, so Mindell, dass Fahrzeuge mit autonomen Fahrfunktionen dem Fahrer in Zukunft diverse Aufgaben abnehmen, so dass dieser sich besser auf das Fahren konzentrieren könne. Die vollständige Automatisierung sei hingegen nicht der logische Schlusspunkt bei der Entwicklung von Fahrzeugen.