Industrie 4.0

Volkswagen: Roboter tötet Mensch

Jan-Bernd Meyer betreut als leitender Redakteur Sonderpublikationen und -projekte der COMPUTERWOCHE. Auch für die im Auftrag der Deutschen Messe AG publizierten "CeBIT News" ist Meyer zuständig. Inhaltlich betreut er darüber hinaus Hardware- und Green-IT- bzw. Nachhaltigkeitsthemen sowie alles was mit politischen Hintergründen in der ITK-Szene zu tun hat.   
Jetzt ist passiert, wovor diverse Experten aus der Softwarebranche gewarnt haben: Ein Roboter hat einen Menschen getötet.

Laut Medienberichten wollte der Mitarbeiter in der Produktion von Volkswagen im Werk in Baunatal den stationären Roboter einrichten. Wie Firmensprecher Heiko Hillwig sagte, packte der Roboter den Mitarbeiter, der zu einem Team von Menschen gehörte, die das System installieren wollten, und schleuderte ihn gegen eine Metallplatte. Der Mann starb den Berichten zufolge.

Hillwig sagte weiter, dass erste Untersuchungen darauf deuten, das möglicherweise menschliches Versagen für den tragischen Unfall verantwortlich gemacht werden könne. Der Roboter sei so programmiert worden, dass er in der Herstellung verschiedene Aufgaben wahrnehmen könne. Das System sei so eingestellt, dass es Autoteile greift und diese weiterverarbeitet. Normalerweise würde der Roboter in einer abgetrennten Umgebung arbeiten. Das Unternehmen machte mit Verweis auf die laufenden Untersuchungen keine weiteren Angaben.

Experten warnten

Schon seit Monaten ist die öffentliche Diskussion um das Gefahrenpotenzial von Robotern und "intelligenten" Systemen entbrannt. Softwareentwickler wie Bill Gates, Bill Joey (Mitbegründer von Sun Microsystems) oder Steve Wozniak warnen vor den Gefahren, die die Entwicklung solcher Systeme für die Menschen bergen könnten. Allerdings sagte Professor Wolfgang Wahlster im COMPUTERWOCHE-Interview, es sei "Science Fiction, zu behaupten, dass die künstliche Intelligenz sich verselbständigen könne und die Menschheit bedrohe."

Menschen im Hintertreffen

Allerdings gab Wahlster auch zu bedenken, dass "die Transparenz der vorgeschlagenen Entscheidungen für die Akzeptanz eine wichtige Rolle spielt". Gerade beim maschinellen Lernen über Massendaten müsse ein KI-System mit einer Erklärungskomponente ausgestattet sein, welche die Entscheidungsvorschläge dem Menschen zumindest plausibel macht. Letztlich könne kein Mensch die Arbeitsweise eines komplexen maschinellen Lernverfahrens über Terabytes von Trainingsdaten im Detail nachvollziehen. Wahlster: "Man muss bei maschinellen Lernergebnissen auch immer sehr kritisch nachprüfen, ob nicht durch zu viel Trainingszyklen eine Überanpassung stattgefunden hat, die letztlich dazu führt, dass nach einer Sättigungsphase die Generalisierungsleistung wieder schlechter wird."

 

Meyer

Mir ist schon klar, worauf Sie hinaus wollen - und durchaus mit nachvollziehbaren Argumenten. Aber ich bin der Meinung, dass in der öffentlichen Diskussion selten eine klare Trennung zwischen unterschiedlichen Systemen hergestellt wird. Diejenigen, die diesen diversen Entwicklungen skeptisch gegenüber stehen, warnen in der Tat in der von Ihnen beschriebenen Weise vor einer KI, die den Menschen überflüssig macht. Kurzweil etwa ist im Kreis dieser Kritiker herausragend. Genau ihn aber kritisiert Professor Wahlster ganz heftig (siehe Interview).

Allerdings gibt es ja ganz unterschiedliche Formen der Digitalisierung/ Automatisierung, die in unterschiedlicher Weise für Menschen "bedrohlich" werden können. Natürlich nicht im Sinn, dass sich wild gewordene Roboter den Menschen vorknöpfen und ihn meucheln. Diese Art von "Terminator"-Phantasie sollte im Artikel nicht bemüht werden.

Aber - und deshalb der Bezug zu Professor Wahlster und KI - gibt es eben heute schon Aspekte der Entscheidungsfindung von Systemen, die der Mensch nicht mehr nachvollziehen kann - aus unterschiedlichen Gründen. Allein dieser Umstand ist meines Erachtens bedenkenswert - und deshalb habe ich ihn angeführt.

Haxor

Nichts desto trotz besteht selbst dann ein großer Unterschied, wenn es sich um ein selbstlernendes System handeln sollte. Auch in diesem Fall wäre es einfach ein Maschinenfehler. Der Grundgedanke hinter der Angst vor KI ist ja der, dass diese irgendwann entscheiden könnte, dass der Mensch überflüssig ist und ihm dann gefährlich wird. Das Problem im Zusammenhang mit dieser Meldung ist jedoch, dass es bisher keine KI gibt, die auf diesem Niveau entscheidungen treffen könnte. Aus diesem Grunde halte ich es für reißerisch den Zusammenhang überhaupt so darzustellen.

Meyer

moin, moin,.
zunächst vielen Dank für den Kommentar.

Inwieweit der Artikel welches Niveau besitzt, will ich einmal dahingestellt sein lassen. Im Eigentlichen gibt er einfach eine offizielle Stellungnahme des Konzerns Volkswagen wider.
Was die weitere Bemerkung betrifft, so könnte man in der Tat mit einer gewissen Berechtigung schreiben, dass hier der Zusammenhang zwischen dem Roboter und der KI-Wissenschaft überstrapaziert wird. Könnte.
Aber es ist eben noch nicht klar, um was für ein Robotersystem es sich handelt(e). Es gibt zum einen sehr wohl schon solche Systeme, die selbstlernende Software nutzen, sich also in ihren Befähigungen quasi eigenständig optimieren. Und es gibt natürlich zum anderen schon seit mindestens 40 Jahren Industrieroboter, die "einfach" einem Programm folgen und dies abarbeiten.
Leider ist bislang zu wenig bekannt, was im vorliegenden Fall zutrifft. Bekannt ist auch nicht, wie es zu diesem tragischen Vorfall gekommen ist - wer also "Schuld" trägt an dem Unfall.

Zudem sollte beim Bezug auf Professor Wahlster und KI lediglich die Diskussion aufgenommen werden, die seit geraumer Zeit in der Öffentlichkeit ventiliert wird: Die Gefährdungspotenziale, denen Menschen durch KI-Systeme, selbstlernende Systeme etc. möglicherweise ausgesetzt sein könnten. Im Zusammenhang mit dem hier tragischen Vorfall sollte genau dieser teils herrschenden Hysterie die Spitze genommen werden.
Wenn Sie das als alleruntersten Boulevard wahrnehmen, ist das schade. Denn gemeint war und ist es anders.

Meyer

moin, moin,
danke für den Kommentar.
Aber eins nur zur Klarstellung: Der Artikel zieht keine Schlussfolgerungen. Er gibt wieder, was der Firmensprecher in dieser Causa gesagt hat. Explizit wird geschrieben, dass das Unternehmen zum jetzigen Zeitpunkt keine weiteren Angaben macht wegen der laufenden Untersuchungen.

Jan-Bernd Meyer

Olaf Barheine

Absolut tragisch! Vielleicht sollte man aber erst einmal abwarten, was die Ermittlungen der zuständigen Staatsanwaltschaft ergeben, bevor man irgendwelche Schlussfolgerungen zieht.. Alles andere ist reine Spekulation.

Haxor

Der Stil des Artikels ist wirklich allerunterste Boullervard Schiene. Hier wird ein Maschinenfehler bzw. Menschliches versagen als Brücke zur durchdrehenden KI genutzt?! Wenn ein Schreiner seine Hand in die Kreissäge steckt spricht doch auch keiner von Skynet. Hat hier die Bild übernommen?

comments powered by Disqus