Industrie 4.0

Volkswagen: Roboter tötet Mensch

03.07.2015
Von 
Jan-Bernd Meyer betreute als leitender Redakteur Sonderpublikationen und -projekte der COMPUTERWOCHE. Auch für die im Auftrag der Deutschen Messe AG publizierten "CeBIT News" war Meyer zuständig. Inhaltlich betreute er darüber hinaus Hardware- und Green-IT- bzw. Nachhaltigkeitsthemen sowie alles was mit politischen Hintergründen in der ITK-Szene zu tun hat.
Jetzt ist passiert, wovor diverse Experten aus der Softwarebranche gewarnt haben: Ein Roboter hat einen Menschen getötet.

Laut Medienberichten wollte der Mitarbeiter in der Produktion von Volkswagen im Werk in Baunatal den stationären Roboter einrichten. Wie Firmensprecher Heiko Hillwig sagte, packte der Roboter den Mitarbeiter, der zu einem Team von Menschen gehörte, die das System installieren wollten, und schleuderte ihn gegen eine Metallplatte. Der Mann starb den Berichten zufolge.

Hillwig sagte weiter, dass erste Untersuchungen darauf deuten, das möglicherweise menschliches Versagen für den tragischen Unfall verantwortlich gemacht werden könne. Der Roboter sei so programmiert worden, dass er in der Herstellung verschiedene Aufgaben wahrnehmen könne. Das System sei so eingestellt, dass es Autoteile greift und diese weiterverarbeitet. Normalerweise würde der Roboter in einer abgetrennten Umgebung arbeiten. Das Unternehmen machte mit Verweis auf die laufenden Untersuchungen keine weiteren Angaben.

Experten warnten

Schon seit Monaten ist die öffentliche Diskussion um das Gefahrenpotenzial von Robotern und "intelligenten" Systemen entbrannt. Softwareentwickler wie Bill Gates, Bill Joey (Mitbegründer von Sun Microsystems) oder Steve Wozniak warnen vor den Gefahren, die die Entwicklung solcher Systeme für die Menschen bergen könnten. Allerdings sagte Professor Wolfgang Wahlster im COMPUTERWOCHE-Interview, es sei "Science Fiction, zu behaupten, dass die künstliche Intelligenz sich verselbständigen könne und die Menschheit bedrohe."

Menschen im Hintertreffen

Allerdings gab Wahlster auch zu bedenken, dass "die Transparenz der vorgeschlagenen Entscheidungen für die Akzeptanz eine wichtige Rolle spielt". Gerade beim maschinellen Lernen über Massendaten müsse ein KI-System mit einer Erklärungskomponente ausgestattet sein, welche die Entscheidungsvorschläge dem Menschen zumindest plausibel macht. Letztlich könne kein Mensch die Arbeitsweise eines komplexen maschinellen Lernverfahrens über Terabytes von Trainingsdaten im Detail nachvollziehen. Wahlster: "Man muss bei maschinellen Lernergebnissen auch immer sehr kritisch nachprüfen, ob nicht durch zu viel Trainingszyklen eine Überanpassung stattgefunden hat, die letztlich dazu führt, dass nach einer Sättigungsphase die Generalisierungsleistung wieder schlechter wird."