Interview mit Wolfgang Wahlster

"Künstliche Intelligenz ist besser als natürliche Dummheit"

17.05.2015
Von 
Jan-Bernd Meyer betreute als leitender Redakteur Sonderpublikationen und -projekte der COMPUTERWOCHE. Auch für die im Auftrag der Deutschen Messe AG publizierten "CeBIT News" war Meyer zuständig. Inhaltlich betreute er darüber hinaus Hardware- und Green-IT- bzw. Nachhaltigkeitsthemen sowie alles was mit politischen Hintergründen in der ITK-Szene zu tun hat.

"Gefahr des kriminellen Missbrauchs von KI-Technologien"

CW: Wie könnte das aussehen?

Wolfgang Wahlster: Erstens muss natürlich mit Hochdruck an der Zuverlässigkeit, Sicherheit und der Resilienz von KI-Systemen gearbeitet werden, wenn sie für kritische Steuerungen oder Entscheidungen eingesetzt werden. Cyber-Attacken auf KI-Systeme sind besonders gefährlich, weil aufgrund der extremen Komplexität dieser Softwaresysteme Verhaltensanomalien nicht sofort auffallen müssen. Zweitens gilt bei KI-Systemen natürlich auch, dass diese umfangreichen Softwaresysteme fast immer Programmierfehler enthalten, so dass man sich nie zu 100 Prozent darauf verlassen sollte.

Die Forschung hat in den letzten Jahren allerdings sehr leistungsfähige Deduktionssysteme entwickelt, welche zumindest für kleine, aber sicherheitskritische Module helfen, Programmierfehler nachweisbar auszuschließen. Und drittens ist die Gefahr des kriminellen Missbrauchs von KI-Technologien natürlich ein permanentes Risiko, beispielsweise im Bereich des Terrorismus oder der Finanzunterwelt.

Auch bei diesen beiden Humanoiden zeigt sich, wie weit Japan in Sachen menschenähnlicher Robotersysteme bereits ist.
Auch bei diesen beiden Humanoiden zeigt sich, wie weit Japan in Sachen menschenähnlicher Robotersysteme bereits ist.
Foto: Geminoid HI-2 was developed by Hiroshi Ishiguro Laboratories, Advanced Telecommunications Research I

CW: Was bedeutet KI für die Interaktion zwischen Mensch und Maschine zum Beispiel im Umfeld Industrie 4.0?

Wolfgang Wahlster: In der Fabrik der Zukunft werden sich Mensch und Maschine komplementär ergänzen. Mit der neuen Generation von kollaborativen Leichtbaurobotern werden die Werker in der Smart Factory zusammenarbeiten. Allerdings wird dabei eine klare Rollenverteilung bestehen: Der Mensch nutzt den Roboter als Assistenten beispielsweise bei der Überkopfarbeit im Automobilbau. Während die bisherigen Roboter in Sicherheitskäfigen Schwerstarbeit wie Punktschweißen oder Lackieren verrichteten, sind die neuen kollaborativen Roboter für den direkten Kontakt mit Menschen ausgelegt und können diesen auf keinen Fall verletzen.

Sie weichen dem Menschen sogar sensorgesteuert bei der gemeinsamen Arbeit aus. Wie gute Assistenten reichen diese Roboter dem Menschen die richtigen Bauteile und Werkzeuge im passenden Moment an und helfen dem Facharbeiter. Dazu müssen sie KI-Verfahren zur Erkennung der Handlungsabsicht des Menschen nutzen, denn der Werker soll ja in Industrie 4.0 selbst den Arbeitstakt entscheiden und nicht von einem Roboter gegängelt werden.

CW: Schwierig wird es aber doch, wenn es um Entscheidungen geht - im Hochfrequenzhandel mit Wertpapieren und beim Lenken eines Flugzeugs oder selbstfahrenden Autos.

Wolfgang Wahlster: Das sind sehr gute Beispiele, bei denen die Transparenz der vorgeschlagenen Entscheidungen für die Akzeptanz eine wichtige Rolle spielt. Gerade beim maschinellen Lernen über Massendaten sollte ein KI-System mit einer Erklärungskomponente ausgestattet sein, welche die Entscheidungsvorschläge dem Menschen zumindest plausibel macht. Letztlich kann kein Mensch die Arbeitsweise eines komplexen maschinellen Lernverfahrens über Terabytes von Trainingsdaten im Detail nachvollziehen. Man muss bei maschinellen Lernergebnissen auch immer sehr kritisch nachprüfen, ob nicht durch zu viel Trainingszyklen eine Überanpassung stattgefunden hat, die letztlich dazu führt, dass nach einer Sättigungsphase die Generalisierungsleistung wieder schlechter wird.