Chancen und Risiken durch Robotik

Franz-Josef Radermacher und Gunter Dueck im Gespräch

29.09.2014
Von 
Jan-Bernd Meyer betreute als leitender Redakteur Sonderpublikationen und -projekte der COMPUTERWOCHE. Auch für die im Auftrag der Deutschen Messe AG publizierten "CeBIT News" war Meyer zuständig. Inhaltlich betreute er darüber hinaus Hardware- und Green-IT- bzw. Nachhaltigkeitsthemen sowie alles was mit politischen Hintergründen in der ITK-Szene zu tun hat.

„Hat so ein Watson Angst oder Schneid?“

Dueck war lange Jahre technischer Vordenker bei der IBM. Damit war er nahe dran an den Entwicklungen eines der führenden IT-Unternehmen der Welt. Er sieht zwar auch die potenziellen Gefährdungen, die sich aus den Entwicklungen bei künstlich intelligenten Systemen ergeben könnten. Für heute und die mittelfristige Zukunft rät er aber zu mehr Gelassenheit.

Gunter Dueck, promovierter Mathematiker, war der technische Vordenker – man kann auch sagen: Querdenker – der IBM in Deutschland. Heute ist der ehemalige Chief Technology Officer des IT-Konzerns als Buchautor und brillanter Redner erfolgreich. In seinem Blog "Daily Dueck" bürstet er nicht nur die IT-Branche gegen den Strich.
Gunter Dueck, promovierter Mathematiker, war der technische Vordenker – man kann auch sagen: Querdenker – der IBM in Deutschland. Heute ist der ehemalige Chief Technology Officer des IT-Konzerns als Buchautor und brillanter Redner erfolgreich. In seinem Blog "Daily Dueck" bürstet er nicht nur die IT-Branche gegen den Strich.

Dueck im Wortlaut: „Einem System kann man alles Mögliche beibringen. Das dauert dann halt. Ich kann auch einem Tier Kunststücke beibringen. Numerisch kann man ganz punktuell sehr vieles zumindest so halbwegs simulieren. Da kann man natürlich aus plakativen Einzelbeispielen in der Presse zu der Vorstellung kommen, dass die Maschinen bald besser als die Menschen sind – und dass man deshalb die Menschen ganz abschaffen könnte. Ich will diese technische Möglichkeit nicht völlig ausschließen.

Aus meiner Erfahrung aber kann ich sagen, dass man dazu ungeheuer viel Kultur- und Kontextwissen braucht – ob man das einem Computer so einfach beibringen kann? Zurzeit ziemlich hoffnungslos. Bei selbstlernenden Systemen handelt es sich um enorm komplexe, schwierige und aufwendige Arbeiten, damit ein solches System auch nur eine einzige Entscheidung treffen kann. Nehmen Sie etwa den Versuch, dass ein System erkennen muss, ob ein Mensch Schmerzen simuliert – da hängt eine ganze Doktorarbeit dran. Natürlich kann man einem System eine solche Befähigung einprogrammieren.

Aber ich wette, da hat jemand drei Jahre an einer Doktorarbeit geschrieben, und zwei Assistenten haben ihm die Programmierarbeit gemacht. Okay, dann kann ein Computer ‚Schmerzen erkennen‘. Aber nicht mehr. Und für jede andere Fähigkeit wieder drei Jahre Wissenschaft? Es wird eine Herkules-Arbeit. Eine Rundumfähigkeit wie die des Menschen in einem System – davon sind wir doch noch weit, weit entfernt.

Ich denke, dass ein System wie ‚Watson‘ heilen kann. Ich habe mal mit Pharmaunternehmen gesprochen und gefragt, ob man nicht alle historischen Daten von allen Zuckerkranken der Welt speichern könnte. Dann würde jeder Zuckerkranke über Mobilfunk seine aktuellen Daten kommunizieren und von ‚Watson‘ online eingestellt. Das Wissen über alle Diabetesvarianten hat ein Arzt gar nicht, er kennt nur ein paar Kranke. ‚Watson‘ würde aber alle Varianten weltweit kennen. In diesem Punkt ist ein System natürlich dem Menschen weit überlegen. Wie in vielen Settings ist es auch hier so, dass man 80 Prozent des Erfolgs relativ schnell bekommt. ‚Eliza‘ funktioniert dann ganz gut, andere Dinge auch.

Aber die anderen 20 Prozent machen exponentiell mehr Arbeit. Und dieses exponentielle Mehr an Arbeit, das wird meistens nicht berücksich-tigt. Und auch nicht, dass die Kosten dann exponenziell steigen. Bei Platon wird der Begriff ‚Arete‘ formuliert, die Vortrefflichkeit, die eine Eigenschaft von Dingen oder Menschen sein kann. Platon diskutiert, ob man höchste Vortrefflichkeit überhaupt beschreiben kann. Nein, eigentlich nicht! Platon fragt: Ist Tapferkeit lehrbar? Weisheit? Tugend?

"Kann man einem Computer ungeheur viel Kultur- und Kontextwissen beibringen? Zurzeit ziemlich hoffnungslos." Gunter Dueck
"Kann man einem Computer ungeheur viel Kultur- und Kontextwissen beibringen? Zurzeit ziemlich hoffnungslos." Gunter Dueck
Foto: Gunter Dueck

Nein, eigentlich nicht! Oder: Kann man jemandem beibringen, charismatisch zu sein? Auch nicht wirklich. Und ich frage: Wenn das ‚Höchste‘, das Beste oder das Eigentliche nicht in Worten ausdrückbar ist, wie wäre es dann zu programmieren? ‚Watson‘ kann sicher etwas liefern, was die Nachhilfe-Management-Seminare tun, ja. Das glaube ich schon. Aber das Eigentliche, wie gesagt, kann man ja nicht einmal beschreiben. Technikverliebte glauben möglicherweise, dass der Computer sich das selbst beibringen kann. Ich glaube das nicht. Wie kann ein Computer ‚politisch‘ entscheiden?

Da stellen sich die Fragen nach den Prioritäten. Geht es nach Macht, nach Geld, nach Freundschaft, soll es kurzfristig gut für die nächste Wahl sein oder nachhaltig wirken? Was ist besser für mich, was für die Menschheit? Wie soll man so etwas programmieren? Dann gäbe es immer eindeutige Antworten. Wollen wir verschiedenen Watsons eigene Persönlichkeiten zubilligen? Oder nehmen Sie das Beispiel der Krim oder Fukushima.

Wie entscheidet man? Soll man sich Probleme mit der Gasversorgung einhandeln und hier Industrien gefährden? Wie viel Angst oder Schneid hat so ein Watson? Nach dem Unglück in Fukushima hat sich Deutschland fast augenblicklich für eine Energiewende entschieden. Was würde ein Computer sagen? Er würde doch seine Meinung nicht ändern, weil sich ja weniger die Sache als die Gefühlslage geändert hat. In solchen Situationen sind Expertensysteme hilflos, weil eine völlig neue Lage entstanden ist.“