Chancen und Risiken durch Robotik

Franz-Josef Radermacher und Gunter Dueck im Gespräch

29.09.2014 von Jan-Bernd Meyer
Immer häufiger lesen wir von Robotern und Humanoiden, die "menschliche" Tätigkeiten übernehmen. Doch was bedeuten diese intelligenten Maschinen für unser tägliches Arbeiten und Leben? Wir haben zwei Wissenschaftler gefragt, die sich darüber Gedanken machen.

CW: Auf der Homepage des Forschungsinstituts für anwendungsorientierte Wissensverarbeitung (FAW/n) in Ulm steht der Satz: "Immer intelligentere Maschinen, und zukünftig immer ,menschlichere` Roboter können zwar immer nützlichere Dienstleistungen ermöglichen, zu Ende gedacht können sie aber auch unsere Arbeitsplätze gefährden, unser Privatleben ausspionieren, uns mit zugeschnittenen Konsumangeboten verfolgen und in der Wechselwirkung mit sozialen Netzen die Kapazität unseres Bewusstseins fast vollständig okkupieren." Das klingt nicht gut.

Franz-Josef Radermacher: Da haben Sie recht. Aber meine Einschätzung ist dennoch so. Wir Menschen werden immer transparenter, weil es der Arbeitgeber will, weil unsere Lieferanten und Kunden es wollen, weil der Staat es will und die Technik es liefern kann. Mittlerweile sind wir zudem mit den vielfältigen Präsenzanforderungen in softwaregestützten sozialen Netzwerken konfrontiert. Wir können teilweise nur noch dann sozial vollwertig partizipieren, wenn wir Teil eines solchen Netzes sind. Darüber entsteht sozialer Druck, in den Netzen präsent zu sein. Dort outet man sich dann und wird gläsern. Das ist ein Aspekt des von Ihnen zitierten Satzes. Ein anderer ist, dass offenbar niemand ernsthaft deutlich anonymisiertere Formen und Architekturen der Netzkommunikation und von IT-Systemen durchsetzen will, nicht einmal die EU, der das noch am ehesten gelingen könnte - und sollte, wenn man die Demokratie auf Dauer sichern will.

Franz-Josef Radermacher ist Professor für Datenbanken und Künstliche Intelligenz an der Universität Ulm, gleichzeitig Vorstand des Forschungsinstituts für anwendungsorientierte Wissensverarbeitung (FAW/n) Ulm sowie Präsident des Senats der Wirtschaft e. V. und Vizepräsident des Ökosozialen Forums Europa, Wien. Radermacher ist zudem Mitglied des Club of Rome. Er plädiert für Vorsicht bei der Entwicklung künstlich intelligenter Systeme.
Foto: Prof. Dr. Dr. Radermacher

CW: Sind diese sozialen Netze nicht lediglich eine neue Technikplattform zur Kommunikation wie das Telefon?

Franz-Josef Radermacher: Schon beim Telefon - und da vor allem seit der Umstellung von analog auf ISDN - gab es Diskussionen und große Veränderungen. Ursprünglich war man bei der Nutzung des (damals noch analog arbeitenden) Telefons noch in hohem Maße anonym. Mit der Digitalisierung der Telefondienste erfuhr das System schon vieles über den Nutzer. Die große Veränderung in unser aller Leben besteht ja darin, dass es mittlerweile immer genauer rekonstruiert werden kann, und das zu extrem geringen Kosten.

Mit Big Data und immer leistungsfähigeren Algorithmen wird das jetzt ein gesellschaftliches Thema. Das ist ja auch der Grund, warum - um einmal ins Filmmilieu zu wechseln - das Betriebssystem Samantha in dem Film "Her" im Laufe der Zeit ein viel besseres Beschreibungsmodell von uns aufbauen kann als ein menschliches Gegenüber. Das System bekommt ja von uns viel mehr Informationen, als wir einem Gegenüber freiwillig jemals geben würden. Wir wollen ja häufig Geheimnisse vor unserem Gegenüber haben, manchmal am liebsten sogar vor uns selber. Gegen die Perfektion, die Samantha in ihrer Empathie erreicht, weil sie über die Nutzung der vielen Möglichkeiten im Bereich Big Data aus dem Alltag eines Menschen über uns sogar das weiß, was wir ihr gar nicht mitteilen wollten, kann ein anderer Mensch auf Dauer nicht ankommen.

Heute schon gibt es ein riesiges Interesse daran, die Menschen immer transparenter werden zu lassen. In dem Buch "The Circle" von Dave Eggers ist zum Schluss die ultimative Transparenz das Thema. Diese Transparenz, letztlich auch über den Zugriff auf biologische Parameter, führt dann aber zu unakzeptablen und völlig asymmetrischen Konstellationen, die für das betroffene Individuum letztlich Gewaltcharakter haben. Beziehungen auf Augenhöhe sind dann nicht mehr möglich.

In dem interessanten aktuellen Film "Transcendence" nimmt dies die Protagonistin in einer Schlüsselszene wahr, und zwar bezüglich ihres Verhältnisses zu ihrem früheren Lebensgefährten, der jetzt (nur noch) in einem Softwaresystem weiterlebt, dabei aber unglaubliche (Wissens-)Macht auf sich konzentrieren kann.

Wohin führt diese Entwicklung? Am Schluss werden wir alle erkennen, dass jeder von uns ein - wenn auch höchst komplexer, hochgradig individueller und in seinem Verhalten nicht prognostizierbarer - "Algorithmus" ist. Diesen Algorithmus werden wir in seinen Stärken, aber oft auch in seiner ganzen Armseligkeit vor uns sehen. Und natürlich auch in seinem Wandlungs- und Lernvermögen, das natürlich in individueller Weise vorhanden ist, aber ebenfalls spezifische Grenzen besitzt. Wir werden lernen, damit zu leben. Aber unser Leben wird dann ziemlich grau sein. Am Schluss müssen wir damit umgehen, dass wir uns als transparente "Maschinen" in der Dürftigkeit vieler Überlegungen, Prioritätensetzungen und Reaktionen wahrnehmen, die wir nicht mehr durch Tarnung abschirmen können. Das betrifft Charakterzüge mancher Zeitgenossen wie etwa Geiz, Neid, Aggressivität, mangelnde Empathie für die Not anderer, die wir kollektiv - und oft auch subjektiv - ablehnen, die aber von der Evolution und damit von Fragen des Überlebens her, also aus guten Gründen, in mehr oder weniger großem Umfang in uns beziehungsweise in der Mehrheit von uns stecken. Das ist keine erfreuliche Perspektive.

"Manche hoffen auf die gütige kluge Maschine." Franz-Josef Radermacher
Foto: Prof. Dr. Dr. Radermacher

CW: Nun könnte man ja sagen, dass eigentlich nichts gegen einen perfekt funktionierenden Humanoiden spricht. Der versteht uns Menschen, ist lernfähig, optimiert sich ständig und kann perfekt auf uns eingehen. Wir entwickeln ja bereits erste Prototypen. Was also ist dagegen einzuwenden?

Franz-Josef Radermacher: Ich bin ein großer Fan des Films "Blade Runner", der schon sehr alt ist. Viele Menschen träumen seit diesem Film von überzeugenden Androiden. Und ich halte es für möglich, diese zu schaffen. Allerdings geht mit einer solchen Entwicklung eine große Gefahr einher: Sie droht den sozialen Zusammenhang zwischen den Menschen weitgehend aufzulösen. Das kann extrem problematisch werden.

CW: Muss das der Preis sein?

Franz-Josef Radermacher: Das wird der Preis sein, wenn wir die Perfektion immer weiter treiben. Einfach deshalb, weil die mögliche Alternative zum realen Menschen extrem attraktiv werden kann. Bislang muss sich der Mensch, der nicht allein sein will, mit einem menschlichen Gegenüber auseinandersetzen - auch mit all dessen Fehlern - und sich irgendwie arrangieren. Aus dem Miteinander und dem Kontakt entsteht manchmal Freude, manchmal Ärger, in jedem Fall aber Nähe. Wenn es den technisch perfekten Humanoiden gäbe, entfielen die beschriebenen Zwänge. Humanoide Computer werden nie böse, haben immer für uns Zeit, wenn wir es wünschen. Sie akzeptieren uns, wie wir sind. Sie werden uns anbieten, die Handlungsqualität, die wir uns zu einem bestimmten Zeitpunkt wünschen, per Knopfdruck einzustellen. Und wenn wir ihn vorübergehend abstellen, wird der Humanoide gleichfalls nicht böse sein.

CW: Um beim Film zu bleiben: In "2001 - Odyssee im Weltraum" hatte das intelligente System schon eine Lösung, um sich nicht abstellen lassen zu müssen.

Franz-Josef Radermacher: Das stimmt. Auch in "Transcendence" ist das Abstellen schwierig. Erst die Herbeiführung eines Totalkollapses des Internets (mit gravierenden materiellen Konsequenzen für unsere Zivilisation) kann in dem Film die von uns erschaffene technisch-emotionale Intelligenz noch stoppen. Diese Idee, dass es eines (temporären) Totalkollapses des Internets bedarf, um die Verhältnisse auf dem Globus in eine zukunftsfähige Richtung lenken zu können, findet sich übrigens auch in dem spannenden Science-Fiction-Roman "Xperten: Das Paranetz" des Grazer Informatikpioniers Hermann Maurer. Das sind spannende Überlegungen mit Blick auf eine Zukunft, die vielleicht gar nicht mehr so weit weg ist.

Noch ist das aber Zukunftsmusik. So weit ist es noch nicht. Wenn wir heute an solchen Systemen arbeiten und dies technisch intelligent tun, gibt es den Abstellknopf noch. Die große Frage ist aber: Was heißt das für uns Menschen, wie verändert es unsere Wahrnehmung und unser Verhalten? Wie verändert es uns selbst, und was heißt das für den sozialen Zusammenhalt? Ich habe große Sorge um das, was passieren kann. Selbst Haustiere könnten durch Maschinen ersetzt werden, wodurch ein weiteres Stück Einbettung in die Natur verloren gehen würde. Diese Entwicklung ist von einer Art und Qualität, dass ich sie, wenn ich die Macht dazu hätte, nicht zulassen würde. Allenfalls würde ich ein ganz langsames, vorsichtiges Herantasten im Kontext eines Moratoriums zu erproben erlauben. In keinem Fall würde ich solch eine Entwicklung dem Markt und konkurrenzgetriebenen wirtschaftlichen Prozessen überlassen.

Gütige kluge Maschinen?
Foto: jim - Fotolia.com

CW: Man kann das auch positiv sehen. Vielleicht wird es eine Zeit geben, in der Computer und Roboter so perfekt sind, dass sie besser als wir Menschen entscheiden können, was für unsere Welt und unsere Lebensumstände richtig ist.

Franz-Josef Radermacher: Vieles ist möglich. Manche verzweifeln ohnehin an unserer Politikunfähigkeit und hoffen auf die gütige kluge Maschine. In diesem Bereich ist vieles denkbar. Ich verweise hierzu auf das IBM-System "Watson" und seine unglaublichen Leistungen im Cognitive Computing. Das ist ein System, das die Generierung von Hypothesen oder Vermutungen, die beim Menschen die Basis sind für alle höheren kognitiven Prozesse, etwa das Interpretieren von Bildern oder das Verstehen von Sprache, bereits besser beherrscht als wir.

Eine solche Perspektive gefällt mir allerdings überhaupt nicht. Wir würden dann als Menschen nicht mehr das Geschehen bestimmen, sondern andere. Etwas anderes kommt hinzu. Wir Menschen haben ein emotional-hormongetriebenes Bewertungssystem. Es beinhaltet, was Philosophen als Qualia bezeichnen. Damit verbunden sind Vorstellungen von einer gerechten, gelingenden Welt, emotionale Reaktionen in Bezug auf die Frage, was richtig oder falsch ist, und die Intentionalität, sich für eine gute Welt einzusetzen. Die Maschinen, von denen wir hier reden, haben das alles nicht, sie leben nur in einer Welt der Worte, Bilder und Modelle.

Natürlich kann man die Maschinen dennoch so konstruieren, dass sie mit Intentionalität und einer annähernden Emotionalität unserer Art versehen sind. Die Qualia würde aber fehlen. Für die Annäherung würde man im Prinzip ein Ich-Modell einer Maschine mit Intentionalität bauen, das ähnlich orientiert ist wie wir. Spätestens dann aber müssen wir gesellschaftlich regeln, welche Maschinenmodelle dieses Typs erlaubt werden sollen. Wir würden wohl bestimmt kein Modell für gut befinden, das sich als Usurpator versteht.

Mit Blick auf die Zukunft sollte die Politik, wenn Vernunft der Maßstab ist, sehr enge Grenzen für solche Modelle setzen. Aber wird das so kommen? Die Machtinteressen von Menschen und Eliten können letztlich zur Folge haben, dass wir die Möglichkeiten solcher neuen Maschinen immer weiter treiben - über alle Vorsichtsgrenzen hinaus -, um sie für eigene Zwecke nutzbar zu machen. Menschen mit Macht werden also potenziell ihre jeweiligen eigenen Intentionen in Maschinen mit spezifischen Maschinen-Intentionen, zugeschnitten (zunächst) auf die verfolgten eigenen Zwecke der Machtpromotoren, ausrichten. Dann bekommen wir zum Schluss alle zuvor angedeuteten Probleme, weil einzelne Menschen es so wollen oder diese Entwicklung absichtlich oder unbeabsichtigt so befördert haben.

„Hat so ein Watson Angst oder Schneid?“

Dueck war lange Jahre technischer Vordenker bei der IBM. Damit war er nahe dran an den Entwicklungen eines der führenden IT-Unternehmen der Welt. Er sieht zwar auch die potenziellen Gefährdungen, die sich aus den Entwicklungen bei künstlich intelligenten Systemen ergeben könnten. Für heute und die mittelfristige Zukunft rät er aber zu mehr Gelassenheit.

Gunter Dueck, promovierter Mathematiker, war der technische Vordenker – man kann auch sagen: Querdenker – der IBM in Deutschland. Heute ist der ehemalige Chief Technology Officer des IT-Konzerns als Buchautor und brillanter Redner erfolgreich. In seinem Blog "Daily Dueck" bürstet er nicht nur die IT-Branche gegen den Strich.

Dueck im Wortlaut: „Einem System kann man alles Mögliche beibringen. Das dauert dann halt. Ich kann auch einem Tier Kunststücke beibringen. Numerisch kann man ganz punktuell sehr vieles zumindest so halbwegs simulieren. Da kann man natürlich aus plakativen Einzelbeispielen in der Presse zu der Vorstellung kommen, dass die Maschinen bald besser als die Menschen sind – und dass man deshalb die Menschen ganz abschaffen könnte. Ich will diese technische Möglichkeit nicht völlig ausschließen.

Aus meiner Erfahrung aber kann ich sagen, dass man dazu ungeheuer viel Kultur- und Kontextwissen braucht – ob man das einem Computer so einfach beibringen kann? Zurzeit ziemlich hoffnungslos. Bei selbstlernenden Systemen handelt es sich um enorm komplexe, schwierige und aufwendige Arbeiten, damit ein solches System auch nur eine einzige Entscheidung treffen kann. Nehmen Sie etwa den Versuch, dass ein System erkennen muss, ob ein Mensch Schmerzen simuliert – da hängt eine ganze Doktorarbeit dran. Natürlich kann man einem System eine solche Befähigung einprogrammieren.

Aber ich wette, da hat jemand drei Jahre an einer Doktorarbeit geschrieben, und zwei Assistenten haben ihm die Programmierarbeit gemacht. Okay, dann kann ein Computer ‚Schmerzen erkennen‘. Aber nicht mehr. Und für jede andere Fähigkeit wieder drei Jahre Wissenschaft? Es wird eine Herkules-Arbeit. Eine Rundumfähigkeit wie die des Menschen in einem System – davon sind wir doch noch weit, weit entfernt.

Ich denke, dass ein System wie ‚Watson‘ heilen kann. Ich habe mal mit Pharmaunternehmen gesprochen und gefragt, ob man nicht alle historischen Daten von allen Zuckerkranken der Welt speichern könnte. Dann würde jeder Zuckerkranke über Mobilfunk seine aktuellen Daten kommunizieren und von ‚Watson‘ online eingestellt. Das Wissen über alle Diabetesvarianten hat ein Arzt gar nicht, er kennt nur ein paar Kranke. ‚Watson‘ würde aber alle Varianten weltweit kennen. In diesem Punkt ist ein System natürlich dem Menschen weit überlegen. Wie in vielen Settings ist es auch hier so, dass man 80 Prozent des Erfolgs relativ schnell bekommt. ‚Eliza‘ funktioniert dann ganz gut, andere Dinge auch.

Aber die anderen 20 Prozent machen exponentiell mehr Arbeit. Und dieses exponentielle Mehr an Arbeit, das wird meistens nicht berücksich-tigt. Und auch nicht, dass die Kosten dann exponenziell steigen. Bei Platon wird der Begriff ‚Arete‘ formuliert, die Vortrefflichkeit, die eine Eigenschaft von Dingen oder Menschen sein kann. Platon diskutiert, ob man höchste Vortrefflichkeit überhaupt beschreiben kann. Nein, eigentlich nicht! Platon fragt: Ist Tapferkeit lehrbar? Weisheit? Tugend?

"Kann man einem Computer ungeheur viel Kultur- und Kontextwissen beibringen? Zurzeit ziemlich hoffnungslos." Gunter Dueck
Foto: Gunter Dueck

Nein, eigentlich nicht! Oder: Kann man jemandem beibringen, charismatisch zu sein? Auch nicht wirklich. Und ich frage: Wenn das ‚Höchste‘, das Beste oder das Eigentliche nicht in Worten ausdrückbar ist, wie wäre es dann zu programmieren? ‚Watson‘ kann sicher etwas liefern, was die Nachhilfe-Management-Seminare tun, ja. Das glaube ich schon. Aber das Eigentliche, wie gesagt, kann man ja nicht einmal beschreiben. Technikverliebte glauben möglicherweise, dass der Computer sich das selbst beibringen kann. Ich glaube das nicht. Wie kann ein Computer ‚politisch‘ entscheiden?

Da stellen sich die Fragen nach den Prioritäten. Geht es nach Macht, nach Geld, nach Freundschaft, soll es kurzfristig gut für die nächste Wahl sein oder nachhaltig wirken? Was ist besser für mich, was für die Menschheit? Wie soll man so etwas programmieren? Dann gäbe es immer eindeutige Antworten. Wollen wir verschiedenen Watsons eigene Persönlichkeiten zubilligen? Oder nehmen Sie das Beispiel der Krim oder Fukushima.

Wie entscheidet man? Soll man sich Probleme mit der Gasversorgung einhandeln und hier Industrien gefährden? Wie viel Angst oder Schneid hat so ein Watson? Nach dem Unglück in Fukushima hat sich Deutschland fast augenblicklich für eine Energiewende entschieden. Was würde ein Computer sagen? Er würde doch seine Meinung nicht ändern, weil sich ja weniger die Sache als die Gefühlslage geändert hat. In solchen Situationen sind Expertensysteme hilflos, weil eine völlig neue Lage entstanden ist.“