Chancen und Risiken durch Robotik

Franz-Josef Radermacher und Gunter Dueck im Gespräch

29.09.2014
Von 
Jan-Bernd Meyer betreute als leitender Redakteur Sonderpublikationen und -projekte der COMPUTERWOCHE. Auch für die im Auftrag der Deutschen Messe AG publizierten "CeBIT News" war Meyer zuständig. Inhaltlich betreute er darüber hinaus Hardware- und Green-IT- bzw. Nachhaltigkeitsthemen sowie alles was mit politischen Hintergründen in der ITK-Szene zu tun hat.
Immer häufiger lesen wir von Robotern und Humanoiden, die "menschliche" Tätigkeiten übernehmen. Doch was bedeuten diese intelligenten Maschinen für unser tägliches Arbeiten und Leben? Wir haben zwei Wissenschaftler gefragt, die sich darüber Gedanken machen.

CW: Auf der Homepage des Forschungsinstituts für anwendungsorientierte Wissensverarbeitung (FAW/n) in Ulm steht der Satz: "Immer intelligentere Maschinen, und zukünftig immer ,menschlichere` Roboter können zwar immer nützlichere Dienstleistungen ermöglichen, zu Ende gedacht können sie aber auch unsere Arbeitsplätze gefährden, unser Privatleben ausspionieren, uns mit zugeschnittenen Konsumangeboten verfolgen und in der Wechselwirkung mit sozialen Netzen die Kapazität unseres Bewusstseins fast vollständig okkupieren." Das klingt nicht gut.

Franz-Josef Radermacher: Da haben Sie recht. Aber meine Einschätzung ist dennoch so. Wir Menschen werden immer transparenter, weil es der Arbeitgeber will, weil unsere Lieferanten und Kunden es wollen, weil der Staat es will und die Technik es liefern kann. Mittlerweile sind wir zudem mit den vielfältigen Präsenzanforderungen in softwaregestützten sozialen Netzwerken konfrontiert. Wir können teilweise nur noch dann sozial vollwertig partizipieren, wenn wir Teil eines solchen Netzes sind. Darüber entsteht sozialer Druck, in den Netzen präsent zu sein. Dort outet man sich dann und wird gläsern. Das ist ein Aspekt des von Ihnen zitierten Satzes. Ein anderer ist, dass offenbar niemand ernsthaft deutlich anonymisiertere Formen und Architekturen der Netzkommunikation und von IT-Systemen durchsetzen will, nicht einmal die EU, der das noch am ehesten gelingen könnte - und sollte, wenn man die Demokratie auf Dauer sichern will.

Franz-Josef Radermacher ist Professor für Datenbanken und Künstliche Intelligenz an der Universität Ulm, gleichzeitig Vorstand des Forschungsinstituts für anwendungsorientierte Wissensverarbeitung (FAW/n) Ulm sowie Präsident des Senats der Wirtschaft e. V. und Vizepräsident des Ökosozialen Forums Europa, Wien. Radermacher ist zudem Mitglied des Club of Rome. Er plädiert für Vorsicht bei der Entwicklung künstlich intelligenter Systeme.
Franz-Josef Radermacher ist Professor für Datenbanken und Künstliche Intelligenz an der Universität Ulm, gleichzeitig Vorstand des Forschungsinstituts für anwendungsorientierte Wissensverarbeitung (FAW/n) Ulm sowie Präsident des Senats der Wirtschaft e. V. und Vizepräsident des Ökosozialen Forums Europa, Wien. Radermacher ist zudem Mitglied des Club of Rome. Er plädiert für Vorsicht bei der Entwicklung künstlich intelligenter Systeme.
Foto: Prof. Dr. Dr. Radermacher

CW: Sind diese sozialen Netze nicht lediglich eine neue Technikplattform zur Kommunikation wie das Telefon?

Franz-Josef Radermacher: Schon beim Telefon - und da vor allem seit der Umstellung von analog auf ISDN - gab es Diskussionen und große Veränderungen. Ursprünglich war man bei der Nutzung des (damals noch analog arbeitenden) Telefons noch in hohem Maße anonym. Mit der Digitalisierung der Telefondienste erfuhr das System schon vieles über den Nutzer. Die große Veränderung in unser aller Leben besteht ja darin, dass es mittlerweile immer genauer rekonstruiert werden kann, und das zu extrem geringen Kosten.

Mit Big Data und immer leistungsfähigeren Algorithmen wird das jetzt ein gesellschaftliches Thema. Das ist ja auch der Grund, warum - um einmal ins Filmmilieu zu wechseln - das Betriebssystem Samantha in dem Film "Her" im Laufe der Zeit ein viel besseres Beschreibungsmodell von uns aufbauen kann als ein menschliches Gegenüber. Das System bekommt ja von uns viel mehr Informationen, als wir einem Gegenüber freiwillig jemals geben würden. Wir wollen ja häufig Geheimnisse vor unserem Gegenüber haben, manchmal am liebsten sogar vor uns selber. Gegen die Perfektion, die Samantha in ihrer Empathie erreicht, weil sie über die Nutzung der vielen Möglichkeiten im Bereich Big Data aus dem Alltag eines Menschen über uns sogar das weiß, was wir ihr gar nicht mitteilen wollten, kann ein anderer Mensch auf Dauer nicht ankommen.

Heute schon gibt es ein riesiges Interesse daran, die Menschen immer transparenter werden zu lassen. In dem Buch "The Circle" von Dave Eggers ist zum Schluss die ultimative Transparenz das Thema. Diese Transparenz, letztlich auch über den Zugriff auf biologische Parameter, führt dann aber zu unakzeptablen und völlig asymmetrischen Konstellationen, die für das betroffene Individuum letztlich Gewaltcharakter haben. Beziehungen auf Augenhöhe sind dann nicht mehr möglich.

In dem interessanten aktuellen Film "Transcendence" nimmt dies die Protagonistin in einer Schlüsselszene wahr, und zwar bezüglich ihres Verhältnisses zu ihrem früheren Lebensgefährten, der jetzt (nur noch) in einem Softwaresystem weiterlebt, dabei aber unglaubliche (Wissens-)Macht auf sich konzentrieren kann.

Wohin führt diese Entwicklung? Am Schluss werden wir alle erkennen, dass jeder von uns ein - wenn auch höchst komplexer, hochgradig individueller und in seinem Verhalten nicht prognostizierbarer - "Algorithmus" ist. Diesen Algorithmus werden wir in seinen Stärken, aber oft auch in seiner ganzen Armseligkeit vor uns sehen. Und natürlich auch in seinem Wandlungs- und Lernvermögen, das natürlich in individueller Weise vorhanden ist, aber ebenfalls spezifische Grenzen besitzt. Wir werden lernen, damit zu leben. Aber unser Leben wird dann ziemlich grau sein. Am Schluss müssen wir damit umgehen, dass wir uns als transparente "Maschinen" in der Dürftigkeit vieler Überlegungen, Prioritätensetzungen und Reaktionen wahrnehmen, die wir nicht mehr durch Tarnung abschirmen können. Das betrifft Charakterzüge mancher Zeitgenossen wie etwa Geiz, Neid, Aggressivität, mangelnde Empathie für die Not anderer, die wir kollektiv - und oft auch subjektiv - ablehnen, die aber von der Evolution und damit von Fragen des Überlebens her, also aus guten Gründen, in mehr oder weniger großem Umfang in uns beziehungsweise in der Mehrheit von uns stecken. Das ist keine erfreuliche Perspektive.

"Manche hoffen auf die gütige kluge Maschine." Franz-Josef Radermacher
"Manche hoffen auf die gütige kluge Maschine." Franz-Josef Radermacher
Foto: Prof. Dr. Dr. Radermacher

CW: Nun könnte man ja sagen, dass eigentlich nichts gegen einen perfekt funktionierenden Humanoiden spricht. Der versteht uns Menschen, ist lernfähig, optimiert sich ständig und kann perfekt auf uns eingehen. Wir entwickeln ja bereits erste Prototypen. Was also ist dagegen einzuwenden?

Franz-Josef Radermacher: Ich bin ein großer Fan des Films "Blade Runner", der schon sehr alt ist. Viele Menschen träumen seit diesem Film von überzeugenden Androiden. Und ich halte es für möglich, diese zu schaffen. Allerdings geht mit einer solchen Entwicklung eine große Gefahr einher: Sie droht den sozialen Zusammenhang zwischen den Menschen weitgehend aufzulösen. Das kann extrem problematisch werden.

CW: Muss das der Preis sein?

Franz-Josef Radermacher: Das wird der Preis sein, wenn wir die Perfektion immer weiter treiben. Einfach deshalb, weil die mögliche Alternative zum realen Menschen extrem attraktiv werden kann. Bislang muss sich der Mensch, der nicht allein sein will, mit einem menschlichen Gegenüber auseinandersetzen - auch mit all dessen Fehlern - und sich irgendwie arrangieren. Aus dem Miteinander und dem Kontakt entsteht manchmal Freude, manchmal Ärger, in jedem Fall aber Nähe. Wenn es den technisch perfekten Humanoiden gäbe, entfielen die beschriebenen Zwänge. Humanoide Computer werden nie böse, haben immer für uns Zeit, wenn wir es wünschen. Sie akzeptieren uns, wie wir sind. Sie werden uns anbieten, die Handlungsqualität, die wir uns zu einem bestimmten Zeitpunkt wünschen, per Knopfdruck einzustellen. Und wenn wir ihn vorübergehend abstellen, wird der Humanoide gleichfalls nicht böse sein.

CW: Um beim Film zu bleiben: In "2001 - Odyssee im Weltraum" hatte das intelligente System schon eine Lösung, um sich nicht abstellen lassen zu müssen.

Franz-Josef Radermacher: Das stimmt. Auch in "Transcendence" ist das Abstellen schwierig. Erst die Herbeiführung eines Totalkollapses des Internets (mit gravierenden materiellen Konsequenzen für unsere Zivilisation) kann in dem Film die von uns erschaffene technisch-emotionale Intelligenz noch stoppen. Diese Idee, dass es eines (temporären) Totalkollapses des Internets bedarf, um die Verhältnisse auf dem Globus in eine zukunftsfähige Richtung lenken zu können, findet sich übrigens auch in dem spannenden Science-Fiction-Roman "Xperten: Das Paranetz" des Grazer Informatikpioniers Hermann Maurer. Das sind spannende Überlegungen mit Blick auf eine Zukunft, die vielleicht gar nicht mehr so weit weg ist.

Noch ist das aber Zukunftsmusik. So weit ist es noch nicht. Wenn wir heute an solchen Systemen arbeiten und dies technisch intelligent tun, gibt es den Abstellknopf noch. Die große Frage ist aber: Was heißt das für uns Menschen, wie verändert es unsere Wahrnehmung und unser Verhalten? Wie verändert es uns selbst, und was heißt das für den sozialen Zusammenhalt? Ich habe große Sorge um das, was passieren kann. Selbst Haustiere könnten durch Maschinen ersetzt werden, wodurch ein weiteres Stück Einbettung in die Natur verloren gehen würde. Diese Entwicklung ist von einer Art und Qualität, dass ich sie, wenn ich die Macht dazu hätte, nicht zulassen würde. Allenfalls würde ich ein ganz langsames, vorsichtiges Herantasten im Kontext eines Moratoriums zu erproben erlauben. In keinem Fall würde ich solch eine Entwicklung dem Markt und konkurrenzgetriebenen wirtschaftlichen Prozessen überlassen.

Gütige kluge Maschinen?
Gütige kluge Maschinen?
Foto: jim - Fotolia.com

CW: Man kann das auch positiv sehen. Vielleicht wird es eine Zeit geben, in der Computer und Roboter so perfekt sind, dass sie besser als wir Menschen entscheiden können, was für unsere Welt und unsere Lebensumstände richtig ist.

Franz-Josef Radermacher: Vieles ist möglich. Manche verzweifeln ohnehin an unserer Politikunfähigkeit und hoffen auf die gütige kluge Maschine. In diesem Bereich ist vieles denkbar. Ich verweise hierzu auf das IBM-System "Watson" und seine unglaublichen Leistungen im Cognitive Computing. Das ist ein System, das die Generierung von Hypothesen oder Vermutungen, die beim Menschen die Basis sind für alle höheren kognitiven Prozesse, etwa das Interpretieren von Bildern oder das Verstehen von Sprache, bereits besser beherrscht als wir.

Eine solche Perspektive gefällt mir allerdings überhaupt nicht. Wir würden dann als Menschen nicht mehr das Geschehen bestimmen, sondern andere. Etwas anderes kommt hinzu. Wir Menschen haben ein emotional-hormongetriebenes Bewertungssystem. Es beinhaltet, was Philosophen als Qualia bezeichnen. Damit verbunden sind Vorstellungen von einer gerechten, gelingenden Welt, emotionale Reaktionen in Bezug auf die Frage, was richtig oder falsch ist, und die Intentionalität, sich für eine gute Welt einzusetzen. Die Maschinen, von denen wir hier reden, haben das alles nicht, sie leben nur in einer Welt der Worte, Bilder und Modelle.

Natürlich kann man die Maschinen dennoch so konstruieren, dass sie mit Intentionalität und einer annähernden Emotionalität unserer Art versehen sind. Die Qualia würde aber fehlen. Für die Annäherung würde man im Prinzip ein Ich-Modell einer Maschine mit Intentionalität bauen, das ähnlich orientiert ist wie wir. Spätestens dann aber müssen wir gesellschaftlich regeln, welche Maschinenmodelle dieses Typs erlaubt werden sollen. Wir würden wohl bestimmt kein Modell für gut befinden, das sich als Usurpator versteht.

Mit Blick auf die Zukunft sollte die Politik, wenn Vernunft der Maßstab ist, sehr enge Grenzen für solche Modelle setzen. Aber wird das so kommen? Die Machtinteressen von Menschen und Eliten können letztlich zur Folge haben, dass wir die Möglichkeiten solcher neuen Maschinen immer weiter treiben - über alle Vorsichtsgrenzen hinaus -, um sie für eigene Zwecke nutzbar zu machen. Menschen mit Macht werden also potenziell ihre jeweiligen eigenen Intentionen in Maschinen mit spezifischen Maschinen-Intentionen, zugeschnitten (zunächst) auf die verfolgten eigenen Zwecke der Machtpromotoren, ausrichten. Dann bekommen wir zum Schluss alle zuvor angedeuteten Probleme, weil einzelne Menschen es so wollen oder diese Entwicklung absichtlich oder unbeabsichtigt so befördert haben.