Gefährdet KI die Demokratie? - Interview mit Yvonne Hofstetter

"Wollt Ihr die totale Überwachung?"

28.11.2016
Von 
Jan-Bernd Meyer betreute als leitender Redakteur Sonderpublikationen und -projekte der COMPUTERWOCHE. Auch für die im Auftrag der Deutschen Messe AG publizierten "CeBIT News" war Meyer zuständig. Inhaltlich betreute er darüber hinaus Hardware- und Green-IT- bzw. Nachhaltigkeitsthemen sowie alles was mit politischen Hintergründen in der ITK-Szene zu tun hat.

Falsche Korrelationen führen zu falschen Schlussfolgerungen

CW: Können Sie mal ein Beispiel geben?

Hofstetter: Nehmen wir mal an, Sie gehen an die Börse und handeln Euro-Dollar. Jetzt findet eine KI-Maschine heraus, dass jeder 17. Kurssprung nach einer EZB-Pressekonferenz zur Geldpolitik ein Kaufsignal für die Euro-Währung war. Jetzt könnte man sich darauf verlassen und nach jedem 17. Kurssprung Euro kaufen. Jemand, der Profi ist, würde sich hier aber fragen, was das denn für eine Logik sein soll. Jeder 17. Kurssprung - was soll das sein? Die Masse an Daten, die ein KI-System für solch eine "Analyse" heranziehen würde, wäre übrigens nur verschwindend gering: Es gab nur rund 170 solcher EZB-Pressekonferenzen seit der Euroeinführung. Das sind Very Small Data. Wir reden hier nicht mal über Big Data.

Das ist eine von vielen Problematiken: Sie verlassen sich, wie an diesem Beispiel dargelegt, nur auf Daten - und dann vielleicht auch nur auf wenige. Das Problem hierbei ist: Es können völlig falsche Korrelationen auftreten, die prompt zu falschen Schlussfolgerungen führen.

CW: Sie vertreten die Ansicht, dass es heute schon KI-Systeme gibt, deren "Intelligenz" die von Menschen übertrifft. Was passiert eigentlich, wenn KI-Systeme Dinge tun, die der Mensch nicht mehr verstehen kann? Vor kurzem kam beispielsweise die Meldung, dass ein KI-System einen Verschlüsselungsalgorithmus entwickelt hat, bei dem der Mensch gar nicht mehr nachvollziehen konnte, wie der entwickelt wurde. Geht es zu weit zu sagen, dass der Mensch die Kontrolle über KI-Systeme zunehmend verlieren wird? Nehmen Sie den Milli-Sekunden-Handel an der Börse, wo der Mensch auch nicht mehr nachvollziehen kann, was die Maschine macht. Die Effekte können für betroffene Firmen aber elementar sein.

Hofstetter: Diese Börsencrashs passieren ja ständig. Schon 2013 hat ein Finanzdatenanbieter in Boston, Nanex LLC, einmal alle Daten ausgewertet, die an den elektronischen Börsen in den USA entstehen. Sie haben dabei sowohl öffentliche wie private Börsen untersucht. Nanex hat Zugriff auf sämtliche Börsendaten. Nanex hat in seiner Untersuchung festgestellt, dass es von 2006 bis 2013 etwa 18.500 ultraschnelle Mikro-Crashs gegeben hat. Solche Mikro-Crashs sind für das menschliche Auge nicht mehr wahrnehmbar. Man sieht sie nur nachträglich in einer Ex-Post-Analyse der Daten. Da kann man dann unter anderem feststellen, dass auch schon mal algorithmische Manipulationen der Märkte stattgefunden haben. Übrigens: Bei den Hochfrequenzalgorithmen handelt es sich ja noch nicht einmal um KI-Systeme. Das sind einfach sehr schnelle Maschinen, sonst nichts. Das hat gar nichts mit KI zu tun.

KI ist ja gar nicht intelligent. Oder etwa doch?

CW: Eine sehr beliebte Argumentation von Befürwortern der KI-Entwicklung lautet, dass KI- und selbstlernende Systeme gar nicht wirklich "intelligent" sind. Der Mensch könne Autofahren, Karten spielen, Philosophien entwickeln, lieben. Vor allem könne er ein Bewusstsein entwickeln. Die Maschine hingegen sei im Prinzip dumm. Sie beherrsche zwar eine Sache glänzend. Da sei sie auch viel besser als der Mensch. Aber das war’s dann auch. Geht diese Argumentation nicht in die falsche Richtung? Denn wenn eine Maschine, insbesondere ein selbstlernendes System, auch nur eine einzige Aufgabe perfekt beherrscht und die dann auch ausführt, können die Effekte ihres Tuns verheerende Folgen haben. Was meinen Sie?

Hiroshi Ishiguro schafft Roboter, die ein fast identisches Ebenbild eines lebenden Menschen abgeben. Solche künstlich-intelligenten und selbstlernenden Systeme dürften irgendwann Seite an Seite mit Menschen leben und arbeiten.
Hiroshi Ishiguro schafft Roboter, die ein fast identisches Ebenbild eines lebenden Menschen abgeben. Solche künstlich-intelligenten und selbstlernenden Systeme dürften irgendwann Seite an Seite mit Menschen leben und arbeiten.
Foto: Hiroshi Ishiguro Laboratories Advanced Telecommunications Research

Hofstetter: Da muss ich Ihnen Recht geben. Übrigens, nur mal so nebenbei bemerkt: Wir reden bei dieser Diskussion ja nur über den momentanen technischen Status Quo solcher selbstlernenden Systeme, nicht über das, was in der nahen Zukunft alles möglich sein wird.

Eine autonom entscheidende Drohne muss nicht intelligent sein

Um auf die Frage zurückzukommen: Ich habe mit Hirnforschern gesprochen. Da kam gerne eben das von Ihnen angeführte Argument "Man muss vor solchen KI-Systemen keine Angst haben". Diese Maschinen seien ja nur gut in je bestimmten Aufgaben. Sie hätten auch keine kognitiven Fähigkeiten. Auf so ein Argument ist die richtige Antwort: Wenn Sie sich eine Drohne vorstellen, die autonom entscheidet, dass Sie das Ziel ihrer militärischen Operation sind und deshalb das Feuer auf Sie eröffnet, dann muss die Drohne gar nicht "intelligent" sein. Dann reicht der in der Drohne arbeitende Klassifizierungsalgorithmus aus, damit Sie vor solch einer Drohne ganz ordentlich Angst haben sollten.

Wir in der IT gehen zugegebenermaßen mit den Begriffen Intelligenz, Bewusstsein ziemlich locker um. Manche unterscheiden auch zwischen schwacher und starker Intelligenz. Und wir sagen, starke Intelligenz hat eine Art von Bewusstsein. Das würde ich sogar in gewisser Weise unterschreiben. Denn sie ist sich bewusst, dass es sie gibt. Wir nennen das self awareness. Und sie hat ein intentionales Bewusstsein. Denn KI verfolgt ein Ziel, das sie erreichen will.

So mögen zwar die Begriffe Intelligenz und Bewusstsein bei uns in der IT ziemlich locker verwendet werden. Das ändert aber nichts an einer anderen Tatsache: Die Forschung arbeitet längst daran, diese Begriffe mit mehr Fleisch zu füllen. Wir arbeiten ja in der Forschung schon längst an der allgemeinen Intelligenz. Die soll eben sehr viel mehr können, als "nur" eine einzige, spezifische Aufgabe zu lösen. Wir machen auf diesem Gebiet durchaus Fortschritte. Nehmen Sie das Beispiel von Googles Pac-Man. Da hat man ein System einfach in eine Situation gestellt. Man hat dem System gar nichts erklärt, gar nichts beigebracht.

Und dann hat man beobachtet, was das System lernt. Am Ende wusste es: Es ist Pac-Man.
Solche Beispiele sind erste Schritte hin zu einer allgemeinen Intelligenz. Bei Pac-Man hat der Mensch nicht einmal mehr die Umgebung definiert, in der sich die Software zurechtfinden muss.