Gefährdet KI die Demokratie? - Interview mit Yvonne Hofstetter

"Wollt Ihr die totale Überwachung?"

28.11.2016 von Jan-Bernd Meyer
Wer mit Yvonne Hofstetter spricht, kommt leicht ins Grübeln: Eine Unternehmenslenkerin aus der Big-Data- und KI-Branche erklärt, wieso Techno-Unternehmen eine Gefahr für die Demokratie darstellen. Und sie macht im Gespräch mit der COMPUTERWOCHE klar, wieviel Big Data, Künstliche Intelligenz und selbstlernende Systeme mit Politik, Staat und Gesellschaft zu tun haben.

Wenn man es mit einer Frau zu tun bekommt, die ausgebildete Juristin und IT-Expertin ist, wird man etwas zurückhaltender. Könnte ein schwieriges Gespräch werden. Man wird hellhörig, wenn sie dann im Gespräch kritische Töne in Sachen Technikentwicklung auf dem Gebiet der IT und im Besonderen auf dem Feld der künstlichen Intelligenz anschlägt - und dies, obwohl sie Geschäftsführerin eines Unternehmens ist, das sich mit Big-Data- und KI-Lösungen beschäftigt. Wenn sie dann auch noch den regulatorischen Eingriff des Staats fordert, um dessen Bürger vor Techno-Konzernen zu schützen, die die Gesellschaften nämlich massiv verändern würden - und wenn diese Frau einem erzählt, dass sie ihre politische Sozialisation im Kloster bei den Englischen Fräulein erfuhr, weiß man: Jetzt wird es richtig spannend.

Es ist kaum nachvollziehbar, was in einem neuronalen Netz passiert

CW: Es ist ein eigenartiges Phänomen, dass die Diskussionen um Vor- und Nachteile der künstlichen Intelligenz (KI) auch bei Experten immer nur zu einem Entweder-Oder führen. Dazwischen scheint es nichts zu geben. Diejenigen, die in der KI-Entwicklung keine Probleme sehen, sagen, es seien ja die Menschen, die solche Systeme programmieren. Also habe der Mensch alles unter Kontrolle. Ergo könne von KI auch keine Gefahr ausgehen. Was sagen Sie dazu?

Hofstetter: Es sind die Menschen, die lernende Maschinen programmieren. Aber auf das, was die Maschinen dann lernen, hat der Mensch nicht mehr so viel Einfluss. Natürlich bestimmt der Programmierer die Input-Variablen in einem neuronalen Netz. Er bestimmt, wieviel Eingangsneuronen in einem neuronalen Netz vorhanden sind. Er legt die Zahl der Lagen in diesem Netz fest. Aber was dann in diesem Netz geschieht, ist für denjenigen, der die Netztopologie entwickelt, a priori erst einmal ziemlich intransparent. Wenn also ein Entwickler eine lernende Maschine programmiert, dann ist ihm nicht klar, was diese Maschine später warum lernt und was schlussendlich dabei im Output-Layer herauskommen wird. Es ist ziemlich schwer nachzuvollziehen, was in dem Netz passiert.

Zur Person:

Foto: Bertelsmann Verlag

Yvonne Hofstetter ist ausgebildete Juristin und IT-Expertin. Sie ist Geschäftsführerin des auf Big-Data- und KI-Lösungen spezialisierten Unternehmens Teramark Technologies GmbH in Zolling bei München. Sie hat zwei sehr beachtete Bücher geschrieben: Im C. Bertelsmann Verlag erschien 2014 "Sie wissen alles" - eine Abhandlung über Unternehmen wie Facebook und Google u.a., die Massendaten aller BürgerInnen auswerten und damit Profite generieren. Im September 2016 erschien ihr zweites Buch "Das Ende der Demokratie: Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt", ebenfalls erschienen im C. Bertelsmann Verlag.

Sie ist ein gern gesehener Gast bei Podiums-Diskussionen, Talkrunden, auf der Frankfurter Buchmesse und auf Veranstaltungen, die die IT im weiteren und die KI im engeren Sinn kritisch reflektieren.

Sie wohnte in ihrer Kindheit in der Nähe der DDR-Grenze und erlebte hautnah mit, was Diktatur bedeutet. Ihre Schulausbildung in einem Mädcheninternat erhielt sie bei den Englischen Fräulein. Dort genoss sie, wie sie betont, eine hervorragende politische Bildung. Sie arbeitet alle Wochenenden durch. Ihren letzten Urlaub machte sie im Jahr 2008.

CW: Kann man nicht solch einen Algorithmus einfach offenlegen, um Transparenz zu gewinnen?

Hofstetter: Wenn man solch einen von einer lernenden Maschine entwickelten Algorithmus offenlegt, wird man lediglich Gewichtungen von Neuronen, also Zahlenwerte sehen. Aber was heißt das denn dann? Wenn ich so einen Algorithmus offenlege, bekomme ich Listen über Listen von Zahlen vorgelegt. Aber was sagt mir das dann? Der Output ist nicht mehr so eindeutig verständlich, dass man sagen könnte, man habe jetzt verstanden, was der Algorithmus wirklich tut.

Yvonne Hofstetter ist Geschäftsführerin der auf Big Data und KI spezialisierten Teramark Technologies GmbH. Das wäre nicht so erwähnenswert, wenn sie nicht auch eine dezidierte Kritikerin der möglichen Auswirkungen der Digitalisierung und insbesondere der KI auf Gesellschaften wäre.
Foto: Heimo Aga

CW: In Ihrem im September 2016 erschienenen Buch "Das Ende der Demokratie: Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt" schreiben Sie, in den USA habe sich die IT-Industrie eigentlich schon abgesetzt von Staat und Gesellschaft und sich im Prinzip zum heimlichen Gesetzgeber entwickelt. Im Prinzip kopple sich so die IT vom Checks and Balances-System ab.

In diesem Zusammenhang kann man sich folgendes Szenario vorstellen: Jemand interessiert sich für die Geschichte des Islam, also bestellt er sich eine historische Abhandlung dieses Inhalts bei Amazon. Zudem ist er begeisterter Hobbygärtner und bestellt auch noch Düngemittel. Schon ist er verdächtig. Das System erkennt in dieser Kombination eine scheinbar problematische Verbindung: Islaminteressierter, der einen Bestandteil für die Herstellung von Sprengstoff bei Amazon bestellt …

KI findet Korrelationen, die völlig absurd sein können

Hofstetter: Stopp! Was Sie da beschreiben, ist klassisches, regelbasiertes Programmieren. Das ist das, was wir bislang auch schon immer getan haben in den vergangenen 30, 40, 50 Jahren. Bezugnehmend auf Ihr Beispiel: Da programmiert jemand, für den die Korrelation Islam und Düngemittel irgendwie verdächtig ist. A priori ist es aber zunächst einmal so, dass Datensammler eben Daten sammeln, Rohdaten, Messdaten.

Welche KI-Systeme schon im Einsatz sind
Facebook Big Sur
Das unter Open-Source-Lizenz stehende KI-System setzt auf die Nvidia Tesla Accelerated Computing Platform und übernimmt bei Facebook heute komplexe Aufgaben, für die früher auf Drittanbieter-Hardware zurückgegriffen werden musste.
Google RankBrains
Für Suchanfragen, die erstmalig auftauchen, soll RankBrains menschliche Schriftsprache in mathematische Vektoren übersetzen, die die Suchengine dann verarbeiten kann. Diese Form des maschinellen Lernens wird mit steigender Zahl bislang unbekannter Suchanfragen immer besser. Wissbegierige Internetnutzer trainieren das System quasi unbewusst.
Google Deepmind AlphaGo
Besiegte kürzlich den Welt- und den Europameister im asiatischen Brettspiel Go: das KI-System Alpha Go, das von Google Deepmind entworfen wurde.
SwiftKey Neural Alpha
Wer SMS schreibt, bekommt schon länger Wortvorschläge. Mit Neural Alpha will "n-gram"-Erfinder SwiftKey nun aber auch ganze Satzzusammenhänge vorhersagen und so die Texteingabe noch intuitiver machen.
Open AI
Investor und Tesla-Gründer Elon Musk erforscht in der "Open AI"-Initiative zusammen mit anderen Silicon-Valley-Vordernkern die Künstliche Intelligenz zum Wohle der Menschheit. Damit wir keine bösen Terminatoren bekommen, die uns alle versklaven wollen...
Microsoft XiaoIce
Der Microsoft-"Virtual Social Assistant" XiaoIce trägt seit Ende 2015 den Wettbericht im chinesischen Fernsehen komplett ohne menschliche Hilfe vor.
Roboter-Concierge Connie
Wenn Sie demnächst in einem Hilton absteigen, könnten Sie einem kleinen Roboter-Concierge begegnen: "Connie" arbeitet mit Watson-Technologie von IBM und steht Hotelgästen mit Rat und Tat zur Seite. Das Pilotprojekt läuft gerade in den USA.

Mit Künstlicher Intelligenz aber kommt der Qualitätssprung: Werden diese Messdaten dann nicht mehr von Menschen, sondern von einem künstlichen neuronalen Netz analysiert, passiert folgendes: Die KI findet selbst Korrelationen. Die aber können völlig absurd sein. Denn das Problem bei Massendaten ist ja, dass wir eben nicht wissen, welche Korrelationen sich darin verbergen. Wir schicken einfach einen Haufen Daten durch ein neuronales Netz und die KI findet bestimmte Korrelationen, die mehr oder weniger sinnvoll oder intuitiv sind.

Und da gibt es nun die aus dem einen Lager, insbesondere aus der Industrie und aus den großen Konzernen auch in Deutschland, aus der herstellenden Industrie, die sagen: In Zukunft können wir alle Experten abschaffen. Denn es reicht, wenn man über seinen Industrieprozess, oder über seine Kunden nur genügend Daten sammelt, die man dann mit künstlichen neuronalen Netzen auswertet. Und nur auf diese Daten - also auf die Korrelation dieser Daten - stellt man dann sein gesamtes Geschäftsmodell, seine Umsatzplanungen etc. ab. Wir nennen das "data driven thinking". In solch einem Fall überlegt man gar nicht mehr, ob Korrelationen sinnvoll sind. Dieses Lager nimmt die Analyseergebnisse kritiklos hin. Solch ein Vorgehen ist dann im Eigentlichen völlig wissenschaftsfrei.

Wissenschaftler aus dem anderen Lager aber sagen, das ist ja völliger Bogus, völliger Unsinn. Wenn die Massendatenanalyse zu spurious effects führt - also über Korrelationen täuscht -, dann braucht es gerade besonders die Industrieexpertise und die Wissenschaft, um scheinbare Effekte zu erklären oder auszuschließen. Hier sucht man nach Kausalität, nicht nach Korrelation. Kein Wissenschaftler würde sich auf Korrelationen verlassen.

Falsche Korrelationen führen zu falschen Schlussfolgerungen

CW: Können Sie mal ein Beispiel geben?

Hofstetter: Nehmen wir mal an, Sie gehen an die Börse und handeln Euro-Dollar. Jetzt findet eine KI-Maschine heraus, dass jeder 17. Kurssprung nach einer EZB-Pressekonferenz zur Geldpolitik ein Kaufsignal für die Euro-Währung war. Jetzt könnte man sich darauf verlassen und nach jedem 17. Kurssprung Euro kaufen. Jemand, der Profi ist, würde sich hier aber fragen, was das denn für eine Logik sein soll. Jeder 17. Kurssprung - was soll das sein? Die Masse an Daten, die ein KI-System für solch eine "Analyse" heranziehen würde, wäre übrigens nur verschwindend gering: Es gab nur rund 170 solcher EZB-Pressekonferenzen seit der Euroeinführung. Das sind Very Small Data. Wir reden hier nicht mal über Big Data.

Das ist eine von vielen Problematiken: Sie verlassen sich, wie an diesem Beispiel dargelegt, nur auf Daten - und dann vielleicht auch nur auf wenige. Das Problem hierbei ist: Es können völlig falsche Korrelationen auftreten, die prompt zu falschen Schlussfolgerungen führen.

CW: Sie vertreten die Ansicht, dass es heute schon KI-Systeme gibt, deren "Intelligenz" die von Menschen übertrifft. Was passiert eigentlich, wenn KI-Systeme Dinge tun, die der Mensch nicht mehr verstehen kann? Vor kurzem kam beispielsweise die Meldung, dass ein KI-System einen Verschlüsselungsalgorithmus entwickelt hat, bei dem der Mensch gar nicht mehr nachvollziehen konnte, wie der entwickelt wurde. Geht es zu weit zu sagen, dass der Mensch die Kontrolle über KI-Systeme zunehmend verlieren wird? Nehmen Sie den Milli-Sekunden-Handel an der Börse, wo der Mensch auch nicht mehr nachvollziehen kann, was die Maschine macht. Die Effekte können für betroffene Firmen aber elementar sein.

Hofstetter: Diese Börsencrashs passieren ja ständig. Schon 2013 hat ein Finanzdatenanbieter in Boston, Nanex LLC, einmal alle Daten ausgewertet, die an den elektronischen Börsen in den USA entstehen. Sie haben dabei sowohl öffentliche wie private Börsen untersucht. Nanex hat Zugriff auf sämtliche Börsendaten. Nanex hat in seiner Untersuchung festgestellt, dass es von 2006 bis 2013 etwa 18.500 ultraschnelle Mikro-Crashs gegeben hat. Solche Mikro-Crashs sind für das menschliche Auge nicht mehr wahrnehmbar. Man sieht sie nur nachträglich in einer Ex-Post-Analyse der Daten. Da kann man dann unter anderem feststellen, dass auch schon mal algorithmische Manipulationen der Märkte stattgefunden haben. Übrigens: Bei den Hochfrequenzalgorithmen handelt es sich ja noch nicht einmal um KI-Systeme. Das sind einfach sehr schnelle Maschinen, sonst nichts. Das hat gar nichts mit KI zu tun.

KI ist ja gar nicht intelligent. Oder etwa doch?

CW: Eine sehr beliebte Argumentation von Befürwortern der KI-Entwicklung lautet, dass KI- und selbstlernende Systeme gar nicht wirklich "intelligent" sind. Der Mensch könne Autofahren, Karten spielen, Philosophien entwickeln, lieben. Vor allem könne er ein Bewusstsein entwickeln. Die Maschine hingegen sei im Prinzip dumm. Sie beherrsche zwar eine Sache glänzend. Da sei sie auch viel besser als der Mensch. Aber das war’s dann auch. Geht diese Argumentation nicht in die falsche Richtung? Denn wenn eine Maschine, insbesondere ein selbstlernendes System, auch nur eine einzige Aufgabe perfekt beherrscht und die dann auch ausführt, können die Effekte ihres Tuns verheerende Folgen haben. Was meinen Sie?

Hiroshi Ishiguro schafft Roboter, die ein fast identisches Ebenbild eines lebenden Menschen abgeben. Solche künstlich-intelligenten und selbstlernenden Systeme dürften irgendwann Seite an Seite mit Menschen leben und arbeiten.
Foto: Hiroshi Ishiguro Laboratories Advanced Telecommunications Research

Hofstetter: Da muss ich Ihnen Recht geben. Übrigens, nur mal so nebenbei bemerkt: Wir reden bei dieser Diskussion ja nur über den momentanen technischen Status Quo solcher selbstlernenden Systeme, nicht über das, was in der nahen Zukunft alles möglich sein wird.

Eine autonom entscheidende Drohne muss nicht intelligent sein

Um auf die Frage zurückzukommen: Ich habe mit Hirnforschern gesprochen. Da kam gerne eben das von Ihnen angeführte Argument "Man muss vor solchen KI-Systemen keine Angst haben". Diese Maschinen seien ja nur gut in je bestimmten Aufgaben. Sie hätten auch keine kognitiven Fähigkeiten. Auf so ein Argument ist die richtige Antwort: Wenn Sie sich eine Drohne vorstellen, die autonom entscheidet, dass Sie das Ziel ihrer militärischen Operation sind und deshalb das Feuer auf Sie eröffnet, dann muss die Drohne gar nicht "intelligent" sein. Dann reicht der in der Drohne arbeitende Klassifizierungsalgorithmus aus, damit Sie vor solch einer Drohne ganz ordentlich Angst haben sollten.

Wir in der IT gehen zugegebenermaßen mit den Begriffen Intelligenz, Bewusstsein ziemlich locker um. Manche unterscheiden auch zwischen schwacher und starker Intelligenz. Und wir sagen, starke Intelligenz hat eine Art von Bewusstsein. Das würde ich sogar in gewisser Weise unterschreiben. Denn sie ist sich bewusst, dass es sie gibt. Wir nennen das self awareness. Und sie hat ein intentionales Bewusstsein. Denn KI verfolgt ein Ziel, das sie erreichen will.

So mögen zwar die Begriffe Intelligenz und Bewusstsein bei uns in der IT ziemlich locker verwendet werden. Das ändert aber nichts an einer anderen Tatsache: Die Forschung arbeitet längst daran, diese Begriffe mit mehr Fleisch zu füllen. Wir arbeiten ja in der Forschung schon längst an der allgemeinen Intelligenz. Die soll eben sehr viel mehr können, als "nur" eine einzige, spezifische Aufgabe zu lösen. Wir machen auf diesem Gebiet durchaus Fortschritte. Nehmen Sie das Beispiel von Googles Pac-Man. Da hat man ein System einfach in eine Situation gestellt. Man hat dem System gar nichts erklärt, gar nichts beigebracht.

Und dann hat man beobachtet, was das System lernt. Am Ende wusste es: Es ist Pac-Man.
Solche Beispiele sind erste Schritte hin zu einer allgemeinen Intelligenz. Bei Pac-Man hat der Mensch nicht einmal mehr die Umgebung definiert, in der sich die Software zurechtfinden muss.

Digitalisierung muss Hand in Hand mit der Gesetzgebung gehen

CW: In Ihrem Buch "Das Ende der Demokratie" fordern Sie auch, dass die Legislative Einfluss auf KI-Systeme nehmen sollte. An einer Stelle Ihres Buches diskutieren Ihre Protagonisten, dass durch die Digitalisierung der Alltag sehr komplex wird. Aber diesen komplexen Alltag könne man ja regeln. Das gipfelt in dem Satz, dass Digitalisierung "Hand in Hand mit der Gesetzgebung" vorgehen könnte. Was meinen Sie damit?

Hofstetter: Wenn Sie an die juristischen Fakultäten gehen, werden Sie sehen, dass derlei Themen gerade heiß diskutiert werden. Verfassungsrechtler haben sehr genau mitbekommen, was technisch im Moment vor sich geht. Und diese Juristen ringen um Lösungen, um dieser Situation Herr zu werden.

Das 21. Jahrhundert gibt uns neue Optionen: Man kann etwa den klassischen Weg des geschriebenen Rechts gehen und die Digitalisierung gestalten. Hierbei muss eins ganz deutlich gesagt werden: All die Gerätschaft, die wir heute mit uns herumtragen und deren Apps wir nutzen, sind Produkte aus dem Silicon Valley. Sie kommen von Pinterest, Google, Apple, Facebook etc. etc. Diese Produkte entstammen damit einem geografischen Raum mit einem anderen Verfassungs- und Rechtsverständnis, als wir es hier kennen. Für Amerikaner ist es wichtig, nicht reguliert zu werden, freien Handel zu haben - siehe TTIP. Liberty ist das Verständnis der Amerikaner. Unser europäisches Verfassungsverständnis ist da komplett anders. Bei uns ist die Menschenwürde absolut zentral. Unser Verfassungsverständnis geht vom freien, souveränen Menschen aus, nicht vom deregulierten Markt.

Diese beiden Konzepte sind nicht zur Deckung zu bringen. Freie Märkte schränken die Souveränität des Menschen ein. Sie machen den Menschen zur Ware. Sie nutzen seine Arbeitskraft sowohl auf den heimischen Märkten als auch überall in der Welt aus. Wenn aber Menschen in prekären Verhältnissen arbeiten müssen, schränkt dieser globalisierte, freie und nicht regulierte Handel die Möglichkeiten des Menschen ein. Deshalb ist die soziale Marktwirtschaft ein so attraktives Konzept.

Und jetzt stellen Sie sich einmal folgende Frage: Wer hat in den letzten zehn, 15 Jahren die Gesellschaften radikal umgestaltet? Das war nicht die Politik. Und damit auch nicht der Souverän, also das Volk. Das wählt ja seine Politiker und erteilt ihnen den Auftrag, an seiner Stelle die Gesellschaft zu gestalten und über Gesetze weiter zu entwickeln. Das Volk gibt also Macht an den Politiker ab, damit der im Auftrag des Souveräns die Gesellschaft gestaltet.

Techno-Konzerne gestalten Gesellschaften um

Wenn Sie nun einmal sehen, wer seit 2007, seit dem Aufkommen von Smartphones also, die Gesellschaft gestaltet, dann werden Sie feststellen, dass das nicht unsere Politiker gewesen sind. Das sind vielmehr Techno-Konzerne. Das sind die Googles, die Amazons, die Apples dieser Welt. Deren Produkte sammeln Messdaten über uns alle. Und über diesen Weg der massiven Datensammlung gestaltet sich die Gesellschaft elementar um. Seitdem kommunizieren wir anders. Wir daten uns anders. Wir haben so etwas wie Shared Economy. Und, und, und. Demokratisch beschlossen wurde das aber alles nicht. Niemand hat jemals gefragt, ob wir das alles wollen. Wollt Ihr die totale Überwachung? Die totale Überwachung ist eine Idee der Konzerne, der Wirtschaftsakteure und ihrer Investoren. Denn mit Überwachung und Datensammelei lassen sich Milliarden verdienen.

Und mit dem Internet der Dinge kommen da ja noch ganz andere Entwicklungen auf uns zu - wenn nämlich die ganze Welt vollgestopft wird mit Sensorik. Jedes Gerät, das ich nutze, bekommt eine IP-Adresse. Jeder Sensor im Kühlschrank, an der Heizung, im Fernseher nimmt unser Leben, unser Verhalten wahr und kommuniziert es weiter. Das ist doch gruselig. Für all das gibt es keine Regelung.

CW: Aber es gibt ja schon eine Protestbewegung in der Bevölkerung nicht nur in Deutschland, die gegen bestimmte Entwicklungen demonstriert.

Diktatur der Konzerne ist bei der Digitalisierung besonders deutlich

Hofstetter: Schon. Aber komischerweise gehen in Europa und insbesondere in Deutschland die Menschen einerseits gegen TTIP auf die Straße, weil sie gegen Schiedsgerichte, gegen die Aufweichung von Umweltstandards, gegen die Deregulierung von Arbeitsstandards sind. Und es wird moniert, dass sich hier eine Diktatur der Konzerne entwickelt. Andererseits sagen das aber die Menschen bei der Digitalisierung nicht. Dabei ist aber die Diktatur der Konzerne hier besonders deutlich. Und bei dieser Diktatur der Konzerne aus dem Silicon Valley machen wir einfach mit. Wir legitimieren soziologisch, nicht normativ. Nicht auf dem Weg des Gesetzes, sondern einfach durch unser Verhalten. Wir machen mit und fügen so selbst unseren Freiheitsrechten und unserer Demokratie, die genau darauf aufbaut, faktisch Schaden zu.

Es ist also der Silicon-Valley-Prinzip-Kapitalismus, der in unsere Freiheitsrechte eingreift. Und da sollten sich Politiker fragen: "Was mache ich jetzt?" Der Politiker hat den Auftrag, die Gesellschaft zu gestalten, nicht die Technologiegiganten. Und da kommt ganz selbstverständlich unter anderem die Fragen auf, ob Geschäftsmodelle erlaubt sein sollten, beispielsweise ein Haus mit lauter Spionen vollzustopfen, die mich dann überwachen.

Wie also gehe ich mit der digitalen Entwicklung um? Ein Weg ist der des Rechts. Als examinierte Juristin - ich bin ja nicht nur Technikerin - sage ich, das Recht muss leisten, was es leisten kann. Das heißt: Hier muss der politische Wille bestehen, diesen neuen Markt zu regulieren. Reguliert werden muss der Kapitalismus in seiner neuesten Erscheinungsform, der des Informations- und Überwachungskapitalismus‘. In Zeiten des Überwachungskapitalismus muss beantwortet werden, wie man etwa Grundrechte stärkt. Es muss beantwortet werden, ob die amerikanischen Vorstellungen von Kapitalismus in Europa gestattet werden sollen und ob jedes Geschäftsmodell erlaubt sein soll.

CW: Was schwebt Ihnen da vor?

Hofstetter: Wenn ich etwa den Code für digitale Angebote und Geräte selbst unter Kontrolle hätte, könnte ich beispielsweise dafür sorgen, dass der Code selbst die Rechte der Menschen schützt. Besser könnte er werden, wenn in ihm unsere Vorstellungen von Menschenrechten, unsere Sicht auf Menschenwürde etc. berücksichtigt, also codifiziert werden müssten. Wir nennen das Values-by-Design oder Ethics-by-Design.

Solche Fragen werden im Austausch mit Technologen sehr intensiv an den juristischen Fakultäten diskutiert. Dort wird um das gerungen, was wir als Umgebungsrecht bezeichnen. Zur Erklärung: All die Daten, die durch die Vernetzung im Internet von uns entstehen und die ausgewertet werden, bezeichnen wir als Umgebungsintelligenz, ambient intelligence. Und dem setzen wir das Umgebungsrecht entgegen. Das bedeutet, dass wir bestimmte unveräußerliche Rechte in unserer Gesetzgebung auch direkt im Software-Code berücksichtigen müssen.

CW: Über diese Art der Diskussion liest man übrigens sehr wenig.

Hofstetter: Das ist natürlich momentan noch sehr akademisch. Aber das kommt jetzt langsam.

Die Politik knickt vor der Wirtschaft ein

CW: Sie reden auch mit Politikern. Wenn Sie diese Themen anbringen, wimmeln die dann ab?

Hofstetter: Nicht auf EU-Ebene. Aber in Berlin sehe ich, dass sich eigentlich nur Bündnis90/die Grünen intensiv mit diesen Themen beschäftigen. Ich habe das Gefühl, dass in Deutschland nicht unbedingt der politische Wille vorhanden ist, in diesen Fragen etwas zu tun. Die Politik knickt vor der Wirtschaft ein.

CW: Warum ist das so?

Hofstetter: Weil hier das Credo des Wirtschaftswachstums herrscht. Hier gilt das Prinzip der marktkonformen Demokratie. Ein Begriff, der Angela Merkel in den Mund gelegt wurde, obwohl sie es nie so gesagt hat. Schauen Sie sich Bayern an: Beim letzten CSU-Parteitag war von Digitalisierung praktisch nicht die Rede. Da heißt es: Lass das doch die Konzerne machen, also etwa Siemens, BMW, Audi. Jetzt hat man auch IBM nach München geholt (IBM hat seine weltweiten Watson-Entwicklungsaktivitäten konzentriert in den Münchner Norden, Anm.d.Red.). Da werden doch Arbeitsplätze geschaffen, heißt es dann. Die Themen gesellschaftlicher Gestaltung, über die wir hier diskutieren, überlässt man so völlig den Konzernen.

Nehmen Sie das Thema Standardisierung bei der Kommunikation, der Übertragung der Daten im Internet of Things. Solche Kommunikationsstandards müssten doch vergesellschaftet werden. Die nötigen Standards müssten gesellschaftlich vereinbart und verabschiedet werden. Diese Standards müssen der Gesellschaft gehören, denn es geht hier ja um unsere Daten. Und was macht die Politik? Sie sagt: "Lasst das doch mal die Konzerne machen. Die können das besser." Oder was immer die Begründung ist. Das halte ich für grundsätzlich falsch. Dann ist doch klar, wo die Sache hinläuft.

Ich bin jetzt seit 19 Jahren in der IT-Branche und mir macht das total Spaß, insbesondere die KI-Aspekte. Aber ich kann eben die juristischen Implikationen nicht hintanstellen. Ich würde mir wünschen, dass auch die Techniker ihre gesellschaftliche Verantwortung mehr auf dem Schirm haben. Sie lehnen sich zu oft zurück und verweisen auf die Freiheit der Forschung. Sie wollen immer bessere Fachexperten werden, dabei müssten sie auch verstehen, dass sie eine juristische, eine gesellschaftliche Verantwortung haben mit dem, was sie da entwickeln. Techniker sind doch auch Teil der Gesellschaft. Da sollten sie sich schon bewusst machen, was sie entwickeln.

"Wir brauchen kein Moratorium"

CW: Es gibt eine ganze Menge intelligenter Menschen mit Fachwissen auf dem Gebiet der IT und insbesondere der KI, die die momentane Entwicklung kritisch sehen und die deshalb ein Moratorium für die KI-Forschung in die Diskussion bringen. Was halten Sie davon?

Hofstetter: Ich schreibe in meinem Buch, dass wir uns immer mehr von der Natur entfernen, indem wir uns technisch immer weiterentwickeln. Das gehört zum Menschensein dazu. Technologieentwicklung ist eine menschliche Kulturleistung, die man nicht einfach stoppen kann. Wir brauchen kein Moratorium. Aber wir sollten gestaltend eingreifen als Gesellschaft. Und das eben auf den zwei angesprochenen Wegen: Stärkung des Rechts und Berücksichtigung unserer unveräußerlichen Werte.

CW: Man kann zudem ja auch ins Feld führen, dass es eine Menge Beispiele gibt, die zeigen, dass heute schon KI-Systeme sehr gute Arbeit leisten. Sei es in der Onkologie-Forschung, sei es in der Paartherapie, sei es bei der Beantwortung von Routine-Mails in Versicherungen etc. etc.

Hofstetter: Ja klar, all diese Beispiele gibt es. Und das ist auch gut. Und ja, solche Systeme können besser als ein Arzt gewisse Symptome erkennen und einordnen. Schon richtig. Das hat Vorteile. Und wir halten mit den neuen Technologien auch unsere Wirtschaft am Laufen. Wenn wir schon diesem Paradigma des Wirtschaftswachstums anhängen - womit ich übrigens meine Probleme habe -, dann kann man für die nächste Zeit schon Wirtschaftswachstum in diesem neuen Markt generieren. Da gibt es durchaus Vorteile für eine Gesellschaft. Das sollte man auch nicht stoppen.

Lasst ruhig Drohnen fliegen. Trifft schon immer einen Richtigen.

Aber man kann ja für andere Dinge sehr wohl einen Bann aussprechen: Denken Sie an autonom agierende Digitalwaffensysteme. Das sollte international verhandelt werden. Chemiewaffen- oder Atomwaffenabkommen zeigen ja, dass man derlei international gültige Abkommen schließen kann. Aber dazu braucht es auch ein entsprechendes Bewusstsein in der Bevölkerung. Solange man hier denkt, sollen doch die Amerikaner ihre Drohnen ruhig nach Afghanistan fliegen, da wird es schon immer einen Richtigen treffen, so lange ändert sich nichts. Das ist natürlich eine völlig falsche Haltung.

CW: Ein anderes großes Thema im Zusammenhang mit der Entwicklung von KI- und Robotik-Systemen hat zu tun mit den Arbeitsplätzen, genauer den massiven Arbeitsplatzverlusten. Die Oxford-Wissenschaftler Osborne und Frey hatten die Diskussion 2013 bereits angezettelt. Sie prognostizieren massive Arbeitsplatzverluste nicht nur bei den Blue-Collar-Jobs, sondern auch bei den Weiße-Kragen-Professionen. Eine Studie des World Economic Forum (WEF) von Anfang 2016 äußert sich ähnlich. Die Bank of America Merrill Lynch sieht mit der Robotik-Revolution erhebliche Arbeitsplatzverluste heraufziehen. Das McKinsey Global Institute rechnete vor, dass durch den Einsatz disruptiver Techniken neun Billionen Dollar an Arbeitskosten eingespart werden können. Diese Reihe ließe sich fortsetzen.

Professor Neil Jacobstein, Professor für KI und Robotik an der US-Elite-Universität Stanford, fragt sich in punkto Arbeitsplatzverlusten beziehungsweise neu zu schaffender Jobs durch die digitale Entwicklung, "wie sich Zerstörung und Aufbau die Waage halten".
Foto: ECO Media/ZDF.de

Hier aber argumentieren die Befürworter der Digitalisierung und der KI, dass es schon immer so war, das neue Techniken alte Jobs zerstört, dafür aber jede Menge neue Arten von Tätigkeiten geschaffen haben. Allerdings gibt es mittlerweile auch kritische Stimmen, die sagen, erstmals in der Geschichte könnte diese Rechnung nicht mehr aufgehen. Ebenfalls das WEF diskutierte deshalb das Thema bedingungsloses Grundeinkommen. Da sind wir wieder bei Ihrer Forderung, dass die Politik solche Probleme zu lösen hat.

Hofstetter: Ganz richtig. Ich halte das Problem der Arbeitsplätze und deren Verlust für ein großes. Deshalb wird das auch auf so hohem gesellschaftlichen Level diskutiert. Das wird übrigens auch im Silicon Valley thematisiert. Denn der Anteil des Kapitals an der Produktivität ist ja heute schon viel höher als der menschlicher Arbeit.

Die Angst: Leute machen mit Mistgabeln auf der Straße Revolution

Die Schere zwischen Kapital und Arbeit öffnet sich seit den 70er Jahren des vorigen Jahrhunderts. Das fällt eben nicht zufällig mit dem Siegeszug des Mikroprozessors zusammen. Das macht vielen Menschen Sorge - übrigens einschließlich der Kapitalmarktakteure. Investoren haben inzwischen Angst, dass die Leute wieder mit der Mistgabel auf die Straße gehen und Revolution machen, weil sie keine Arbeit mehr haben. Und das nicht zu Unrecht. Weil viele Arbeiten wegfallen werden.

Warum ist das so? Weil wir heute eine völlig andere Art von Maschinen entwickeln. Brynjolfsson spricht vom zweiten Maschinenzeitalter (Erik Brynjolfsson und sein Kollege Andrew McAfee vom Massachusetts Institute of Technology (MIT) in ihrem Bestseller "The Second Machine Age", Anm.d.Red.). Heute können Maschinen Dinge, die sie nie zuvor konnten. Diese Maschinen können uns verstehen, sie können denken, sie können Entscheidungen treffen. Sie können sehen, sie können sich bewegen, können Texte übersetzen oder gleich selbst schreiben. Sie sind mobil, sie sind unabhängig. Sie arbeiten asynchron. Das sind nicht mehr nur Werkzeuge, bei denen wir sagen können "Da schalte ich eben die Maschine aus" und dann steht das Werkzeug still. Heute reden wir von Maschinen, mit denen wir uns den Planeten teilen müssen. Wir haben uns ganz neue Maschinen geschaffen, ganz neue Kreaturen. Diese Maschinen sind ja in gewisser Weise Klone von uns. Und sie machen Arbeiten, die dann für den Menschen wegfallen.

Seit ich in der IT arbeite, beschäftige ich mich die allermeiste Zeit mit den Finanzmärkten. Ich habe um das Jahr 2000 die Voice-Broker mit den zwischen Ohr und Schultern geklemmten Telefonhörern - das sind die Vermittler zwischen Käufer und Verkäufer - aus dem Markt gehen sehen. Die sind durch die Automatisierung und Onlinebroker weggefegt worden. Und vor zehn Jahren habe ich gesagt, die nächsten, die gehen, sind die Börsenhändler. Das sind die, die die Entscheidungen treffen über den gesamten Aktienkauf- und Verkaufsprozess - also die Käufer und Verkäufer selbst. Diesen Punkt haben wir heute bereits erreicht. Die Händler, die ich kenne - insbesondere die im Währungsbereich -, haben alle keine Arbeit mehr. An ihrer Stelle entscheiden Maschinen.

"All die Menschen sind raus aus dem Job"

Regulierungsbehörden wie etwa die schweizerische FINMA machen es sogar zur Auflage, diese Bereiche komplett zu automatisieren. Warum? Weil Banken in Betrugsskandale verwickelt waren. Unlautere Absprachen von Fixingkursen, Zinsmanipulationen - das tun Maschinen nicht. Die Schweizerische Finanzaufsichtsbehörde hat der UBS aufgegeben, 95 Prozent des Währungshandels komplett zu automatisieren. Jetzt treffen Maschinen die Entscheidung, wie bepreist wird. All die Menschen, die da vorher tätig waren, sind raus aus dem Job. Und die finden auch so schnell nichts mehr. Alle die Bank Trader, die ich kenne, haben keine Arbeit mehr gefunden.

Wissenschaftler wie Michael Osborne und Carl Frey, aber etwa auch das World Economic Forum rechnen vor, dass durch die Digitalisierung, Automatisierung und Roboterisierung der Arbeitswelt millionenfach Arbeitsplätze verschwinden. Andere glauben, dass durch neue Techniken auch neue Jobs entstehen.
Foto: Everett Historical/shutterstock.com

Das aber ist ein Problem: Der Staat bezieht einen ganz wesentlichen Anteil seiner Steuereinnahmen aus der Lohn- und Einkommenssteuer. Zudem zahlen Menschen Beiträge in die Sozialversicherung ein. Dabei geht man aber stillschweigend von einer in Lohn und Brot stehenden Bevölkerung aus. Bei den heutigen technischen Entwicklungen, die wir erleben, muss man sich also ziemlich schnell etwas einfallen lassen, muss beispielsweise am Steuerrecht etwas ändern.

CW: Was würde Ihnen da einfallen?

Hofstetter: Ich muss das Kapital und die Kapitalsubstitute - Maschinen etwa substituieren Kapital - auf eine andere Art besteuern, als ich das heute tue.

CW: In dem Zusammenhang: In einem Artikel in der FAZ wurde diskutiert, wenn man die Automatisierungseffekte auf gesellschaftlicher Ebene betrachte, entstünde ein Bild, das die Grundannahmen der Demokratien in Frage stellt. Das einzig verbleibende relevante Produktionsmittel sei Kapital. Das aber habe Folgen: Wer in moderne Maschinen und Software investieren könne, streicht im derzeitigen System den Mehrwert aus deren Produktivität ein. Übrigens etwas, das Andrew Keen in seinem Buch "Das digitale Debakel" kritisiert. Wenn man nun aber sieht, dass Unternehmen wie Google und Facebook bereits heftig in Robotik-Forschung, KI-Entwicklung etc. investieren, dass immer mehr Firmen auf die automatisierte Produktion setzen, dann bleibt festzuhalten: Wir haben die Probleme doch schon.

Wer in moderne Maschinen und Software investieren kann, streicht im derzeitigen System den Mehrwert aus deren Produktivität ein. Sahra Wagenknecht, die gemeinsam mit Dietmar Bartsch den Fraktionsvorsitz der Partei DIE LINKE bekleidet, sagt: "Das hat schon Karl Marx beschrieben." Zu den Unternehmen, die massiv Kapital in die Entwicklung von KI-Systemen investieren können, gehört sicherlich Google. Das Unternehmen investiert bei weitem nicht nur in selbstfahrende Autos.
Foto: Martial Red - shutterstock.com

Hofstetter: Genauso ist es. Wir haben diese Probleme schon. Auch in vielerlei anderer Hinsicht. Nehmen Sie etwa das Beispiel, dass heute schon Systeme Zensur betreiben. Facebook etwa: Das Unternehmen zensiert ein berühmtes Foto aus dem Vietnamkrieg, weil es ein schreiendes nacktes Kind zeigt. Der Facebook-Algorithmus hat dabei alles richtig gemacht und das Foto eines nackten Menschen, eines kleinen Kindes zumal, gesperrt. Aber der Mensch hat einen anderen Zugang zu solch einem Foto, er besitzt einen umfassenderen, anderen Kontext.

Algorithmen greifen in die Meinungsbildung des Menschen ein

Im Ergebnis wird in einem Fall wie diesem massiv in die Meinungsbildung der Menschen eingegriffen, wenn nämlich ein hochdekoriertes Foto aus dem Vietnamkrieg plötzlich von einem Algorithmus zensiert wird. Ich als Betrachter habe den Kontext Vietnamkrieg, Napalmangriff, fliehende Menschen. Diesen Kontext hat das System, der Algorithmus, aber nicht. Und ich denke, den werden Algorithmen auf absehbare Zeit auch nicht herstellen können.

Das hat auch etwas Positives: Ich weiß gar nicht, ob wir in die Lage kommen können, dass uns die Maschinen einmal beherrschen. Denn wir Menschen haben auch in punkto soziale Intelligenz, Bewusstsein und Erkenntnis noch eine Menge mehr vorzuweisen.

CW: Was also würden Sie empfehlen?

Hofstetter: Wir Menschen müssen unsere menschlichen Stärken gegenüber diesen Maschinen mehr herausarbeiten. Da kommen wir durchaus auch auf nichtstoffliche Dinge wie Glauben, Freundschaft, Demokratie etc. Wenn ich hingegen den Menschen ganz im Sinne des Naturalismus nur noch in Zahlen und Daten definiere, ihn also auf einen Datenhaufen reduziere, dann setze ich ihn ja erst in Konflikt mit diesen Werten. Denn wir sind so viel mehr als Zahlen und Daten. Das ist die große gesellschaftliche Herausforderung des 21. Jahrhunderts: das wir es schaffen, die wissenschaftliche Vernunft wieder mit den immateriellen Wirklichkeiten des menschlichen Geistes zu versöhnen. Dann kann auch die Digitalisierung human werden.