Gefährdet KI die Demokratie? - Interview mit Yvonne Hofstetter

"Wollt Ihr die totale Überwachung?"

Jan-Bernd Meyer betreut als leitender Redakteur Sonderpublikationen und -projekte der COMPUTERWOCHE. Auch für die im Auftrag der Deutschen Messe AG publizierten "CeBIT News" ist Meyer zuständig. Inhaltlich betreut er darüber hinaus Hardware- und Green-IT- bzw. Nachhaltigkeitsthemen sowie alles was mit politischen Hintergründen in der ITK-Szene zu tun hat.   
Wer mit Yvonne Hofstetter spricht, kommt leicht ins Grübeln: Eine Unternehmenslenkerin aus der Big-Data- und KI-Branche erklärt, wieso Techno-Unternehmen eine Gefahr für die Demokratie darstellen. Und sie macht im Gespräch mit der COMPUTERWOCHE klar, wieviel Big Data, Künstliche Intelligenz und selbstlernende Systeme mit Politik, Staat und Gesellschaft zu tun haben.

Wenn man es mit einer Frau zu tun bekommt, die ausgebildete Juristin und IT-Expertin ist, wird man etwas zurückhaltender. Könnte ein schwieriges Gespräch werden. Man wird hellhörig, wenn sie dann im Gespräch kritische Töne in Sachen Technikentwicklung auf dem Gebiet der IT und im Besonderen auf dem Feld der künstlichen Intelligenz anschlägt - und dies, obwohl sie Geschäftsführerin eines Unternehmens ist, das sich mit Big-Data- und KI-Lösungen beschäftigt. Wenn sie dann auch noch den regulatorischen Eingriff des Staats fordert, um dessen Bürger vor Techno-Konzernen zu schützen, die die Gesellschaften nämlich massiv verändern würden - und wenn diese Frau einem erzählt, dass sie ihre politische Sozialisation im Kloster bei den Englischen Fräulein erfuhr, weiß man: Jetzt wird es richtig spannend.

Es ist kaum nachvollziehbar, was in einem neuronalen Netz passiert

CW: Es ist ein eigenartiges Phänomen, dass die Diskussionen um Vor- und Nachteile der künstlichen Intelligenz (KI) auch bei Experten immer nur zu einem Entweder-Oder führen. Dazwischen scheint es nichts zu geben. Diejenigen, die in der KI-Entwicklung keine Probleme sehen, sagen, es seien ja die Menschen, die solche Systeme programmieren. Also habe der Mensch alles unter Kontrolle. Ergo könne von KI auch keine Gefahr ausgehen. Was sagen Sie dazu?

Hofstetter: Es sind die Menschen, die lernende Maschinen programmieren. Aber auf das, was die Maschinen dann lernen, hat der Mensch nicht mehr so viel Einfluss. Natürlich bestimmt der Programmierer die Input-Variablen in einem neuronalen Netz. Er bestimmt, wieviel Eingangsneuronen in einem neuronalen Netz vorhanden sind. Er legt die Zahl der Lagen in diesem Netz fest. Aber was dann in diesem Netz geschieht, ist für denjenigen, der die Netztopologie entwickelt, a priori erst einmal ziemlich intransparent. Wenn also ein Entwickler eine lernende Maschine programmiert, dann ist ihm nicht klar, was diese Maschine später warum lernt und was schlussendlich dabei im Output-Layer herauskommen wird. Es ist ziemlich schwer nachzuvollziehen, was in dem Netz passiert.

Zur Person:

Foto: Bertelsmann Verlag

Yvonne Hofstetter ist ausgebildete Juristin und IT-Expertin. Sie ist Geschäftsführerin des auf Big-Data- und KI-Lösungen spezialisierten Unternehmens Teramark Technologies GmbH in Zolling bei München. Sie hat zwei sehr beachtete Bücher geschrieben: Im C. Bertelsmann Verlag erschien 2014 "Sie wissen alles" - eine Abhandlung über Unternehmen wie Facebook und Google u.a., die Massendaten aller BürgerInnen auswerten und damit Profite generieren. Im September 2016 erschien ihr zweites Buch "Das Ende der Demokratie: Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt", ebenfalls erschienen im C. Bertelsmann Verlag.

Sie ist ein gern gesehener Gast bei Podiums-Diskussionen, Talkrunden, auf der Frankfurter Buchmesse und auf Veranstaltungen, die die IT im weiteren und die KI im engeren Sinn kritisch reflektieren.

Sie wohnte in ihrer Kindheit in der Nähe der DDR-Grenze und erlebte hautnah mit, was Diktatur bedeutet. Ihre Schulausbildung in einem Mädcheninternat erhielt sie bei den Englischen Fräulein. Dort genoss sie, wie sie betont, eine hervorragende politische Bildung. Sie arbeitet alle Wochenenden durch. Ihren letzten Urlaub machte sie im Jahr 2008.

CW: Kann man nicht solch einen Algorithmus einfach offenlegen, um Transparenz zu gewinnen?

Hofstetter: Wenn man solch einen von einer lernenden Maschine entwickelten Algorithmus offenlegt, wird man lediglich Gewichtungen von Neuronen, also Zahlenwerte sehen. Aber was heißt das denn dann? Wenn ich so einen Algorithmus offenlege, bekomme ich Listen über Listen von Zahlen vorgelegt. Aber was sagt mir das dann? Der Output ist nicht mehr so eindeutig verständlich, dass man sagen könnte, man habe jetzt verstanden, was der Algorithmus wirklich tut.

Yvonne Hofstetter ist Geschäftsführerin der auf Big Data und KI spezialisierten Teramark Technologies GmbH. Das wäre nicht so erwähnenswert, wenn sie nicht auch eine dezidierte Kritikerin der möglichen Auswirkungen der Digitalisierung und insbesondere der KI auf Gesellschaften wäre.
Yvonne Hofstetter ist Geschäftsführerin der auf Big Data und KI spezialisierten Teramark Technologies GmbH. Das wäre nicht so erwähnenswert, wenn sie nicht auch eine dezidierte Kritikerin der möglichen Auswirkungen der Digitalisierung und insbesondere der KI auf Gesellschaften wäre.
Foto: Heimo Aga

CW: In Ihrem im September 2016 erschienenen Buch "Das Ende der Demokratie: Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt" schreiben Sie, in den USA habe sich die IT-Industrie eigentlich schon abgesetzt von Staat und Gesellschaft und sich im Prinzip zum heimlichen Gesetzgeber entwickelt. Im Prinzip kopple sich so die IT vom Checks and Balances-System ab.

In diesem Zusammenhang kann man sich folgendes Szenario vorstellen: Jemand interessiert sich für die Geschichte des Islam, also bestellt er sich eine historische Abhandlung dieses Inhalts bei Amazon. Zudem ist er begeisterter Hobbygärtner und bestellt auch noch Düngemittel. Schon ist er verdächtig. Das System erkennt in dieser Kombination eine scheinbar problematische Verbindung: Islaminteressierter, der einen Bestandteil für die Herstellung von Sprengstoff bei Amazon bestellt …

KI findet Korrelationen, die völlig absurd sein können

Hofstetter: Stopp! Was Sie da beschreiben, ist klassisches, regelbasiertes Programmieren. Das ist das, was wir bislang auch schon immer getan haben in den vergangenen 30, 40, 50 Jahren. Bezugnehmend auf Ihr Beispiel: Da programmiert jemand, für den die Korrelation Islam und Düngemittel irgendwie verdächtig ist. A priori ist es aber zunächst einmal so, dass Datensammler eben Daten sammeln, Rohdaten, Messdaten.

Mit Künstlicher Intelligenz aber kommt der Qualitätssprung: Werden diese Messdaten dann nicht mehr von Menschen, sondern von einem künstlichen neuronalen Netz analysiert, passiert folgendes: Die KI findet selbst Korrelationen. Die aber können völlig absurd sein. Denn das Problem bei Massendaten ist ja, dass wir eben nicht wissen, welche Korrelationen sich darin verbergen. Wir schicken einfach einen Haufen Daten durch ein neuronales Netz und die KI findet bestimmte Korrelationen, die mehr oder weniger sinnvoll oder intuitiv sind.

Und da gibt es nun die aus dem einen Lager, insbesondere aus der Industrie und aus den großen Konzernen auch in Deutschland, aus der herstellenden Industrie, die sagen: In Zukunft können wir alle Experten abschaffen. Denn es reicht, wenn man über seinen Industrieprozess, oder über seine Kunden nur genügend Daten sammelt, die man dann mit künstlichen neuronalen Netzen auswertet. Und nur auf diese Daten - also auf die Korrelation dieser Daten - stellt man dann sein gesamtes Geschäftsmodell, seine Umsatzplanungen etc. ab. Wir nennen das "data driven thinking". In solch einem Fall überlegt man gar nicht mehr, ob Korrelationen sinnvoll sind. Dieses Lager nimmt die Analyseergebnisse kritiklos hin. Solch ein Vorgehen ist dann im Eigentlichen völlig wissenschaftsfrei.

Wissenschaftler aus dem anderen Lager aber sagen, das ist ja völliger Bogus, völliger Unsinn. Wenn die Massendatenanalyse zu spurious effects führt - also über Korrelationen täuscht -, dann braucht es gerade besonders die Industrieexpertise und die Wissenschaft, um scheinbare Effekte zu erklären oder auszuschließen. Hier sucht man nach Kausalität, nicht nach Korrelation. Kein Wissenschaftler würde sich auf Korrelationen verlassen.