Professorin Katharina Zweig im Interview

Künstliche Intelligenz: Was wir wissen und wo wir mitreden sollten

09.12.2019
Von Gabi Müller
Die Informatikerin Katharina Zweig hat ein Buch geschrieben, in dem sie verständlich und witzig erklärt, was hinter Algorithmen und Künstlicher Intelligenz steht. Im Interview macht sie deutlich, warum und wann wir Stellung beziehen sollten.

Ihr Buch heißt "Ein Algorithmus hat kein Taktgefühl". Wen und was soll das Buch erreichen?

Zweig: "Ich will die Menschen erreichen, die auch zu meinen Vorträgen kommen. Das sind Juristen, Lehrer, Politiker, Mitarbeiter von Kirchen oder anderen sozialen Organisationen - also die breite Öffentlichkeit. Ihnen allen möchte ich ein Werkzeug an die Hand geben, damit sie sich in die Diskussion um Künstliche Intelligenz einmischen können."

Katharina Zweig, Professorin für Informatik an der TU Kaiserlsautern: "In der Wissenschaft wird die Diskussion differenziert geführt. Aber in der breiten Öffentlichkeit wird immer nur über 'die KI' geredet und das macht schlicht keinen Sinn, denn die gibt es nicht."
Katharina Zweig, Professorin für Informatik an der TU Kaiserlsautern: "In der Wissenschaft wird die Diskussion differenziert geführt. Aber in der breiten Öffentlichkeit wird immer nur über 'die KI' geredet und das macht schlicht keinen Sinn, denn die gibt es nicht."
Foto: Felix Schmitt

Sie haben im Sommer den diesjährigen Communicator-Preis der Deutschen Forschungsgemeinschaft (DFG) und des Stifterverbandes erhalten. Ausgezeichnet wurden Sie für ihren Beitrag zur Kommunikation über Entwicklung, Einsatz und gesellschaftliche Auswirkungen von Algorithmen. Geht bei der breiten Diskussion über Algorithmen und Künstliche Intelligenz gerade etwas schief - weil scheinbar nur in schwarz-weiß gedacht wird?

Zweig: "In der Wissenschaft wird die Diskussion differenziert geführt. Aber in der breiten Öffentlichkeit wird immer nur über 'die KI' geredet und das macht schlicht keinen Sinn, denn die gibt es nicht. Wohl aber viele verschiedene Systeme und Anwendungen, die man sich im Einzelfall ansehen muss."

Worin sehen Sie das größte Missverständnis?

Zweig. "'Algorithmen-TÜV' ist so ein Begriff, der oft zu hören ist. Aber nicht der Algorithmus ist das Problem, denn er ist nur eine festgelegte Handlungsanweisung, um ein klar definiertes mathematisches Problem zu lösen. Das aber, worüber wir meist reden, wenn wir von Künstlicher Intelligenz sprechen, sind Verfahren des maschinellen Lernens. Da geht es nicht mehr um Algorithmen, sondern um sogenannte Heuristiken. Das ist eine Strategie, um für ein Problem eine gangbare Lösung finden - aber nicht notwendigerweise die beste Lösung. Diese Verfahren suchen nach Mustern in Daten der Vergangenheit, die dann als Entscheidungshilfe für künftige Daten verwendet werden können. Nach dem Motto: "Wer bisher Krimis gekauft hat, tut das auch weiterhin". Aber diese Verfahren finden manchmal auch nicht wirklich aussagekräftige Muster. Das ist es aber nicht, wenn es um Menschen und Ressourcen geht. Da müssen wir genau hinsehen."

Der Untertitel Ihres Buches heißt: Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können. Wie und wo kann sich der Leser beim Thema KI denn einmischen?

Zweig: "Wir reden ganz selbstverständlich mit Alexa und wir gewöhnen uns an den Gedanken autonom fahrender Autos oder Straßenbahnen. Aber würde es Ihnen gefallen, wenn Ihre Kinder in der Ausbildung von einem Bot, nicht von einem Menschen begleitet und beurteilt würden? Als Arbeitnehmer zum Beispiel kann ich mich kritisch mit meinem Unternehmen auseinandersetzen, wenn Systeme installiert werden sollen, die Menschen beurteilen. Das ist doch das, um das es geht. Wenn KI-Systeme gebaut werden, die defekte Schrauben vom Band pusten, dann möchte ich wissen, ob das für mich, der neben dem Roboterarm arbeitet, auch sicher ist. Aber es ist etwas ganz anderes, wenn es darum geht, Karrierechancen oder Zugang zu Ressourcen zu beurteilen. Da sollten Arbeitnehmer schon nachfragen und kritisch Stellung beziehen."

Was können Sie als Wissenschaftler tun?

Zweig: "Immer wieder aufklären und informieren. Aber wir als Forscher oder als Nichtregierungsorganisationen - wie etwa Algorithm Watch - sind darauf angewiesen, dass uns Menschen ihre Daten zur Verfügung stellen. Damit können wir überprüfen, ob Muster vorhanden sind, die da nicht sein sollten - etwa ob bestimmte Zielgruppen diskriminiert werden."

Katharina Zweig: "Wir als Forscher oder als Nichtregierungsorganisationen - wie etwa Algorithm Watch - sind darauf angewiesen, dass uns Menschen ihre Daten zur Verfügung stellen."
Katharina Zweig: "Wir als Forscher oder als Nichtregierungsorganisationen - wie etwa Algorithm Watch - sind darauf angewiesen, dass uns Menschen ihre Daten zur Verfügung stellen."
Foto: Phonlamai Photo - shutterstock.com

Es wird heftig darüber diskutiert, ob und wie KI reguliert werden muss. Was denken Sie?

Zweig: "Ja, wir brauchen eine Regulierung, vor allem an der Stelle, wo lernende Algorithmen über Menschen und ihren Zugang zu wichtigen gesellschaftlichen, ökonomischen oder ökologischen Ressourcen entscheiden. Für staatliche KI-Systeme muss es definitiv Regeln geben, die helfen, die Machtasymmetrie zwischen Bürger und Staat in den Griff zu bekommen - dazu brauchen wir unabhängige Prüfinstitutionen. Worüber meiner Meinung nach zu wenig diskutiert wird: Man könnte fordern, dass jegliches von Europäern lernende System nur mit so genannten dezentralen Lernverfahren laufen darf. Das wäre ein fundamentaler Wechsel."

Wie könnte das konkret aussehen?

Zweig: "Im Moment ist es so, dass unsere Daten zentral gesammelt werden. Die Person oder Organisation, die diese Daten hat, gewinnt unglaubliche Einblicke, kann die Daten weiterverkaufen, kann Profile draus bilden. Beim dezentralen Lernen aber bleiben die Daten irgendwo, ein Algorithmus kommt vorbei, lernt aus den Daten etwas und nimmt nur das Gelernte mit, nicht die Daten selbst. Das ließe sich über Trusted Data Center abwickeln."

In Ihrem Buch haben Sie eine so genannte Risikomatrix erstellt. Was hat es damit auf sich?

Zweig: "Im Grunde bereitet das gesamte Buch auf diese Matrix vor. Sie soll bildlich verdeutlichen, wo Regulierung auf technischer Ebene dringend notwendig ist. So geht es auf der einen Achse um das Schadenspotenzial eines algorithmischen Entscheidungssystems - und die Möglichkeit, eine Entscheidung infrage zu stellen oder auch zu ändern. Auf der zweiten Achse geht es um die Frage des Monopols, also die Möglichkeit, inwieweit ein Mensch einem Urteil entgehen kann, welche Widerspruchsmöglichkeiten es gibt und welche Re-Evaluierungsgelegenheiten. Daraus ergibt sich dann, dass Systeme, die wenig bis gar nicht technisch reguliert werden müssen, links oben stehen, wie solche, die Produkte allgemeiner Natur empfehlen. Rechts unten finden sich etwa der China-Citizen-Score oder tödliche autonome Waffen. Hier ist Regulierung absolut notwendig."

Das betrifft aber nur die technische Regulierung?

Zweig: "Ja, daneben gibt es natürlich noch KI-Systeme, die bildungs-, sozial- oder arbeitspolitische Folgen haben können. Und sicher werden noch viele datenschutzrechtliche, verbraucherschutzrechtliche und sicherheitspolitische Fragen zu stellen sein, die auf Antworten warten."

Brauchen wir dafür nicht auch anders ausgebildete, anders denkende Entwickler?

Zweig: "Deshalb haben wir 2013 den Studiengang Sozioinformatik an der TU Kaiserslautern ins Leben gerufen. Die Studierenden hier lernen anders zu schauen und dass Software immer nur ein Teil eines Ganzen ist. Sie blicken systemisch auf die Dinge und begreifen Menschen und Software als Einheit. Wie kann Software den Menschen in seinem Verhalten ändern - wann tut sie das und was passiert dann? Die Studierenden schauen sich etwa an, warum und wie sich Dinge im Netz viral verbreiten oder warum es Fakenews gibt und wie man ihre Verbreitung verhindern kann. Sie sollen verstehen, wie Menschen sich verhalten, deshalb vermitteln wir Grundzüge der Psychologie, der Wirtschaftswissenschaften, Rechtswissenschaften, Ethik und Sozialwissenschaften."

Professorin Dr. Katharina Zweig lehrt Informatik an der TU Kaiserslautern und leitet dort das Algorithm Accountability Lab. Sie ist als Expertin für Bundesministerien tätig, Mitglied der Enquete-Kommission des Bundestages zum Thema Künstliche Intelligenz und Gründerin eines KI-Beratungs- Startups.

Kostenloser Download zu unserem Sonderheft Karriere 2020 - die digitale Welt braucht Frauen!

Zum Sonderheft Karriere 2020