Algorithmic Bias

So wird KI nicht zum Chauvi

26.10.2020
Von 
Jörg-Alexander Paul ist Rechtsanwalt und Partner bei Bird & Bird. Er berät Banken, Finanzdienstleister, IT-Unternehmen und andere Unternehmen in vielschichtigen Software-, Datenbank- und E-Commerce-Projekten.
KI-Anwendungen stehen immer wieder in der Kritik, weil sie diskriminierende Entscheidungen treffen. Wir zeigen potenzielle Fehlerquellen und was sie dagegen tun können.
Wer nicht aufpasst, erhält schnell eine KI, die diskriminierend entscheidet.
Wer nicht aufpasst, erhält schnell eine KI, die diskriminierend entscheidet.
Foto: Aleutie - shutterstock.com

Anwendungen, die von Künstlicher Intelligenz gesteuert werden, stehen immer wieder wegen ihres Diskriminierungspotenzials in der Kritik. So musste etwa IBM seine Gesichtserkennungs-Software vom Markt nehmen, da diese Schwierigkeiten bei der Identifizierung von Personen mit dunkler Hautfarbe aufwies.

Wie fehlerhaft einige Programme bei dunkler Hautfarbe arbeiten, lässt sich sogar beziffern, wie eine Studie von Joy Buolamwini zeigt. In ihrer Studie untersuchte die Informatikerin des Massachusetts Institute of Technology (MIT) die Trefferquote der Gesichtserkennungssoftware von IBM, Microsoft und Face++. Das Resultat: Bei schwarzen Männern lag die Fehlerquote bei 3 Prozent, bei schwarzen Frauen sogar bei 30,3 Prozent. Weiße Männer hingegen konnten die Programme laut Studie mit einer Fehlerquote von 0,3 Prozent nahezu fehlerfrei zuordnen.

Die Gesichtserkennungs-Programme arbeiten demnach implizit diskriminierend und sind damit nicht allein. Es gibt zahlreiche Beispiele für diskriminierende Software aus diversen Bereichen: Beginnend bei Sensoren, die dunkle Hautfarben nicht erkennen können, über sexistische Kreditkarten - mit diesem Vorwurf sah sich etwa Apple konfrontiert - bis hin zu HR-Programmen, die Frauen benachteiligen. Warum ist dem aber so? Und wie ließe sich das vermeiden?

Potenzierte Diskriminierungsgefahr

Für Diskriminierungen durch Künstliche Intelligenz gibt es mehrere Ursachen. Die häufigste Ursache liegt bereits im "fehlerhaften" Anlernen der KI, aus dem diskriminierende Entscheidungen resultieren. Aber auch eine zunächst neutral eingestellte, selbstlernende KI kann zu diskriminierenden Entscheidungen gelangen. Häufig wird versucht, dies damit zu erklären, dass die eingepflegten Daten nicht qualitativ gut genug seien oder der Algorithmus fehlerhaft sei.

Der wahre Grund liegt jedoch woanders: Viele Programmierer denken zu wenig divers bei der Datenauswahl und -bewertung. So wird schon beim Anlernen der KI durch die Eingabe von unzureichend reflektierten Daten der Grundstein für diskriminierende Anwendungen getroffen. Eine selbstlernende KI kann, wenn sie objektive Daten ohne jeden korrigierenden Eingriff auswertet, zu diskriminierenden Entscheidungen kommen.

Diskriminierungen, etwa zwischen den Geschlechtern, können entstehen, wenn nur auf rein mathematische Aspekte geachtet wird.
Diskriminierungen, etwa zwischen den Geschlechtern, können entstehen, wenn nur auf rein mathematische Aspekte geachtet wird.
Foto: FrankHH - shutterstock.com

Ein rein technisches Beispiel für fehlende Perspektiven beim Anlernen und Entwickeln sind ältere automatisierte Seifenspender. Diese konnten lange keine schwarze Hautfarbe erkennen, weil die Programmierer der dazu notwendigen Infrarot-Standard-Technologie, überwiegend kaukasischen Typs waren und andere Anwendungsszenarien, wie die Nutzung von Seifenspendern durch dunkelhäutige Personen, nur unzureichend bedacht hatten. So entstehen unbewusste und ungewollte Diskriminierungen, die mit einem divers aufgestellten Team oder bewussten Perspektivwechseln leicht zu vermeiden wären.

Ebenso häufig entstehen Diskriminierungen, weil beim Anlernen der Künstlichen Intelligenz auf rein mathematische Aspekte geachtet wird. Beispielsweise wird ein Algorithmus, der die Qualifikation von Bewerbern oder Bewerberinnen anhand ihrer Fehltagen misst, mit hoher Wahrscheinlichkeit zu dem Entschluss kommen, dass Männer qualifizierter sind als Frauen. Denn Frauen haben aufgrund diverser Faktoren, wie der Kinderfürsorge oder Monatsblutungen, oftmals mehr Fehltage als Männer. Solche normativen Erkenntnisse müssen daher schon im Vorfeld beim Anlernen der KI wortwörtlich einprogrammiert werden.

Technologie ohne Wertesystem?

Wie sich am Beispiel des Bewerber-Programms zeigt, arbeiten KI-Anwendungen neutral. Sie erkennen Muster und treffen aufgrund der Muster Schlussfolgerungen, die nicht zwangsweise unser gesellschaftliches Wertesystem widerspiegeln. Schon beim Anlernen der KI-Anwendung sollte deswegen abgeglichen werden, welche - möglicherweise ungewünschten - Schlüsse die KI aus den eingefügten Daten ziehen könnte und welches Ergebnis eigentlich gewünscht wäre.

Den Fehler, dass Künstliche Intelligenz aufgrund von Daten ungewollte Rückschlüsse auf die Qualifizierung von Bewerberinnen und Bewerbern zieht, hatte etwa der Online-Gigant Amazon gemacht. Die vom Unternehmen eigens entwickelte Bewerber-Software schloss aufgrund von Daten - überwiegend hatten sich in den letzten zehn Jahren Männer beworben -, dass Männer besser geeignet für die Tätigkeiten bei Amazon sind und benachteiligte daraufhin Frauen im Bewerbungsprozess.

Für beide HR-Software-Beispiele gilt, wenn Unternehmen nicht möchten, dass Frauen im Bewerbungsprozess benachteiligt werden, muss auf verschiedene Aspekte geachtet werden. So dürfen die Fehlzeiten von Frauen kein oder nur ein untergeordnetes Kriterium für eine Eignung darstellen. In dem Algorithmus, nach dem die KI arbeitet, muss also ein normativer Wert eingebaut werden und zwar: Frauen sind wertvolle Mitarbeiterinnen, auch wenn sie statistisch gesehen mehr Fehltage haben als Männer.

Ebenso sollte im Vorfeld darüber nachgedacht werden, welche Rückschlüsse die KI, wie im Beispiel von Amazon, aus den überwiegend männlichen Bewerbungen ziehen könnte. So hätte auch hier vorher definiert werden müssen, dass das Geschlecht kein Kriterium ist, welches über die Qualifikation eines Bewerbers oder einer Bewerberin entscheidet. Dass dies nicht nur eine rein ethische Frage ist, zeigt sich auch in den rechtlichen Diskussionen rund um Künstliche Intelligenz.

Für das Anlernen einer KI existieren derzeit lediglich Ethik-Leitlinien, die jedoch nicht verbindlich sind. Das bedeutet, dass es keine allgemein anwendbaren, staatlichen Regularien gibt, die festlegen, wie eine KI angelernt werden muss. Das gilt selbst dann, wenn die Künstliche Intelligenz mit rassistischen, sexistischen und diskriminierenden Daten oder Inhalten gefüttert wird. Denn diskriminierend denken darf jeder - auch eine KI.

Führt die Anwendung allerdings diskriminierende Handlungen aus, drohen rechtliche Konsequenzen. Leitplanken, die sich aus allgemeinen Vorschriften ergeben, sollten deshalb von vorneherein beachtet werden. Sie regeln zwar nicht das Programmieren einer KI oder deren Anlernen. Sie können aber eine Hürde für den Einsatz des KI Produktes darstellen, wenn beispielsweise Dokumentationspflichten nicht erfüllt werden können, weil das Anlernen ohne Überwachung stattfand.

Für Unternehmen ist die derzeitige Rechtslage dennoch innovationsfördernd, denn Mitarbeiter können an der KI tüfteln, ohne sich beim Anlernen bereits einer Vielzahl von hemmenden Regularien zu unterwerfen. Der Gesetzgeber ist sich allerdings bewusst, dass schon beim Anlernen der KI der Grundstein für diskriminierende Anwendungen gelegt werden kann. Deshalb wird diskutiert, ob er hier rechtlich eingreifen soll. Das wäre insbesondere dort sinnvoll, wo in der Anwendung gar nicht oder nur sehr selten auffällt, dass eine Diskriminierung vorliegt. Dass Amazons Bewerber-Software diskriminierend gegenüber Frauen agiert, soll den Entwicklern beispielsweise erst nach einem Jahr aufgefallen sein.

KI-Spielraum erhalten!

Um wettbewerbsfähig zu bleiben, ist es für deutsche Unternehmen unausweichlich, sich mit KI auseinander zu setzen, um diese sinnvoll nutzen und weiterentwickeln zu können. Dass es derzeit noch keine staatlichen Regularien gibt, die in den Entwicklungs- und Anlernprozess der KI eingreifen, fördert den unternehmerischen Spielraum.

Letztlich liegt es an den Unternehmen selbst, sich diese Freiheit zu erhalten, in dem der Anlernprozess mithilfe von ethischen Leitlinien sorgfältig reflektiert wird. Sich schon beim Anlernen Gedanken darüber zu machen, wie divers der Datensatz ist, wer die Anwendung benutzen könnte und welche unerwünschten Rückschlüsse die KI aus den eingepflegten Daten ziehen könnte, hilft, Diskriminierungen zu vermeiden. So können Unternehmen eigenständig auch längerfristig ein staatliches Eingreifen vermeiden.