Die Risiken Künstlicher Intelligenz

Die Gefahr liegt nicht dort, wo wir sie vermuten

03.01.2019
Von   IDG ExpertenNetzwerk


Ralf Ohlhausen, Diplom-Mathematiker und Master of Telecommunications Business, verfügt über 25 Jahre Berufserfahrung in den Bereichen E-Commerce, Financial Services, mobile Telekommunikation und IT. Zuletzt war er als President Europe bei SafetyPay tätig. Weitere Stationen seiner internationalen Karriere waren Führungspositionen bei Digicel, O2, British Telecom und Mannesmann-Kienzle. Aktuell verantwortet er bei PPRO die weltweite Expansionsstrategie des Payment-Lösungsanbieters.
Dieser Beitrag erläutert die Risiken einer schlechten Umsetzung von KI-Vorhaben. Lesen Sie hier mögliche negative Folgen für Unternehmen und ihre Kunden.

Eines Tages wird die künstliche Intelligenz (KI) die menschliche Intelligenz überholt haben. Dann wird es zu spät sein. Verblendet von den Verheißungen der KI werden wir den Robotern die Verantwortung für alle kritischen Systeme in unserer Gesellschaft übertragen. Von der Energieversorgung über das Kommunikationswesen bis hin zu unserer Verteidigungsinfrastruktur – die Maschinen werden alles kontrollieren. Und wenn sich die Maschinen schließlich erheben, werden sie alles gegen uns verwenden.

Eigenständig handelnde und nicht kontrollierbare Maschinen, die der Menschheit Böses wollen. Solche Beispiele existieren in manchen Phantasien.
Eigenständig handelnde und nicht kontrollierbare Maschinen, die der Menschheit Böses wollen. Solche Beispiele existieren in manchen Phantasien.
Foto: Patalakha Sergii - shutterstock.com

Beunruhigt? Keine Sorge. So schlimm wird es wohl nicht werden. Selbst wenn eine KI zu einem fühlenden Wesen werden sollte – was im Übrigen noch absolute Zukunftsmusik ist – warum sollte diese Eigenschaft automatisch den Willen zur Dominanz mit sich bringen? Warum sollte KI ohne genetisch verankerten Drang zur Reproduktion und ohne Hormonsystem zur Produktion von Adrenalin oder Testosteron Aggressionen entwickeln? Intelligenter KI könnte es sogar am Selbsterhaltungstrieb mangeln.

Dann irre statt böse?

Wir sollten uns also alle entspannen und lernen, die Maschinen zu lieben, oder? Unsere Angst vor KI ist unbegründet. Ich bin nicht Neo. Sie sind nicht Sarah Connor. Also hören wir auf so zu tun als ob, und fangen wir damit an, KI überall dort einzusetzen, wo es möglich ist. Dann profitieren wir alle davon.

Doch nicht so schnell. Die Angst vor der Revolution der Roboter mag übertrieben sein. Das bedeutet jedoch nicht, dass der Aufstieg von KI völlig bar aller Risiken ist. Künstliche Intelligenz wird entwickelt, um Probleme zu lösen. Sie verfügt in der Regel über keinerlei moralischen Kompass.

Lesetipp: Künstliche Intelligenz - auch eine Frage der Ethik

Wenn wir bei der Beschreibung des Problems, das die KI lösen soll, keine gute Arbeit leisten, könnte diese KI verheerende Schäden anrichten. Und zwar nicht, weil sie ein Selbstbewusstsein entwickelt hätte oder eine böse Absicht dahinterstecken würde. Sondern aus dem einfachen Grund, dass sie genau das tut, was wir ihr aufgetragen haben.

Übertragung unserer Eigenschaften

KI könnte zu einem Problem werden, weil wir sie mit unseren eigenen Eigenschaften ausstatten. Das wäre auf verschiedenen Wegen möglich. Wir könnten die KI trainieren, ohne dabei Verzerrungen in den Trainingsdaten zu korrigieren.
Wenn Daten beispielsweise anscheinend zeigen, dass die Einwohner von Stadt A häufig mit ihrer Kreditschuld im Rückstand sind, könnte die KI daraus schließen, dass sie ein Kreditrisiko darstellen, selbst wenn genauere Daten gezeigt hätten, dass es sich dabei vielmehr um einen Fall von Kausalität als um einen Fall von Korrelation handelt.

Von noch größerer Bedeutung ist es wahrscheinlich, dass wir ein Problem unbewusst auf eine Art und Weise definieren könnten, die Verzerrungen in die Problemlösungsmethode der KI einbaut. Wenn unsere Problemdefinition für einen KI-Spamfilter zum Beispiel Variablen enthält, die für eine „nigerianische” Mail typisch sind, so würde die KI höchstwahrscheinlich auch mit sorgfältig ausgewählten Trainingsdaten E-Mails von einer nigerianischen IP-Adresse fälschlicherweise als Spam deklarieren. Das wäre legitimen nigerianischen Unternehmen und gesetzestreuen nigerianischen Verbrauchern gegenüber äußerst unfair.

Derartige Risiken sind keinesfalls rein theoretischer Natur. Es gab bereits Fälle, in denen KI und Tools, die auf maschinellem Lernen basieren, Personen nachweisbar diskriminiert haben, nur weil diese Systeme schlecht eingestellt oder mit verzerrten oder unvollständigen Daten trainiert worden waren.

Im Jahr 2016 gab der New Yorker Supreme Court Lehrern Recht, die geklagt hatten, weil sie sich von einer KI-basierten Lehrerbewertungssoftware ungerechtfertigt schlecht beurteilt fühlten. Unter anderem stellten Ermittler fest, dass die Software eine Fehlerquote von 35 Prozent aufwies, da ihre Wertschöpfungsanalyse Kriterien wie Klassengröße und Fähigkeiten der Kinder nicht berücksichtigt hatte.

In einem Gespräch mit dem Regisseur Werner Herzog über schlechte KI-Aufgabendefinition nannte Tesla-Gründer und KI-Skeptiker Elon Musk ein überzeugendes Beispiel: Angenommen, eine KI wurde damit beauftragt, den Wert eines Anlageportfolios zu maximieren. Nehmen wir außerdem an, dass der Schöpfer der KI nicht eindeutig spezifiziert hat, wie dieses Ziel zu erreichen ist. Theoretisch könnte die KI in diesem Fall verstärkt in Rüstungsaktien investieren und so im schlimmsten Fall einen Krieg provozieren.

Was bedeutet das für Fintech?

Fintech ist gegenüber diesen Problemen nicht weniger anfällig als jeder andere Bereich, in dem KI eingesetzt wird. Wenn die Branche nicht die notwendigen Maßnahmen ergreift, um Verzerrungen in den Algorithmen zu vermeiden, die bestimmen sollen, wer zu welchen Bedingungen Zugriff auf Finanzservices hat und wer nicht, dann könnten die Folgen sowohl für die Betroffenen als auch für die gesamte Finanzbranche katastrophal sein.

Hier ein theoretisches Beispiel: Laut einem Bericht der Joseph Rowntree Foundation aus dem Jahr 2017 entstammen 70 Prozent der in der Londoner Innenstadt in Armut lebenden Personen einer ethnischen Minderheit. Würde ein Unternehmen es seiner KI erlauben, die ethnische Zugehörigkeit potenzieller Kunden zu kennen und ihr nicht auftragen, die Ethnie bei der Eignung für ein bestimmtes Finanzprodukt nicht zu berücksichtigen, könnte die KI fälschlicherweise darauf schließen, dass die Zugehörigkeit zu einer ethnischen Minderheit als Risikofaktor zu werten ist und solche Minderheiten somit diskriminieren.

Die Auswirkungen auf die Kunden, auf das öffentliche Vertrauen in dieses Unternehmen und in den Wert der Unternehmensmarke wären verheerend. Und das zu Recht. Niemand möchte dieses Unternehmen sein. Daher müssen wir als Branche die Risiken einer schlechten KI-Umsetzung und die Risiken von Verzerrungen in den Algorithmen ernst nehmen. Tun wir das nicht, riskieren wir einen Eklat, der sowohl den Kunden als auch der Fintech-Branche schweren Schaden zufügt.

KI in Deutschland
- gewaltiges Potenzial für die Wirtschaft
- mulmige Gefühle bei den Bürgern

Die Marktforschung bescheinigt künstlicher Intelligenz glänzende Perspektiven: So soll das weltweite Bruttoinlandsprodukt (BIP) bis 2030 allein durch KI um 14 Prozent auf 15,7 Billionen US-Dollar anwachsen, wie eine Studie von PWC prognostiziert. Für Deutschland veranschlagt das Beratungsunternehmen ein Plus von mehr als elf Prozent des BIP - in etwa ein Zuwachs von rund 430 Milliarden Euro.

Trotz dieser erfreulichen Aussichten stehen die Deutschen der Technologie eher skeptisch gegenüber: Laut einer YouGov-Studie glaubt nur jeder siebte Deutsche (15 Prozent), dass KI mehr Nutzen als Risiken bringt. 45 Prozent sehen gleich viele Gefahren wie Chancen, und für 26 Prozent der Befragten überwiegen die Gefahren gegenüber dem Nutzen. So verzeichnen beispielsweise selbstfahrende Autos mehr Gegner (52 Prozent) als Befürworter (37 Prozent).

Dieses insgesamt ungute Bauchgefühl mag damit zusammenhängen, dass viele Medienberichte KI im Zusammenhang mit der Arbeitswelt besprechen. Tatsächlich wird sich der Arbeitsmarkt mit dem Aufstieg künstlicher Intelligenz verändern. So könnte KI künftig vor allem einfache und routinemäßige Arbeiten übernehmen. Gleichzeitig werden aber neue Berufsbilder entstehen. Kurz gesagt: Wenn es um den Arbeitsmarkt geht, kann KI dem Menschen theoretisch mehr Luft für anspruchsvollere Tätigkeiten verschaffen.

Mehr zu diesem Thema:

Internet of Payments verändert unser Leben

Macht KI die Finanzbranche intelligenter?

Mehr Sicherheit durch KI