Künstliche Intelligenz als Gefahr?

6 Gründe auf die KI-Bremse zu treten

23.04.2018
Von 
Clint Boulton ist Senior Writer bei der US-Schwesterpublikation cio.com.
Künstliche Intelligenz durchdringt zusehends sämtliche Unternehmensprozesse. Dennoch sollten IT-Entscheider nicht vorschnell handeln und sich über die möglichen Auswirkungen von KI-Tools schlau machen.

Im Jahr 2017 erreichte der Hype um Künstliche Intelligenz (KI) seinen Zenit. Schließlich setzen CIOs, Beraterunternehmen und die Wissenschaft inzwischen auf die Technologie, um so gut wie jeden Business- und IT-Prozess zu automatisieren. Nur die Medien stürzen sich - wie man sie kennt - ausschließlich auf die negativen Aspekte von KI. Zumindest ist Thomas Davenport, Professor für kognitive Technologien am Babson College, dieser Überzeugung: "In den Medien gab es einen Hype von besonderem Ausmaß. Was nun passiert, ist, dass Journalisten versuchen, diesen Hype künstlich in die Länge zu ziehen, indem sie sich auf mögliche negative Folgen stürzen."

Damit mag Davenport stellenweise sogar Recht haben. Dennoch: die Bedenken in Bezug auf die Künstliche Intelligenz sind alles andere als neu und halten sich sehr hartnäckig - egal ob es dabei nun um rassistische Chatbots oder automatisierte Drohnen geht, die Amok fliegen. Nur knapp eine Woche, nachdem das MIT Technology Review eine Story mit der Überschrift "Wer ist verantwortlich, wenn KI tötet?" publizierte, wurde eine Frau in Arizona von einem autonomen Auto in den Diensten von Uber getötet - einschneidende Konsequenzen durch KI-getriebene Technologie sind also durchaus real.

Künstliche Intelligenz liegt im Trend. Wir nennen Ihnen die sechs gängigsten Gründe, bei der Adoption dennoch in die Eisen zu steigen.
Künstliche Intelligenz liegt im Trend. Wir nennen Ihnen die sechs gängigsten Gründe, bei der Adoption dennoch in die Eisen zu steigen.
Foto: Yauhen D - shutterstock.com

Wir lassen die sechs Bedenken-lastigsten Hemmnisse für die Adoption der Künstlichen Intelligenz Revue passieren - und haben nützliche Tipps für IT-Entscheider auf Lager, die es gar nicht erwarten können, erste KI-Testsessions anzuleiern.

Die 6 größten KI-Bedenken

Rüpel-Gene: Wie Microsofts Chatbot-Desaster auf beeindruckende Weise gezeigt hat, kann eine Unterhaltung mit automatisierten Messaging-Systemen nicht nur in Nonsens, sondern auch in Rüpelhaftigkeit oder gar Beleidigungsarien ausarten. Entscheider sollten sich deshalb ganz genau überlegen, welche Technologien sie auf welche Art und Weise zum Einsatz bringen. Es braucht schließlich nur einen hassgetränkten "Wutausbruch" des Chatbots, um das Image einer ganzen Marke zum Einsturz zu bringen.

Einordnungs-Defizit: Ironischerweise hat Künstliche Intelligenz - obwohl von Menschen entwickelt - relativ wenig mit seinen Erschaffern zu tun. Das sagt zum Beispiel Stanford Professorin und Google-KI-Forscherin Fei-Fei Li. In einer Kolumne für die New York Times beschreibt die Wissenschaftlerin, dass die visuelle Wahrnehmung von Menschen höchst kontextual, diejenige von KI jedoch ziemlich eindimensional ist. Das bringt Li zu der Überzeugung, dass Programmierer für Künstliche Intelligenzen künftig enger mit Experten für diese Definitionsbereiche zusammenarbeiten müssen, um die Wahrnehmungs-Lücke zwischen Mensch und Künstlicher Intelligenz zu schließen.

Black-Box-Rätsel: Viele Unternehmen wollen Artificial-Intelligence-Lösungen einsetzen - auch für Aktivitäten, die unter Umständen zu einem strategischen Vorteil führen. Dabei müssen Unternehmen in Branchen wie dem Finanzsektor darauf achten, welche Auswirkungen die Einbettung von KI in ihre Systeme haben kann. Es mag beispielsweise naheliegen, dass Hausbesitzer, die ihren Stromverbrauch mit Produkten von Nest managen, mehr Geld für die Bedienung ihrer Hypothek übrig haben.

Eine solche Art der Qualifikation aber in eine KI-Lösung zu gießen, dürfte schwierig werden, wie Bruce Lee, Head of Operations & Technology beim US-Finanzdienstleister Fannie Mae weiß: "Künstliche Intelligenz etwa bei Entscheidungen über die Vergabe von Krediten einzusetzen, liegt zwar nahe - aber in diesem Bereich gilt es zuerst eine ganze Reihe regulatorischer Hürden aus dem Weg zu räumen. So gut wie alles, was wir in diesem Bereich auf den Weg bringen, muss gewissenhaft getestet werden, um sicherzustellen, dass nicht irgendeine Form von Vorurteilen oder Befangenheit in unserer Infrastruktur Einzug hält. Vor allem aber muss die KI erklärbar sein."

Wenn das Verständnis dafür fehlt, wie eine AI-Software Muster erkennt und Ergebnisse analysiert, werden sich Unternehmen in deren Business Regulationen eine wesentliche Rolle spielen schnell fragen, ob sie den Maschinen wirklich trauen können, wie Dan Farris von der Anwaltskanzlei Fox Rothschild erklärt: "Kontext, Ethik und Datenqualität wirken sich auf den Wert und die Zuverlässigkeit von Künstlicher Intelligenz aus - insbesondere in stark regulierten Branchen. Die Ausrollung von KI-Lösungen in solchen Branchen kann zu Compliance-Problemen führen."

Sozioökonomische Irrungen: Sogar virtuelle KI-Assistenzen sind mit Befangenheit belastet. Oder haben Sie sich schon einmal gefragt, warum Technologien wie Alexa, Siri und Cortana ausschließlich weiblich sind? Rob LoCascio, CEO beim Softwarehaus LivePerson, schon: "Warum ordnen wir solche ‚Helfer-Technologien‘ automatisch dem weiblichen Geschlecht zu? Und was sagt das über unsere Erwartungen an Frauen aus? Dass sie die idealen ‚Helfer‘ sind? Dass sie besonders gut für administrative Aufgaben geeignet sind? Oder dass sie einfach gut darin sind Anweisungen zu befolgen?"

Allgegenwärtige Gefahr: Die rasanten Fortschritte auf dem Gebiet der Künstlichen Intelligenz treiben das Risiko, dass sich kriminelle Hacker die Technologie zunutze machen, um Hackerangriffe und Identitätsdiebstahl zu automatisieren oder gar kommerzielle Drohnen per "Hijacking" zu Waffen umfunktionieren. So ist es zumindest in einem 98-seitigen Bericht nachzulesen, den 25 Wissenschaftler der Universitäten Cambridge, Oxford und Yale zu verantworten haben.

"Wir sind uns alle einig, dass für die Künstliche Intelligenz viele positive Anwendungsbeispiele existieren," sagte Miles Brundgage, einer der beteiligten Forscher, gegenüber der Nachrichtenagentur Reuters. "Aber bislang klaffte in der verfügbaren Literatur zum Thema eine Lücke, wenn es um den Missbrauch der Technologie geht." Auch die New York Times griff den Bericht in einem Artikel auf.

Die Versklavungs-Theorie: Tesla- und Space-X-Mastermind Elon Musk warnte bereits davor, dass die Menschheit Gefahr läuft, sich in "abhängige Hauskatzen" superintelligenter Rechner zu verwandeln. Und der israelische Historiker Yuval Noah Harari geht davon aus, dass der Aufstieg der Künstlichen Intelligenz eine gesellschaftliche Klasse "ohne Nutzen" hervorbringen wird ("global useless class"). Eine solche Entwicklung würde die Demokratie gefährden - schließlich können sich Menschen nicht ansatzweise so gut selbst analysieren, wie Maschinen.

Nach dem AI-Hype

Nach Meinung von Thomas Davenport sind diese Bedenken vor allem eines: übertrieben. Schließlich belaste Befangenheit auch schon seit vielen Jahren "normale" Analytics-Projekte: "Ich kenne niemanden, der schon einmal etwas mit Analytics zu tun hatte und behauptet, dass dort Befangenheit keine Rolle spielt."

Davenport, der gerade sein neues Buch ("The AI Advantage: All about big enterprise adoption of AI") veröffentlicht hat, weiß aus erster Hand, dass verschiedene Großkonzerne derzeit auf verantwortungsvolle Art und Weise mit Künstlicher Intelligenz experimentieren: "Die Technologie steckt noch in den Kinderschuhen, aber es gibt bereits sehr viele interessante Anwendungsfälle im Unternehmensumfeld. Die smarten Unternehmen arbeiten einfach weiter an ihren Projekten und versuchen sich so wenig wie möglich von den durch die Medien kommunizierten Vor- und Nachteilen aus der Ruhe bringen zu lassen."

In der Tat scheint der Hype um die Künstliche Intelligenz die IT-Entscheider kalt zu lassen: Laut Gartner wollen mehr als die Hälfte aller CIOs bis zum Jahr 2020 KI-Projekte an den Start bringen. (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CIO.