Wie gut sind die Algorithmen?

IBM will KI transparenter machen

20.09.2018
Von 
Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP; Betreuung von News und Titel-Strecken in der Print-Ausgabe der COMPUTERWOCHE.
Mit Hilfe einer Cloud-basierten Software verspricht IBM, Verzerrungen in KI-Modellen aufdecken zu können. Damit soll die Black Box künstliche Intelligenz geöffnet werden und Anwender mehr Transparenz erhalten.

IBM hat eine Technologie vorgestellt, die mehr Transparenz in den Bereich der Künstlichen Intelligenz (KI) bringen soll. Die Software, die in der IBM-Cloud läuft, soll automatisch erkennen können, auf welcher Basis eine KI-Lösung Entscheidungen trifft beziehungsweise den Anwendern Vorschläge unterbreitet. Über eine Analyse dieser KI-Grundlagen könne die Lösung IBM zufolge einschätzen, wie zuverlässig und genau die entsprechende KI funktioniere und mit welchen Unschärfen und Fehlertoleranzen die Anwender zu rechnen hätten.

IBM will mit seiner neuen Software die Black Box KI öffnen und transparenter machen.
IBM will mit seiner neuen Software die Black Box KI öffnen und transparenter machen.
Foto: Chingraph - shutterstock.com

Die Software soll nicht nur in der herstellereigenen KI-Plattform Watson für mehr Durchblick sorgen, sondern auch andere Frameworks für maschinelles Lernen und KI-Umgebungen wie Tensorflow von Google, SparkML, AWS, SageMaker und Microsofts AzureML untersuchen können. Anwenderunternehmen könnten somit die derzeit meistverbreiteten KI Frameworks kontrollieren, lautet das Versprechen der IBM-Verantwortlichen.

Lesen Sie mehr zum Thema IBM Watson:

Anwender haben wenig Vertrauen in KI

"Wir geben den Unternehmen, die KI einsetzen und dem potenziellen Risiko durch fehlerhafte Entscheidungen ausgesetzt sind, neue Transparenz und Kontrolle", sagte David Kenny, Senior Vice President des Bereichs Cognitive Solutions bei IBM. Der Manager verweist auf Untersuchungen von IBMs Institute for Business Value. Demnach wollen 82 Prozent aller befragten Unternehmen KI-Lösungen einführen, rund sechs von zehn Betrieben befürchten jedoch Probleme mit der Verlässlichkeit der Technik beziehungsweise verfügen eigenen Angaben zufolge nicht über das notwendige Know-how, um KI sicher und zuverlässig zu betreiben.

Viele weitere Informationen rund um das Thema Künstliche Intelligenz finden Sie hier in unserem Online-Special

An dieser Stelle soll die neue IBM-Software ansetzen. Anwender könnten damit grundsätzlich die Entscheidungsgrundlagen von jedem Workflow überwachen, hieß es seitens des Herstellers. Die Lösung lasse sich zudem individuell an die Bedürfnisse der Unternehmen anpassen. Mögliche Verzerrungen oder nicht ausbalancierte Ergebnisse könnten so von vornherein vermieden werden. Die Software empfehle gegebenenfalls automatisch, dem Algorithmus mehr Daten hinzuzufügen oder Anpassungen der Parameter des KI-Modells vorzunehmen.

Die Daten machen Algorithmen schlau

"Wie schlau Algorithmen sind, richtet sich danach, auf welchem KI-Modell sie aufbauen und über wie viele und welche Daten sie verfügen", erläutert Wolfgang Hildesheim, Bereichsleiter für Watson and AI von IBM Cognitive Solutions in der DACH-Region. So könne die neue Lösung erkennen, wie gut ein entsprechendes Modell trainiert ist. Der Manager führt als Beispiel ein KI-Regelwerk zur Kreditvergabe in Finanzinstituten an. Ein geschlechterspezifischer Vergleich führe an dieser Stelle wahrscheinlich nicht weiter. Dagegen könnte der Parameter "Mindestalter" durchaus dabei helfen, das Risiko einer Kreditvergabe besser einschätzen zu können. Nämlich einen Kredit nur an volljährige Personen zu vergeben. Die IBM-Lösung helfe den Anwendern dabei, die richtigen Messgrößen für KI-Lösungen zu finden.

IBM zielt in Sachen KI-Transparenz in zwei Richtungen, so Hildesheim weiter. Zum einen will man Unternehmen in der Entwicklung eigener KI-Modelle unterstützen, indem Anwender laufend überprüfen können, wie gut die Algorithmen bereits funktionierten. Außerdem sollen die Betriebe bereits existierende KI-Modelle auf den Prüfstand stellen und analysieren können, wie gut und verlässlich diese arbeiteten. Letztlich drehe sich in Sachen KI alles um eine Frage, sagt Hildesheim: "Kann ich der Sache trauen?"

Bei Künstlicher Intelligenz geht es stark um das Vertrauen in die Technik, sagt Wolfgang Hildesheim, KI-Experte von IBM.
Bei Künstlicher Intelligenz geht es stark um das Vertrauen in die Technik, sagt Wolfgang Hildesheim, KI-Experte von IBM.
Foto: IBM

Die IBM-Software zeigt dem Hersteller zufolge alle Faktoren auf, die Entscheidungen eines KI-Modells in die eine oder andere Richtung beeinflusst haben und wie vertrauenswürdig der Vorschlag ist. Die Datengrundlagen bezüglich Treffsicherheit und Ausführung sowie die Herkunft des jeweiligen KI-Modells würden aufgezeichnet. Diese Nachvollziehbarkeit helfe den Unternehmen, Compliance-Richtlinien einzuhalten, was gerade hinsichtlich der europäischen Datenschutzrichtlinie GDPR wichtig sei.

Dashboard für wenig erfahrene Nutzer

IBM stellt Unternehmen eine einfache Nutzung seiner neuen Software in Aussicht. Auch Mitarbeiter ohne IT-Kenntnisse könnten mit Hilfe von visuellen Dachboards erkennen, wie genau und wie ausbalanciert KI-Entscheidungen getroffen würden. Das verhindere Abhängigkeiten und schaffe mehr Vertrauen. IBM kündigte zudem neue Beratungsservices an, mit denen Unternehmen ihre eigenen Prozesse und Schnittstellen von Mensch zu KI entwickeln könnten.

Wie Sie KI-Projekte richtig angehen, erfahren Sie auf unserem Event "Hands on AI" am 25. Oktober in Köln

Zusätzlich will IBM Research das "AI Fairness 360 Toolkit" an die Open Source Community übergeben. Dabei handelt es sich eigenen Angaben zufolge um eine Bibliothek mit neuartigen Algorithmen, Codes und Tutorials. Akademiker, Forscher und Datenexperten bekämen damit das notwendige Wissen und die Fähigkeiten an die Hand, um Ungenauigkeiten und Unschärfen in KI-Modellen auszuschalten. Bisher seien die verfügbaren Open-Source-Quellen nur darauf spezialisiert, Verzerrungen in Trainingsdaten zu entdecken. Das IBM-Toolkit sei darüber hinaus in der Lage, Unstimmigkeiten im gesamten KI-Modell aufzudecken und zu vermeiden. Damit soll laut IBM der weltweite Austausch und die Zusammenarbeit zur Entwicklung von vorurteilsfreien KIs gefördert werden.