IBM watsonx.governance

KI transparent steuern und kontrollieren

14.11.2023
Von 
Jürgen Hill ist Chefreporter Future Technologies bei der COMPUTERWOCHE. Thematisch befasst sich der studierte Diplom-Journalist und Informatiker derzeit mit aktuellen IT-Trendthemen wie KI, Quantencomputing, Digital Twins, IoT, Digitalisierung etc. Zudem verfügt er über einen langjährigen Background im Bereich Communications mit all seinen Facetten (TK, Mobile, LAN, WAN). 
Transparenz und Einhaltung regulatorischer Anforderungen bei KI-Modellen – dies soll der neue IBM-Service watsonx.governance ermöglichen.
IBM erweitert sein KI-Portfolio um den SaaS-Dienst watsonx.governance.
IBM erweitert sein KI-Portfolio um den SaaS-Dienst watsonx.governance.
Foto: sdx15 - shutterstock.com

Mit watsonx.governance will IBM künftig Unternehmen bei der Automatisierung der KI-Lebenszyklus-Governance sowie beim proaktiven Risiko- und Compliance-Management zu unterstützen. Anwender sollen so maschinelles Lernen, generative KI-Tools, -Anwendungen und -Modellen von einem Ort aus steuern können.

Nach Angaben von IBM wurde watsonx.governance entwickelt, um Anwendern bei der Verwaltung ihrer KI zu unterstützen und sie auf die Erfüllung regulatorischer Anforderungen vorzubereiten. Der Dienst soll ab Dezember als Software-as-Service (SaaS) per Cloud zur Verfügung stehen.

KI-Governance

Watsonx.governance ist eines von drei Softwareprodukten der IBM watsonx KI- und Datenplattform. Die Plattform umfasst ferner das watsonx.ai next-generation enterprise studio für KI-Entwickler und den hybriden Datenspeicher watsonx.data.

Laut IBM umfasst watsonx.governance automatisierte Funktionen, die alle drei wichtigen Säulen der KI-Governance abdecken - Lifecycle Governance, Risikomanagement und Compliance. Konkret beinhaltet dies, wie es heißt:

  • Die Fähigkeit, die Metriken neuer Large Language Modelle (LLM) zu überwachen,

  • Erhöhte Transparenz und Erklärbarkeit,

  • Validierungs-Tools für LLMs,

  • Eine bessere Überwachung des Zustands eines Modells, etwa Datengröße, Latenz und Durchsatz. So sollen Engpässe, rechenintensive Arbeitslasten und das Abdriften von Textmodellen erkannt werden.

Services für LLMs

Mit dem neuen Cloud-Service will IBM drei Säulen der KI-Governance abdecken - Lifecycle Governance, Risikomanagement und Compliance.
Mit dem neuen Cloud-Service will IBM drei Säulen der KI-Governance abdecken - Lifecycle Governance, Risikomanagement und Compliance.
Foto: Mammadzada - shutterstock.com

Ferner biete der Service folgende erweiterte Funktionen für LLMs:

  • Überwachung neuer LLM-Metriken

Überwachen und warnen Sie sowohl im Input als auch im Output von LLMs, wenn voreingestellte Schwellenwerte für Qualitätsmetriken, Instanzen toxischer Sprache - einschließlich Hass, Missbrauch und Profanität - und personenbezogene Daten (PII) verletzt werden.

  • Einsicht in die LLM-Entwicklung

Informationen über den Prozess der Modellerstellung können automatisch gesammelt werden. Ferner werden Entscheidungen erläutert, um Halluzinationen und andere neue Risiken zu minimieren.

  • Transparenz des KI-Lebenszyklus für LLMs

Modellfakten werden in allen Phasen des Lebenszyklus dokumentiert und die Abweichung von Textmodellen überwacht. Zudem lassen sich Zustandsdetails wie Datengröße, Latenz und Durchsatz verfolgen, um Engpässe und rechenintensive Workloads zu identifizieren.

  • Validierungswerkzeuge für LLMs

Prompt Engineers sind damit in der Lage, LLM-Ausgaben auf bereitgestellte Kontext-/Referenzdaten für Q&A-Anwendungsfälle abzubilden. So können sie festzustellen, ob die LLM angemessen von den Referenzdaten beeinflusst wird, um sicherzustellen, dass diese für die Ausgabe relevant sind.

Anfangs beschränkte LLM-Unterstützung

In der ersten Version von watsonx.governance können die Anwender lediglich die LLM-Modelle der watsonx.ai-Welt verwenden. Dazu zählen neben den von IBM entwickelten Modelle auch verschiedene Modelle von Drittanbietern wie Llama 2 und die der Hugging Face Community.

Im ersten Quartal 2024 - so die derzeitige Planung - soll dies erweitert werden. Dann sollen Anwender die Möglichkeit bekommen, KI-Modelle von Drittanbietern zu steuern - in der Cloud oder vor Ort -, um so ihre Governance-Prozesse im gesamten Unternehmen zu orchestrieren.