watsonx zielt aufs Enterprise

Wie sich IBM gegen ChatGPT und Bard behaupten will

17.07.2023 von Martin Bayer
KI-Pionier IBM setzt vor allem auf die Business-Tauglichkeit seine watsonx-Plattform, um gegen ChatGPT von OpenAI und Google Bard zu punkten.
Mit watsonx will IBM sein KI-Portfolio rund um die Marke Watson ins Generative-AI-Zeitalter führen.
Foto: IBM

Während derzeit der KI-Zweikampf zwischen OpenAIs ChatGPT und Googles Bard die Schlagzeilen bestimmt, versucht KI-Pionier IBM sich mit seiner stärker auf Business-Anforderungen getrimmten watsonx-Technik im Markt zu behaupten. Viele Unternehmen suchten fieberhaft nach Möglichkeiten, Generative AI für sich zu nutzen, sagt Hardy Gröger, IBM Distinguished Engineer und Technical Lead Data and AI in der DACH-Region. "Aber sie sind oft überfordert, unzureichend vorbereitet und unsicher, wie sie vorgehen sollen - denn die möglichen rechtlichen Risiken sind immer noch immens und viele technische Fragen unbeantwortet."

watsonx: IBM kündigt KI-Offensive an

Hier will IBM mit dem im Mai 2023 vorgestellten watsonx ansetzen. Das KI-Paket, das Werkzeuge zum Erstellen von KI-Modellen (watsonx.ai Studio), eine Datenplattform (watsonx.data) sowie ein Governance-Toolset beinhaltet, unterscheidet sich laut Gröger fundamental von Systemen wie ChatGPT und Bard. Der IBM-Manager verweist auf

"Mit watsonx erhalten Kunden und Partner die Chance, KI-Modelle für den Business-Einsatz in verschiedenen Bereichen selbst anzupassen und auch komplett eigene KI-Modelle zu entwickeln", so Gröger. An den Beta- und Tech-Preview-Programmen von watsonx hätten 155 Firmen aus verschiedenen Branchen teilgenommen - von Telekommunikationsunternehmen bis hin zu Banken. Deren Feedback sei kontinuierlich in die weitere Entwicklung von watsonx eingeflossen. Herausgekommen sei eine KI-Plattform, "die die Vielseitigkeit von Foundation-Modellen mit umfangreichen Funktionen für maschinelles Lernen kombiniert und die mit eigenen Trainings- und Unternehmensdaten gefüttert werden kann".

ChatGPT und Bard: Proprietär, intransparent und unklare Datenherkunft

Die aktuell populären generativen KI-Systeme seien meistens proprietäre Public-Cloud-Systeme, stellte der IBM-Manager fest und kritisierte intransparente Prozesse sowie eine unklare Herkunft der Trainingsdaten. Diese Systeme böten keine hinreichende Sicherheit darüber, wie und wo Daten genau verarbeitet würden.

Hardy Gröger, Distinguished Engineer and Technical Lead Data and AI DACH bei IBM, kritisierte intransparente Prozesse sowie eine unklare Herkunft der Trainingsdaten bei populären Bots wie ChatGPT und Bard.
Foto: IBM

Mit watsonx behielten Anwenderunternehmen dagegen die Souveränität und Kontrolle über ihre Daten, warb Gröger. Damit ließen sich KI-Modelle mithilfe von RedHat OpenShift überall ausführen - in beliebigen Clouds wie auf lokalen Infrastrukturen. Unternehmen könnten ihre Modelle auch vor Ort mit ihren eigenen Daten ausführen und bei Bedarf auch trainieren. Durch offene Standards zur Speicherung von Daten und durch den möglichen Zugriff mittels offener Schnittstellen werde zudem das Risiko eines Vendor-Lock-in vermieden oder zumindest verringert.

Experimente im Prompt-Labor

Gröger gab weitere Details zum Funktionsumfang von watsonx bekannt. Das Entwicklungs-Toolset Watsonx.ai Studio soll ein Prompt-Labor mitbringen. Dieses soll zum Experimentieren und Erstellen von Prompts für verschiedene Anwendungsfälle und Aufgaben einladen. Im Laufe der nächsten Monate sollen zudem weitere Möglichkeiten zum Fine Tuning von Foundation-Modellen mit gelabelten Daten hinzukommen sowie Funktionen zum automatischen Erstellen von Machine-Learning-Modellen inklusive Modelltraining, Entwicklung und visueller Modellierung.

KI-Entwickler könnten in watsonx.ai initial des weiteren auf optimierte Encoder-Modelle sowie fünf einsatzbereite Open-Source-Modelle verschiedener Architekturen zurückgreifen. Diese seien bereits ab Werk für eine Reihe von NLP-Aufgaben (Natural Language Processing) trainiert. Dazu gehört IBM zufolge die Beantwortung von Fragen, das Erstellen von Inhalten und Zusammenfassungen sowie das Klassifizieren und Extrahieren von Texten. Künftige Releases von watsonx.ai würden weitere, IBM-eigene Foundation-Modelle mitbringen, die auf bestimmte Industrien oder Aufgabenbereiche zugeschnitten seien.

IBM will darüber hinaus einsatzbereite, Business-orientierte Lösungen auf Basis von watsonx bereitstellen. Dabei werde der Fokus zunächst auf Code-Entwicklung, Automatisierung von repetitiven Tätigkeiten (Digital Labor) und Cybersecurity liegen, kündigte Gröger an. Beispielsweise stelle RedHat Ansible LightSpeed in Verbindung mit dem IBM Watson Code Assistant einen Generative-AI-Service bereit, der Entwicklern das Erstellen von Ansible-Inhalten erleichtere. Sie könnten Anweisungen in natürlicher Sprache geben und der Code Assistant generiere dann mithilfe von Foundation-Modellen passende Codebeispiele.

IBM will watsonx mit Quantencomputern verknüpfen

Mit watsonx.data sollen Unternehmen auf alle Daten in Cloud- und On-Premises-Umgebungen zentral über einen einzigen Zugangspunkt zugreifen können. Dabei stünden gängige Engines wie Presto und Spark zur Verfügung, die für verschiedene Workloads zum Einsatz kommen können. Das gelte laut IBM beispielsweise für Datenexploration, -transformation und -analyse oder auch die Aufbereitung von Daten für das Training und Tuning von KI-Modellen. Durch die flexible Wahl der Engine, die für den jeweiligen Zweck nötig sind, würden Ressourcen effizienter genutzt, versprach Gröger. Unternehmen könnten außerdem durch die teilweise Verlagerung von Daten, die nur gelegentlich genutzt werden, die Kosten für ihr Data Warehouse um bis zu 50 Prozent senken.

Der IBM-Mann kündigte an, dass der Leistungsumfang von watsonx in den nächsten Monaten kontinuierlich durch zusätzliche Funktionen ergänzt werde. Im laufenden Jahr soll der Fokus dabei auf der Fortentwicklung der Foundation-Modelle liegen. Neben NLP würden auch weitere Anwendungsfälle unterstützt. Gröger deutete auch Verbindungen von watsonx mit den eigenen Quantenrechnern an. Das könnte ungeahnte Möglichkeiten in Forschung und Wissenschaft sowie für die gesamte Gesellschaft eröffnen.

IBM baut eigene KI-Chips für seine watsonx-Cloud

Derweil arbeitet IBM offenbar daran, seine eigene Cloud-Infrastruktur besser auf künftige KI-Workloads hin zu optimieren. Reuters zufolge will der IT-Konzern eigene KI-Chips entwickeln, wohl auch um die Kosten des KI-Betriebs im Griff zu behalten. Auf einer Konferenz in San Francisco sprach Mukesh Khare, General Manager der Halbleiter-Sparte von IBM, von einer Artificial Intelligence Unit. Dieser Chip soll künftig Bestandteil des watsonx-Cloud-Service von IBM sein.

Viele KI-Anbieter nutzen derzeit Grafikbeschleuniger von Nvidia, gerade für ihre Trainings-Workloads. Andere IT-Größen wie die Google-Mutter Alphabet oder Amazon entwickeln eigene KI-Chips. Khare wollte nicht verraten, wann IBM seine KI-Chips an den Start bringt. Derzeit seien tausende als Prototypen im Testeinsatz.

Gegenüber Reuters betonte der IBM-Manager, man wolle nicht Nvidias Chips nachbauen oder ersetzen. Dem IT-Konzern gehe es vor allem darum, produktive KI-Workloads möglichst kosteneffizient abzuwickeln, also den Betrieb bereits trainierter Modelle. "Wir zielen im Moment nicht auf das KI-Training", sagte Khare. Das sei ein anderes Kaliber, was die Rechenleistung angehe. "Wir wollen dorthin gehen, wo wir die größte Wirkung erzielen können."