Ratgeber GenAI-Strategie

5 Auswahlkriterien für den KI-Stack

22.12.2023
Von   IDG ExpertenNetzwerk
Stefan Kolmar leitet seit 2015 bei Neo4j das Field Engineering für die Regionen EMEA und APAC. Er ist seit 30 Jahren im PreSales tätig. Er war bei Unternehmen wie wie Tandem, Compaq, Portal Software und TimesTen mit Schwerpunkt auf Datenbanktechnologien tätig. Nach der Acquisition von TimesTen durch Oracle übernahm er Management Positionen für internationale PreSales Teams.
KI-Anwendungen müssen basierend auf zukunftssicheren GenAI-Stacks grundlegende Kriterien erfüllen. Knowledge-Graphen bieten hier eine Kontrollinstanz.
GenAI-Strategien brauchen Kontrollinstanzen.
GenAI-Strategien brauchen Kontrollinstanzen.
Foto: girafchik | shutterstock.com

Wer ist eigentlich dafür verantwortlich, wenn die neue KI-App im Unternehmen Mist baut und der mit Large Language Models (LLM) trainierte Chatbot Unsinn erzählt? Natürlich steht jeder Anwender zunächst einmal selbst in der Pflicht. Es ist immer eine gute Idee, Antworten von Chatbots kritisch zu hinterfragen und KI-generierte Prognosen als das zu betrachten, was sie sind - nämlich sehr gute Wahrscheinlichkeitsberechnungen.

Angesichts der gewaltigen Dynamik der Technologien, den zu verarbeitenden Datenmassen und der generellen Blackbox-Mentalität von KI scheint die "menschliche" Überprüfung aber utopisch - und führt am eigentlich Zweck der KI vorbei.

Die IT in der Verantwortung

Kontrollinstanzen für die KI verlagern sich daher zunehmend in die Anwendungen selbst, beziehungsweise müssen als Teil des gesamten KI-Stack zukünftig mitgedacht werden. Kommt ein neues KI-Tool ins Portfolio, gilt es entsprechende Leitplanken in die IT-Infrastruktur zu integrieren. Zudem sind GenAI-Anwendungen keine Inseln. Im Zusammenspiel mit anderen Technologien lassen sie sich auf spezifische Anwendungsbereiche eingrenzen und besser kontrollieren. Betrachtet man das KI-Asset lediglich als weiteren IT-Baustein, trifft die Frage nach der Verantwortlichkeit für Fehlentscheidungen, Ausfälle und Risiken letztendlich - und wieder einmal - die CIOs.

Von rechtlicher Seite ist vorerst mit wenig Beistand zu rechnen. Was KI kann, ist spätestens seit ChatGPT jedem bekannt. Was KI darf, ist dagegen noch unklar. Der vor kurzem verabschiedete Artificial Intelligence Act der EU ist ein erster Versuch, KI-Systeme in Risikokategorien einzuordnen, an denen sich die gesetzlichen Auflagen für Anbieter orientieren. Das Gesetz greift frühestens in zwei bis drei Jahren. IT-Verantwortliche müssen aber jetzt eine GenAI-Strategie entwickeln, wollen sie von der Technologie profitieren und wettbewerbsfähig bleiben.

Frameworks, um GenAI-Anwendungen innerhalb der eigenen IT-Infrastruktur zu nutzen, gibt es viele. Sie alle haben einen zentralen Baustein: die verantwortungsvolle Übernahme (englisch: responsible adoption). Gemeint ist damit ein Katalog aus Top-Level-Kriterien wie Genauigkeit, Erklärbarkeit, Kontext, Sicherheit und Zuverlässigkeit. Wie sich diese Kriterien konkret umsetzen lassen, zeigt die Kombination aus einem Knowledge Graphen und LLM: Der Graph dient als "Navigationssystem", um GenAI den Weg durch die Unmengen an Daten zu weisen, klare Grenzsteine zu setzen und das Risiko von KI-Crashs zu reduzieren.

Kriterium #1: Genauigkeit

LLMs verfahren nach einem probabilistischen Verfahren. Sie ziehen die am häufigsten verwendeten Daten heran, um eine Frage zu beantworten. "Häufig" ist jedoch keinesfalls gleichzusetzen mit "faktisch richtig" oder gar "relevant". ChatGPT zum Beispiel nutzt als Datenquelle das Internet und verlässt sich unter anderem auf soziale Plattformen wie Reddit, wo Nutzer größtenteils unkontrolliert Meinungen und "News" veröffentlichen. Entsprechend oft kommt es zu Falschaussagen und KI-Halluzinationen - also Antworten, die plausibel klingen, aber frei erfunden sind.

Um höhere Genauigkeit zu erzielen, müssen den probabilistischen Schlussfolgerungen von LLMs idealerweise deterministischen Aussagen gegenübergestellt werden. Solche klar definierten Aussagen lassen sich über einen Knowledge-Graphen bereitstellen. Diese bilden Personen, Orte, Ereignisse oder Gegenstände nicht nur als eigenständige Entitäten ab. Sie stellen sie zudem zueinander in Relation. Daten und Datenbeziehen werden also gleichwertig behandelt.

Graph-Algorithmen können daher schneller und zielsicherer Zusammenhänge und Muster aufdecken. So lässt sich zum Beispiel feststellen:

  • wie stark bestimmte Informationen zusammenhängen, um daraus ihre Relevanz/Wichtigkeit abzuleiten (PageRank);

  • welche Daten eine Brücke zu anderen Daten, beziehungsweise Daten-Clustern bilden und damit einen höheren Einfluss auf den Informationsfluss besitzen (Betweenness Centrality);

  • ob Daten tatsächlich verbunden sind, damit darauf folgende Abfragen nicht ins Leere verlaufen und zu "halluzinieren" beginnen (Weakly Connected Components).

Solche Metadaten erlauben es wiederum, eine Priorisierung und Kategorisierung innerhalb der LLM-Trainingsdaten durchzuführen und ihre Genauigkeit zu verbessern. Statt Daten zu verwenden, die lediglich "häufig" vorkommen, werden Daten genutzt, die sowohl "häufig" als auch "relevant", "wichtig" oder "vollständig" sind.

Kriterium #2: Erklärbarkeit

KI-Modelle gleichen oft "Black Boxes": Tatsächlich versteht niemand wirklich, was in ihnen vorgeht. Selbst wenn die Datenquelle klar umrissen ist, lässt sich nicht sagen, welche Daten LLMs für welche Entscheidungen heranziehen und warum. Eine logische Argumentationskette, wenn überhaupt vorhanden, lässt sich nicht einsehen - geschweige denn rekonstruieren. Diese Unsicherheit wirft Fragen in Sachen Compliance und Sicherheit auf.

In Knowledge-Graphen sind Daten als Knoten, die Beziehungen zwischen ihnen als Kanten dargestellt. Jeder Datensatz und jede Information lässt sich mit ihrer Ursprungsquelle verknüpfen - bei Bedarf über mehrere Ebenen und Knotensprünge (Hops) hinweg. Der Datenpfad lässt sich selbst in hochgradig heterogenen Datensätzen visualisieren und im Detail nachvollziehen.

Das Knoten-Kanten-Modell im Graphen.
Das Knoten-Kanten-Modell im Graphen.
Foto: Neo4j
  • Wo und wann wurden die Daten erstmals erfasst?

  • Wurde in diese Datenerfassung eingewilligt?

  • Wo wurden die Daten weiterverarbeitet?

  • Wo befinden sie sich auf den jeweiligen Systemen und wie und wofür werden die Daten genutzt?

Die Transparenz im Knowledge Graph bildet die Grundlage, um LLMs zitierfähig zu machen und gesetzliche wie unternehmensinterne Richtlinien und Datenschutzvorgaben (allen voran die DSGVO) zu erfüllen.

Kriterium #3: Kontext

Eines der entscheidenden Merkmale von Knowledge-Graphen besteht darin, dass sie über ein inhärentes Organisationsprinzip verfügen (Property-Graph-Modell). Das verleiht Daten eine zusätzliche Strukturebene, die semantischen Kontext schafft. Dazu werden:

  • relevante Attribute und Datenknoten um eine Abfrage herum verknüpft,

  • sinnvolle Verknüpfungen zwischen Attributen selbstständig erstellt, sowie

  • Metadaten ergänzt, um Antworten auf spezifische Probleme zu finden (selbst wenn die Fragestellung vorab unklar ist).

Knowledge-Graphen reichern die LLMs mit Kontextinformationen an - aus dem eigenen Unternehmen sowie mit institutionellem Wissen (etwa Datenbanken von Drittanbietern). Damit lassen sich GenAI-Lösungen hinsichtlich spezifischer Business Cases trainieren. Gleichzeitig erhöht sich die faktische Richtigkeit der Antworten.

Kriterium #4: Sicherheit

Im Unternehmensumfeld müssen GenAI-Anwendungen Datenschutz- und Sicherheitsvorgaben erfüllen. Dazu gehört die Frage, auf welche Daten die LLMs überhaupt zugreifen dürfen und an welche Anwender die daraus resultierenden Antworten weitergegeben werden können. Die Integration von Identity and Access Management (IAM)-Lösungen in den KI-Stack sorgt für ein entsprechendes Enforcement.

Dabei sollte sich die Vergabe weniger an der Position eines Mitarbeitenden als an seiner spezifischen Rolle orientieren. Vor allem da sich Aufgaben und Rechte im heutigen Unternehmensumfeld schnell ändern können und strikte Hierarchien abnehmen. Gefragt ist daher ein detaillierter und agiler IAM-Ansatz, der schnelle Änderungen erlaubt, ohne an Detailgenauigkeit zu verlieren.

In einem Knowledge-Graphen lassen sich solche Zugriffsrechte für jeden einzelnen Datenpunkt (Knoten) festlegen und flexibel anpassen. Vergebene Zugriffsrechte können beispielsweise als Attribut (Property) eines Knoten hinzugefügt werden. Neue Mitarbeitende werden über ein Knoten-Kanten-Modul ergänzt. LLM-basierte KI-Anwendungen können so in Sekundenschnelle darüber entscheiden, ob sie den Zugang bei Anfragen gewähren oder verweigern und beispielsweise nur einen Teilausschnitt offenlegen.

Kriterium #5: Zuverlässigkeit

Die Entwicklung von GenAI ist hochdynamisch. Wie und in welchem Umfang LLMs in Zukunft zum Einsatz kommen, bleibt abzuwarten. In diesem Sinne unterscheidet sich KI nicht von anderen "neuen" Technologien. Als die Cloud vor gut zwanzig Jahren erstmal zu einer praktikablen Lösung in Unternehmen wurde, grub sie tiefe Denkfalten in die Stirn von IT-Verantwortlichen. Heute ist SaaS aus keinem Unternehmen mehr weg zu denken. Und so wie die Cloud Migration sorgfältig geplant sein will, sollte auch der KI-Stack durchdacht und in Hinblick auf zukünftige Eventualitäten konstruiert werden.

Ein absolutes Muss für KI-Anwendungen ist daher hohe Flexibilität, Skalierbarkeit und Performance der Systeme. Gerade die für KI nötigen Datenmassen lassen sich mit relationalen Datenbanken allein nicht mehr verarbeiten. An ihrer Stelle treten Data Warehouses und Data Lakes sowie spezielle NoSQL-Datenbanken. Graph-Datenbanken skalieren in bestimmten Anwendungsszenarien deutlich besser als klassische relationale Datenbanken. Gleichzeitig bietet ihr inhärentes Datenschema ein hohes Maß an Agilität.

Ebenso zentral ist die Interoperabilität von GenAI-Anwendungen mit Cloud- und Datenanbietern. Beispiele sind native BigQuery (für Google), Data Warehouse Connector oder BI Connector. Wie immer sich der KI-Stack zusammensetzt, das Ziel bleibt das gleiche: Kommende Innovationen und Weiterentwicklungen integrieren zu können, ohne bei Null anfangen zu müssen. (fm)