Retrieval Augmented Generation

So dämmen Sie KI-Bullshit ein

21.11.2023
Von 
Matt Asay ist Autor der US-Schwesterpublikation Infoworld.com.
Große Sprachmodelle, die mit fragwürdigen Daten trainiert werden, liefern entsprechend minderwertige Ergebnisse. Retrieval Augmented Generation ist eine Möglichkeit, gegenzusteuern.
Retrieval Augmented Generation kann massiven BS-Problemen mit großen Sprachmodellen vorbeugen.
Retrieval Augmented Generation kann massiven BS-Problemen mit großen Sprachmodellen vorbeugen.
Foto: fran_kie - shutterstock.com

Selbst Menschen, die nichts mit der Tech-Branche am Hut haben, haben von der kürzlichen Entlassung des OpenAI-CEO Sam Altman (und der darauffolgenden Verpflichtung durch Microsoft) gehört. Ein Zeichen dafür, dass (generative) künstliche Intelligenz (KI) endgültig im Mainstream angekommen ist.

Was sich jedoch bislang nicht verändert hat: KI übt unverändert eine enorme Anziehunsgkraft auf Bullshit aus - wie es Alan Blackwell, Professor für interdisziplinäres Design an der Universität von Cambridge, ganz unverblümt in einem lesenswerten Blogpost formuliert. Damit ist nicht gemeint, dass KI ein großer, nichtssagender Hype ist - sondern vielmehr, dass ihr die Substanz fehlt.

Zwar realisieren viele Unternehmen in diversen Branchen bereits Mehrwert mit KI - und sogar mit Generative AI, das lediglich eine kleine Untergruppe des riesigen KI-Marktes darstellt. Und doch hat Blackwell recht, wenn er schreibt: "KI produziert buchstäblich Schwachsinn - sie erfindet auf der Grundlage von Trainingsdaten Dinge, die gut klingen."

"Dann haben wir Schwachsinn automatisiert"

Die "Wahrheit" ist dabei für die Funktionsweise von Large Language Models (LLMs) nicht entscheidend: Große Sprachmodelle sind Deep-Learning-Algorithmen, die mit Hilfe enormer Datensätze Inhalte erkennen, zusammenfassen, übersetzen und vorhersagen, beziehungsweise generieren können. In dieser Definition haben "Fakt" und "Wissen" keinen Platz. Das wird bei mathematischen und physikalischen Fragen regelmäßig deutlich: Hier kann es nur eine richtige Antwort geben. Und die Wahrscheinlichkeit, dass die von ChatGPT und Co. erzeugt wird, ist eher gering.

In Anlehnung an Geoffrey Hinton schreibt Blackwell: "Wir sollten nicht befürchten, dass Chatbots superintelligent werden. Eines der größten KI-Risiken besteht darin, dass sie Texte generieren, die überzeugend klingen, ohne dabei intelligent zu sein." Das würde einer Fake-News-Generierung auf Steroiden gleichkommen, schreibt der Professor und fügt hinzu: "Dann haben wir Schwachsinn automatisiert."

Verwunderlich ist das in den Augen Blackwells dabei keinswegs, schließlich bildeten Plattformen wie das Ex-Twitter, Facebook und Reddit die Hauptquellen für die großen Sprachmodelle, die ChatGPT und anderen GenAI-Diensten zugrundliegen. "Es gibt bei ChatGPT keinen Mechanismus, der überprüft was in diesen riesigen Bullshit-Archiven der Wahrheit entspricht und was nicht. Das führt zu entsprechendem, fäkalbehaftetem Output."

Wie Retrieval Augmented Generation hilft

Der Schlüssel, um LLMs ein gewisses Maß an nützlichem Wissen zu entlocken, liegt laut Brooks darin, die Modelle "einzugrenzen". Eine wesentliche Methode, um das in der Praxis umzusetzen, ist Retrieval Augmented Generation (RAG). Zachary Proser, Developer Advocate beim KI-Anbieter Pinecone, charakterisiert das Konzept in einem Blogpost: "Retrieval Augmented Generation ist, wie eine Karte mit kritischen Punkten hochzuhalten, die Ihr LLM sehen kann. Es ist eine Möglichkeit, ein großes Sprachmodell mit eigenen Daten zu erweitern und mehr Kontext und Wissen einzubringen, um bessere Antworten generieren zu können."

Ein grundlegendes Element von RAG sind Vektoren, die in einer Vielzahl von KI-Anwendungen zum Einsatz kommen. Ein 'Vector Embedding' stellt einfach eine lange Liste von Zahlen dar, die in einer Vektordatenbank gespeichert sind und die Merkmale eines Datenobjekts beschreiben. Diese Informationen werden verwendet, um die semantische Bedeutung von Objekten in Relation zu anderen Objekten zu erfassen.

Ähnliche Objekte werden dabei im Vektorraum gruppiert und liegen umso enger beieinander, desto stärkere Ähnlichkeiten sie aufweisen. Das ermöglicht, nach verwandten Entitäten mit ähnlichen Merkmalen zu suchen, ohne sich dabei auf Synonyme oder Keyword-Abgleiche verlassen zu müssen. "Da das LLM nun Zugang zu den relevantesten und fundiertesten Fakten Ihrer Vektordatenbank hat, kann sie genaue Antworten liefern. RAG kann die Wahrscheinlichkeit von KI-Halluzinationen deutlich reduzieren", konstatiert Proser nicht ganz uneigennützig.

Davon abgesehen, ist das exakt die Art der Eingrenzung, die es laut Blackwell braucht, um echten Nutzwert aus Large Language Models und Generative AI herauszukitzeln. Alles andere ist nur automatisierter Bullshit. (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.