ChatGPT-Rivale

Metas KI-Modell LLaMA wurde schon geleakt

08.03.2023
Von 
Heinrich Vaske ist Editorial Director a.D. von COMPUTERWOCHE, CIO und CSO.
Nach OpenAI und Google hat auch die Facebook-Mutter Meta ihr Sprachmodell Large Language Model Meta AI (LLaMa) herausgebracht. Was die Zuckerberg-Company nicht wollte: LLaMa ist für jeden zugänglich.
Mit dem ChatGPT-Rivalen LLaMA tritt auch Meta-Chef Mark Zuckerberg im großen Generative-AI-Zirkus auf.
Mit dem ChatGPT-Rivalen LLaMA tritt auch Meta-Chef Mark Zuckerberg im großen Generative-AI-Zirkus auf.
Foto: Rokas Tenys - shutterstock.com

Vergangene Woche kündigte Meta ihr Large Language Model LLaMa an, um gegen OpenAIs GPT (= Generative Pretrained Transformer) und Googles LaMDA in den Ring zu steigen. GPT ist die Basis für ChatGPT, das wiederum von Microsoft lizenziert und in Produkte wie die Suchmaschine Bing integriert wurde. Google hatte ein wenig überhastet mit LaMDA geantwortet, das dem ChatGPT-Rivalen Bard Leben einhaucht.

Meta beabsichtigte offenbar keineswegs, GPT einfach nachzubauen. LLaMA wird als kleineres, performanteres Modell beschrieben, das bei ähnlicher Leistungsstärke wie die Rivalen weniger Rechenpower verbrauchen und damit einen kleineren ökologischen Fußabdruck haben soll. Zudem war LLaMa von Anfang an offen angelegt, anders als der proprietäre Rivale von OpenAI, wo dieses Attribut allenfalls im Namen steht.

Vier Varianten von LLaMA

LLaMA soll es in vier Varianten geben, mit sieben, 13, 33 oder 65 Milliarden Parametern. Die Menge der Parameter, mit denen eine KI trainiert wird, entscheidet maßgeblich über die Qualität der Antworten. Meta beabsichtigt, das Modell vorerst nur über nicht-kommerziellen Lizenzen ausschließlich für Forschungseinrichtungen bereitzustellen. Man wolle Labore, Universitäten und staatliche Einrichtungen ausstatten, hieß es.

Wie der Guardian berichtet, hat Meta durch diese Freigabe für die Wissenschaft eine der großen Hürden in der KI-Forschung beseitigt: die enorm hohen Kosten für das Training eines Large Language Model (LLM). Obwohl OpenAI die Kosten für die GPT-3-Trainingsläufe nie beziffert hat, gehen Insider von zehn bis zwölf Millionen Dollar je Training aus. Durch die Freigabe von LLaMA können Forscher also Millionenbeträge sparen und die Grundlagenforschung immens vorantreiben.

Metas Großzügigkeit ist jedoch nicht grenzenlos: "Um die Integrität zu wahren und Missbrauch zu verhindern, wird der Zugriff auf das Modell von Fall zu Fall gewährt", teilte das Unternehmen mit. Doch damit ist es nun schon nach wenigen Tagen vorbei: Am vergangenen Wochenende wurde das gesamte Modell von Unbekannten für jedermann auf "4chan" zum Download freigegeben.

LLaMA ist frei verfügbar, aber nur von Wenigen zu gebrauchen

Was das bedeutet, ist noch nicht klar: Das Modell ist in seiner jetzigen Form für Menschen, die keine tiefergehenden technischen Fähigkeiten haben und nicht über einen Zugang zu einem leistungsstarken Rechner verfügen, weitgehend unbrauchbar. Unklar ist auch, ob Meta auf irgendeine Weise versuchen wird, den Geist zurück in die Flasche zu befördern. Der Guardian prophezeit allerdings, dass sich LLaMA schnell zur am weitesten verbreiteten KI der Welt entwickeln dürfte.

Damit stehen nun kostenlose KI-Modelle wie LLaMA oder der Open-Source-verfügbare Text-to-Image-Generator Stability AI von Stable Diffusion kommerziellen Angeboten von OpenAI (Dall-E), Microsoft und Google gegenüber. Letztere haben Milliarden in das Training und Verbesserung ihrer Modelle investiert und möchten als Gatekeeper fungieren - also Geld damit verdienen. Wenn Unternehmen eine KI-Lösung auf der Basis von ChatGPT aufbauen möchte, soll das seinen Preis haben.

Sie interessieren sich für Generative AI? Dann lesen Sie auch:

Auf der anderen Seite gibt es jetzt öffentlich zugängliche, gleichwertige KI-Modelle, auf denen theoretisch jeder aufsetzen kann. Auch hier dürfte Geld verdient werden - von Entwicklern etwa, die in diesem Umfeld ihre Services anbieten, oder von Cloud- und Infrastrukturanbietern. Doch die wirtschaftlichen Vorteile verteilen sich auf viele Köpfe, eine Kontrollinstanz im Sinne eines Gatekeepers gibt es nicht.

Der kommerzielle, kontrollbasierte Ansatz hat durchaus seine positive Seite: OpenAI, Microsoft und Google kassieren nicht nur ab, sie sorgen auch dafür, dass ihre Tools verantwortungsvoll genutzt werden. Diese Unternehmen versprechen, alle nötigen Maßnahmen zu ergreifen, um Spammern und Hackern das Leben schwer zu machen und dafür zu sorgen, dass Anfragen und Antworten gefiltert werden. Nutzer von Stability-AI oder LLaMA dürften sich daran kaum halten, so dass anstößige oder manipulative KI-Inhalte - in Text und Bild - schon bald das Netz fluten könnten.