Open-Source-Software

Facebook-Konzern veröffentlicht neues KI-Modell Llama-3

19.04.2024
Der Facebook-Konzern Meta veröffentlicht eine neue, leistungsstärkere Version seines KI-Modells.
Der Meta-Konzern will zunächst Technologie entwickeln, die Menschen nützlich oder interessant fänden. Erst danach soll es um Geschäftsmodelle gehen.
Der Meta-Konzern will zunächst Technologie entwickeln, die Menschen nützlich oder interessant fänden. Erst danach soll es um Geschäftsmodelle gehen.
Foto: Michael Vi - shutterstock.com

Die Software mit dem Namen Llama-3 soll unter anderem neue Funktionen in Apps wie Instagram und WhatsApp bringen sowie im hauseigenen Assistenten Meta AI laufen. Llama-3 werde zunächst zwar nur auf Englisch verfügbar sein, sagte Meta-Manager Nick Clegg der Deutschen Presse-Agentur zur Ankündigung des Programms am Donnerstag. Allerdings seien mehr als fünf Prozent der Daten, mit denen Llama-3 trainiert worden sei, in anderen Sprachen gewesen.

Seinen KI-Assistenten bringt Meta unter anderem die in die zusammen mit Ray Ban entwickelte vernetzte Brille, die Kamera, Mikrofon und Lautsprecher hat. Man könne damit zum Beispiel beim Skifahren den Assistenten Fragen, wann und wie Kleopatra gestorben sei oder wie das Wetter in Berlin werde, sagte Clegg. Auch werde die Software schneller Bilder aus Text-Vorgaben erzeugen und diese auch als Animation darstellen können.

Nützliche oder interessante Technologie

Meta mache sich derzeit keine Gedanken über Geschäftsmodelle für KI-SoftwareKI-Software, betonte Clegg, der Politikchef des Konzerns ist. Der Facebook-Konzern wolle erst Technologie entwickeln, die Menschen nützlich oder interessant fänden - "und dann finden wir später heraus, wie man damit Geld verdienen kann". Alles zu Künstliche Intelligenz auf CIO.de

Anders als zum Beispiel der ChatGPT-Entwickler OpenAI macht Meta seine Llama-Technologie (Large Language Model Meta AI) als Open-Source-SoftwareOpen-Source-Software verfügbar, bei der der Quellcode öffentlich einsehbar ist. Es setzte sich immer mehr die Ansicht durch, dass Open-Source-Modelle sicherer seien, weil viele sie auf den Prüfstand stellen könnten und "man sich nicht darauf verlassen muss, dass ein Unternehmen die Schwachstellen in seiner Software ausbügelt". Zugleich fehle im Moment eine einheitliche Grundlage zur Bewertung von Risiken bei Künstlicher Intelligenz, bemängelte Clegg. (dpa/rs) Alles zu Open Source auf CIO.de

Zur Startseite