Ausbau der KI-Plattform

Google Cloud tunt Vertex AI mit neuen LLM-Funktionen

11.04.2024
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
Google Cloud will das Handling von Modellen und Funktionen auf seiner KI-Plattform Vertex AI vereinfachen. Dazu zählen auch ein neues Prompt Management und ein Agenten-Builder.
Auf der Cloud Next 24 in Las Vegas rückte Google Cloud einmal mehr das Thema KI ins Rampenlicht.
Auf der Cloud Next 24 in Las Vegas rückte Google Cloud einmal mehr das Thema KI ins Rampenlicht.
Foto: Google Cloud

Google Cloud hat auf seiner Konferenz Cloud Next 24 neue Large Language Models (LLMs) für seine KI- und Machine-Learning-Plattform Vertex AI vorgestellt. Mit Hilfe von Vertex AI sollen Anwenderunternehmen generische KI-Modelle im Rahmen ihrer IT-Infrastruktur bereitstellen und verwalten können. Das beinhaltet auch, diese Modelle anpassen und erweitern zu können.

Laut Google-Cloud-CEO Thomas Kurian bietet der Konzern mittlerweile mehr als 130 KI-Modelle auf Vertex AI an, darunter die neuesten Versionen von Googles eigenem KI-Modell Gemini sowie Partnermodelle wie Claude 3 und offene Modelle wie Llama 2, Mistral und Googles Gemma. Derzeit stellt Google Gemini 1.5 Pro als Public Preview zur Verfügung. Das KI-Modell unterstützt laut Herstellerangaben bis zu einer Million Tokens und kann eine Stunde Video, elf Stunden Audio sowie Codebasen mit über 30.000 Zeilen in einem einzigen Stream verarbeiten.

Mit Imagen 2.0 offeriert Google zusätzlich eine Text-zu-Bild-Technologie, mit der Unternehmen Bilder erstellen können, die beispielsweise spezifischen Markenanforderungen entsprechen. Eine neue Text-to-Live-Bildfunktion soll es unter anderem Marketing- und Kreativteams erlauben, animierte Bilder wie Gifs zu erstellen, die zudem mit Sicherheitsfiltern und digitalen Wasserzeichen versehen sind.

Für sein Gemini-1.5-Pro-Modell bietet Google einen neuen Entwicklungsassistenten an. Mit Gemini Code Assist könnten Entwickler ihre Jobs rund 40 Prozent schneller erledigen, verspricht der Anbieter. Das Tool unterstützt darüber hinaus verschiedene, auch heterogen zusammengesetzte Entwicklungslandschaften - dazu zählen Plattformen wie GitHub, GitLab und Bitbucket.

Google Vertex AI Studio angetestet

Neben den zusätzlichen Funktionen hat Google auch am Management und Tuning der KI-Modelle gearbeitet. Über Vertex AI stünden Anwenderunternehmen verschiedene Techniken zur Verfügung, um Basismodelle auch mit eigenen Daten abzustimmen. Die Google-Verantwortlichen sprechen an dieser Stelle von Feintuning, Reinforcement Learning mit menschlichem Feedback (RLHF) sowie überwachten, adapterbasierten Tuning-Techniken wie Low Rank Adaption (LORA).

KI-Modelle mit Unternehmensdaten verknüpfen

Darüber hinaus könnten Kunden KI-Modelle per in Vertex AI integriertem Retrieval Augmented Generation (RAG) mit anderen Systemen verbinden, um darüber weitere Informationen abzurufen. Beispielsweise ließen sich verschiedene Grounding-Modelle in der Google-Suche kombinieren. Das verbessere die Vollständigkeit und Genauigkeit der Antworten, verspricht der Anbieter. Außerdem könnten die Modelle über den Agenten Enterprise Truth mit eigenen Daten aus Unternehmensanwendungen wie zum Beispiel Workday oder Salesforce sowie mit Informationen aus Googles Cloud-Datenbanken wie AlloyDB und BigQuery verknüpft werden.

Was ist Retrieval Augmented Generation (RAG)?

Google implementiert außerdem zusätzliche Funktionen in Vertex AI, um Usern die Arbeit mit KI-Modellen im Tagesgeschäft zu erleichtern. Zu den MLops-Features zählt beispielsweise das Vertex AI Prompt Management, das Anwendern dabei helfen soll, mit Prompts zu experimentieren. "Vertex AI Prompt Management bietet eine Bibliothek von Prompts, die von Teams verwendet werden, einschließlich Versionierung, der Möglichkeit, alte Prompts wiederherzustellen, und KI-generierten Vorschlägen zur Verbesserung der Prompt-Leistung", hieß es von Seiten Googles. Außerdem seien Unternehmen damit in der Lage, Prompt-Iterationen nebeneinander zu vergleichen, um zu beurteilen, wie sich kleine Änderungen auf den Output auswirken.

Vertex AI erhält neuen Agenten-Builder

Um mit Konkurrenten wie Microsoft und AWS mithalten zu können, hat Google Cloud zudem einen neuen Agenten-Builder in Vertex AI eingebaut. Das No-Code-Angebot kombiniert verschiedene Funktionen wie ein RAG-System, Datenkonnektoren sowie Vertax AI Search und soll die Entwicklung virtueller Agenten, die auf Googles Gemini LLMs basieren, beschleunigen. Es seien nur wenige Klicks nötig, um mit vorgefertigten Komponenten loslegen zu können, hieß es.