Google Cloud Next 23

KI lässt bei Google Cloud die Kassen klingen

29.08.2023 von Jürgen  Hill
Die diesjährige Google-Cloud-Next-Veranstaltung steht ganz im Zeichen der KI. Egal, ob Infrastruktur oder Collaboration Tools, es gibt so gut wie nichts im Google Portfolio, das nicht mit AI-Funktionen aufwartet.
Gut gelaunt eröffnete Thomas Kurian die die Konferenz Google Cloud - keine Wunder, denn sein Geschäftsbereich ist endlich profitabel.
Foto: Google Cloud

Ein sichtlich gut gelaunter Thomas Kurian, CEO von Google Cloud, eröffnete die diesjährige Google Cloud Next 23 in San Francisco. Dort findet die Veranstaltung seit 2019 zum ersten Mal wieder als Präsenzveranstaltung statt.

Google Cloud ist profitabel

Zur guten Laune des CEO dürften nicht nur die zahlreichen KI-Neuerungen beitragen, sondern auch die Geschäftszahlen. Google Cloud, die Nummer drei unter den großen Hyperscalern, erreichte im zweiten Quartal 2023 einen Jahresumsatz von rund 32 Milliarden Dollar. Nachdem Google-Mutter Alphabet über Jahre Milliardensummen in das Cloud-Geschäft stecken musste, war Google Cloud nun das zweite Quartal in Folge profitabel.

Zum ersten Mal seit 2019 findet die Next 23 wieder als Präsenzveranstaltung statt.
Foto: Google Cloud

Einen Grund für den Erfolg sieht Kurian darin, dass im Zuge der digitalen Transformation weltweit zahlreiche Großunternehmen - hierzulande etwa die Deutsche Bank oder die Deutsche Börse - auf die Cloud-Lösungen des Unternehmens setzen. Diesen Erfolgskurs will der CEO nun mit KI-Features und generativer AI fortsetzen.

Googles KI-Kurs

Dazu zählen, so der CEO, unter anderem:

So will der Hyperscaler eine KI-optimierte Infrastruktur anbieten, auf der Unternehmen ihre KI-Modelle trainieren und betreiben können. Diese Infrastruktur soll in den verschiedenen Cloud-Regionen verfügbar sein und entweder in Rechenzentren mit Google Distributed Cloud oder am Edge laufen.

Hier will man Entwickler-Tools zur Erstellung von KI-Modellen und KI-gestützten Anwendungen zu Verfügung stellen. So eigne sich Vertex Al für die Erstellung benutzerdefinierter Modelle und die Entwicklung unternehmenseigener Such- und Konversationsanwendungen mit Unternehmensdaten.

Hierbei handelt es sich um einen aktiven KI-Helfer, der tief in Google Workspace und Google Cloud integriert ist. Nach den ersten Ankündigungen Anfang 2023 ist Duet Al in Workspace jetzt allgemein verfügbar. Die KI kann den User beim Schreiben und in Tabellenkalkulationen unterstützen. Zudem erstellt sie Notizen in Meetings, agiert als Projektmanager sowie visueller Designer.

Noch in der Preview-Phase befindet sich Duet Ai in Google Cloud. Hier soll die KI wie ein Programmierer, Datenbankprofi oder Datenanalyst arbeiten und zudem als Berater für Cybersicherheit dienen.

Neue KI-Infrastruktur

Alle diese vielfältigen KI-Anwendungen erfordern laut CEO Kurian eine leistungsfähige Infrastruktur. Hierzu investiere man weiter in die eigenen Rechenzentren und das Netz und verfüge jetzt über ein globales Netzwerk aus 38 Cloud-Regionen. Bis 2030 soll dieses komplett CO2-frei betrieben werden.

Mit Blick auf das Thema KI kündigte der Manager etliche Infrastrukturverbesserungen an. Dazu zählen etwa:

Hierbei handelt es sich um einen skalierbaren KI-Beschleuniger. Mit ihm könnten Anwender nun eine einzige Cloud-TPU-Plattform nutzen, um sowohl KI-Training als auch KI-Inferenz durchzuführen. Dabei skaliere Cloud TPU v5e auf Zehntausende von Chips und ist auf Effizienz optimiert. Im Vergleich zu Cloud TPU v4 habe man eine bis zu zweifache Verbesserung der Trainingsleistung pro Dollar und eine bis zu 2,5-fache Verbesserung der Inferenzleistung pro Dollar erreicht.

Die A3 VMs mit NVlDlAs H100 GPU sollen im nächsten Monat allgemein verfügbar sein. Sie sind für den Bereich Gen Al und Large Language Models (LLMs) konzipiert. Im Vergleich zur vorherigen A2-Generation warte A3 mit einer dreimal besseren Trainingsleistung auf.

Dies ermögliche eine die horizontale Skalierung über mehrere Cluster (Multi-Clustering), um anspruchsvolle, geschäftskritische Al/ML-Workloads auszuführen. Hierzu warte GKE Enterprise mit Autoskalierung, Workload-Orchestrierung und automatischen Upgrades auf und sei jetzt auch mit Cloud TPU v5e verfügbar. Erste Erfahrungen der Anwender hätten gezeigt, dass so Produktivitätssteigerungen von bis zu 45 Prozent realisierbar seien.

Unter diesem Stichwort vermarktet Google eine globale Netzwerkplattform. Mit ihrer Hilfe sollen sich Anwendungen über Clouds hinweg verbinden lassen. Dank ihres ML-gestützten Sicherheitskonzepts sei die Plattform zudem für Zero-Trust-Installationen geeignet. Des Weiteren sei im Cross-Cloud-Netzwerk die Latenzzeit um bis zu 35 Prozent geringer.

Für Unternehmen, die Workloads im eigenen Rechenzentrum oder am Edge laufen lassen wollen, ist die Google Distributed Cloud (GDC) konzipiert. Zusätzlich zu Hardware der nächsten Generation und neuen Sicherheitsfunktionen erweitert Google auch das GDC-Portfolio, um KI an den Egde zu bringen. Dazu zählt etwa eine Vertex-Al-Integrationen und AlloyDB Omni als Managed Service auf GDC Hosted.

Vertex AI

Ganz unbescheiden lobte Kurian Vertex AI auf der Next als die "wohl umfassendste KI-Plattform, die es Anwendern ermöglicht, Modelle für maschinelles Lernen (ML) zu erstellen, einzusetzen und zu skalieren". So biete man im eigenen Model Garden einen Zugang zu mehr als 100 Basismodellen, darunter Drittanbieter- und beliebte Open-Source-Versionen.

Die Modelle deckten verschiedene Aufgabenbereiche wie Text, Chat, Bilder, Sprache, Softwarecode ab. Darüber hinaus offeriert Google branchenspezifische Modelle wie Sec-PaLM 2 für Cybersicherheit oder Med-PaLM 2 für das Gesundheitswesen und Biowissenschaften.

Generell verfügbar sind mittlerweile auch Vertex Al Search and Conversation - ein Tool zur Erstellung von Such- und Chat-Anwendungen mit eigenen Daten - sowie das Vertex Al Generative Al Studio. Es enthält Werkzeuge zum Abstimmen und Anpassen von KI- Modellen sowie diverse Entwickler-Tools.

Darüber hinaus erweitert Google laut Kurian den Umfang seiner Vertex-AI-Plattform um etliche neue Features:

PaLM 2 kann jetzt dann 32k-Fenster auch längere Dokumente verarbeiten.
Foto: Google Cloud

PaLM 2 wurde auf 32k-Kontextfenster erweitert. Auf diese Weise sollen Unternehmen in der Lage sein, längere Dokumente wie Forschungsarbeiten und Bücher problemlos zu verarbeiten. Ferner verbessere man das Erscheinungsbild Imagen und Codey unterstütze neue Sprachen.

Für PaLM 2 und Codey ist ein Adapter-Tuning verfügbar, womit die LLM-Leistung mit nur 100 Beispielen verbessert werden könne. Zudem gebe es mit dem Style-Tuning eine neue Tuning-Methode für Imagen. Unternehmen könnten so per KI Bilder erstellen, die ihre spezifischen Markenrichtlinien oder anderen kreativen Vorgaben - und das mit wenigen Referenzbildern.

Vertex AI unterstützt nun auch Llama 2 und Code Llama von Meta sowie das Open-Source-Modell Falcon LLM des Technology Innovative Institute, ein beliebtes Open-Source-Modell. In Arbeit ist der Support von Claude 2 von Anthropic. Nach eigenen Angaben ist Google Cloud im Falle von Llama 2 der einzige Cloud-Anbieter, der sowohl Adapter-Tuning als auch Reinforcement Learning from Human Feedback (RLHF) anbietet.

Mit ihrer Hilfe sollen Entwickler Unternehmensdaten einbeziehen und Aktionen in Drittsystemen wie CRM-Systemen oder E-Mail in ihren KI-Anwendungen nutzen können.

Hierbei handelt es sich um einen Managed Service, der die Benutzerfreundlichkeit der Colab-Notebooks von Google mit Sicherheits- und Compliance-Funktionen auf Unternehmensebene kombiniert. Ferner kann Colab Enterprise dazu genutzt werden, um KI-Workflows gemeinsam zu beschleunigen. Dabei haben die User Zugriff auf alle Funktionen der Vertex-KI-Plattform.

Vertex AI und die Sicherheit

Die Vertex-AI-Plattform von Google.
Foto: Google Cloud

Bei allen neuen Features für Vertex AI war dem CEO auf der Next 23 noch ein anderer Aspekt sehr wichtig: Das Thema Sicherheit und KI. So habe man Vertex AI von Anfang an so konzipiert, dass eine Trennung der Daten und des Codes stattfinde.

So sei sichergestellt, dass im Gegensatz zu einigen Wettbewerbern, keine Daten durchsickern, wenn Unternehmen ihre KI-Modelle mit eigenen Daten mit Vertex AI trainieren. "Ihre Prompts und Daten, sowie die Benutzereingaben zur Inferenzzeit werden nicht zur Verbesserung unserer Modelle verwendet und sind für andere Kunden nicht zugänglich" unterstrich Kurian.

Hierzu erstelle Google ein Snapshot des gewählten Modells. Dieses könnten Unternehmen dann in einer privaten, gekapselten Konfiguration nutzen. Auf diese Weise würden die Unternehmen die Kontrolle über ihre Daten behalten.

Duet AI

Im Rahmen seiner Entwicklerkonferenz Google I/O hatte das Unternehmen im Mai Duet AI für seine Collaboration-Plattform Workspace und die Google Cloud vorgestellt. In Workspace kann die Duet-KI dem User etwa beim Erstellen von Inhalten in Google Mail und Google Text & Tabellen unter die Arme greifen. Ebenso hilft die KI in Google Slides, Google Sheets sowie in Google Meet.

Nun erhält Workspace weitere KI-Funktionen:

Während Videoanrufen ist Duet Al in der Lage, Notizen zu machen und anschließend Zusammenfassungen von Meetings zu senden. Untertitel könnn zudem automatisch in 18 Sprachen übersetzt werden. Um sicherzustellen, dass jeder Teilnehmer eines Video-Meetings klar gesehen, gehört und verstanden wird, kommen mit Duet AI in Meet die Fetaures Studio Look, Studio Lightning und Studio Sound.

Anwender können direkt mit Duet Al chatten, um etwa Fragen zu Ihren Inhalten zu stellen. Ebenso ist es möglich mit Hilfe der KI eine Zusammenfassung der in einem Bereich freigegebenen Dokumente zu erhalten.

Während Duet AI in Workspace laut Google schon verfügbar ist, befindet sich Duet AI in Google Cloud noch in der Preview-Phase. Es soll später im Jahr offiziell erhältlich sein.

Duet AI in der Google Cloud

Dabei werde Duet Al eine Vielzahl an Google-Cloud-Produkte und -Dienste unterstützen. So sei etwa der Einsatz als Programmierassistent denkbar, der Entwicklern hilft, schneller zu programmieren. Oder die KI fungiert als Expertenberater, der Betreibern bei der schnellen Behebung von Anwendungs- und Infrastrukturproblemen unter die Arme greift.

Und als Sicherheitsberater könnte Duet AI Best Practices empfehlen, um Cyber-Bedrohungen zu minimieren. Ein anderes Szenario wäre die Verwendung der KI als Datenanalyst. Teilnehmer am Preview-Programm berichten, so zumindest Google, von Produktivitätssteigerungen um ein Drittel.