Google Cloud Next 23

KI lässt bei Google Cloud die Kassen klingen

29.08.2023
Von 
Jürgen Hill ist Chefreporter Future Technologies bei der COMPUTERWOCHE. Thematisch befasst sich der studierte Diplom-Journalist und Informatiker derzeit mit aktuellen IT-Trendthemen wie KI, Quantencomputing, Digital Twins, IoT, Digitalisierung etc. Zudem verfügt er über einen langjährigen Background im Bereich Communications mit all seinen Facetten (TK, Mobile, LAN, WAN). 
Die diesjährige Google-Cloud-Next-Veranstaltung steht ganz im Zeichen der KI. Egal, ob Infrastruktur oder Collaboration Tools, es gibt so gut wie nichts im Google Portfolio, das nicht mit AI-Funktionen aufwartet.
Gut gelaunt eröffnete Thomas Kurian die die Konferenz Google Cloud - keine Wunder, denn sein Geschäftsbereich ist endlich profitabel.
Gut gelaunt eröffnete Thomas Kurian die die Konferenz Google Cloud - keine Wunder, denn sein Geschäftsbereich ist endlich profitabel.
Foto: Google Cloud

Ein sichtlich gut gelaunter Thomas Kurian, CEO von Google Cloud, eröffnete die diesjährige Google Cloud Next 23 in San Francisco. Dort findet die Veranstaltung seit 2019 zum ersten Mal wieder als Präsenzveranstaltung statt.

Google Cloud ist profitabel

Zur guten Laune des CEO dürften nicht nur die zahlreichen KI-Neuerungen beitragen, sondern auch die Geschäftszahlen. Google Cloud, die Nummer drei unter den großen Hyperscalern, erreichte im zweiten Quartal 2023 einen Jahresumsatz von rund 32 Milliarden Dollar. Nachdem Google-Mutter Alphabet über Jahre Milliardensummen in das Cloud-Geschäft stecken musste, war Google Cloud nun das zweite Quartal in Folge profitabel.

Zum ersten Mal seit 2019 findet die Next 23 wieder als Präsenzveranstaltung statt.
Zum ersten Mal seit 2019 findet die Next 23 wieder als Präsenzveranstaltung statt.
Foto: Google Cloud

Einen Grund für den Erfolg sieht Kurian darin, dass im Zuge der digitalen Transformation weltweit zahlreiche Großunternehmen - hierzulande etwa die Deutsche Bank oder die Deutsche Börse - auf die Cloud-Lösungen des Unternehmens setzen. Diesen Erfolgskurs will der CEO nun mit KI-Features und generativer AI fortsetzen.

Googles KI-Kurs

Dazu zählen, so der CEO, unter anderem:

  • eine KI-optimierte Infrastruktur

So will der Hyperscaler eine KI-optimierte Infrastruktur anbieten, auf der Unternehmen ihre KI-Modelle trainieren und betreiben können. Diese Infrastruktur soll in den verschiedenen Cloud-Regionen verfügbar sein und entweder in Rechenzentren mit Google Distributed Cloud oder am Edge laufen.

  • Vertex AI

Hier will man Entwickler-Tools zur Erstellung von KI-Modellen und KI-gestützten Anwendungen zu Verfügung stellen. So eigne sich Vertex Al für die Erstellung benutzerdefinierter Modelle und die Entwicklung unternehmenseigener Such- und Konversationsanwendungen mit Unternehmensdaten.

  • Duet AI

Hierbei handelt es sich um einen aktiven KI-Helfer, der tief in Google Workspace und Google Cloud integriert ist. Nach den ersten Ankündigungen Anfang 2023 ist Duet Al in Workspace jetzt allgemein verfügbar. Die KI kann den User beim Schreiben und in Tabellenkalkulationen unterstützen. Zudem erstellt sie Notizen in Meetings, agiert als Projektmanager sowie visueller Designer.

Noch in der Preview-Phase befindet sich Duet Ai in Google Cloud. Hier soll die KI wie ein Programmierer, Datenbankprofi oder Datenanalyst arbeiten und zudem als Berater für Cybersicherheit dienen.

Neue KI-Infrastruktur

Alle diese vielfältigen KI-Anwendungen erfordern laut CEO Kurian eine leistungsfähige Infrastruktur. Hierzu investiere man weiter in die eigenen Rechenzentren und das Netz und verfüge jetzt über ein globales Netzwerk aus 38 Cloud-Regionen. Bis 2030 soll dieses komplett CO2-frei betrieben werden.

Mit Blick auf das Thema KI kündigte der Manager etliche Infrastrukturverbesserungen an. Dazu zählen etwa:

  • Cloud TPU v5e

Hierbei handelt es sich um einen skalierbaren KI-Beschleuniger. Mit ihm könnten Anwender nun eine einzige Cloud-TPU-Plattform nutzen, um sowohl KI-Training als auch KI-Inferenz durchzuführen. Dabei skaliere Cloud TPU v5e auf Zehntausende von Chips und ist auf Effizienz optimiert. Im Vergleich zu Cloud TPU v4 habe man eine bis zu zweifache Verbesserung der Trainingsleistung pro Dollar und eine bis zu 2,5-fache Verbesserung der Inferenzleistung pro Dollar erreicht.

  • A3 VMs mit NVIDIA H100 GPU

Die A3 VMs mit NVlDlAs H100 GPU sollen im nächsten Monat allgemein verfügbar sein. Sie sind für den Bereich Gen Al und Large Language Models (LLMs) konzipiert. Im Vergleich zur vorherigen A2-Generation warte A3 mit einer dreimal besseren Trainingsleistung auf.

  • GKE Enterprise

Dies ermögliche eine die horizontale Skalierung über mehrere Cluster (Multi-Clustering), um anspruchsvolle, geschäftskritische Al/ML-Workloads auszuführen. Hierzu warte GKE Enterprise mit Autoskalierung, Workload-Orchestrierung und automatischen Upgrades auf und sei jetzt auch mit Cloud TPU v5e verfügbar. Erste Erfahrungen der Anwender hätten gezeigt, dass so Produktivitätssteigerungen von bis zu 45 Prozent realisierbar seien.

  • Cross-Cloud Network

Unter diesem Stichwort vermarktet Google eine globale Netzwerkplattform. Mit ihrer Hilfe sollen sich Anwendungen über Clouds hinweg verbinden lassen. Dank ihres ML-gestützten Sicherheitskonzepts sei die Plattform zudem für Zero-Trust-Installationen geeignet. Des Weiteren sei im Cross-Cloud-Netzwerk die Latenzzeit um bis zu 35 Prozent geringer.

  • Google Distributed Cloud

Für Unternehmen, die Workloads im eigenen Rechenzentrum oder am Edge laufen lassen wollen, ist die Google Distributed Cloud (GDC) konzipiert. Zusätzlich zu Hardware der nächsten Generation und neuen Sicherheitsfunktionen erweitert Google auch das GDC-Portfolio, um KI an den Egde zu bringen. Dazu zählt etwa eine Vertex-Al-Integrationen und AlloyDB Omni als Managed Service auf GDC Hosted.

Vertex AI

Ganz unbescheiden lobte Kurian Vertex AI auf der Next als die "wohl umfassendste KI-Plattform, die es Anwendern ermöglicht, Modelle für maschinelles Lernen (ML) zu erstellen, einzusetzen und zu skalieren". So biete man im eigenen Model Garden einen Zugang zu mehr als 100 Basismodellen, darunter Drittanbieter- und beliebte Open-Source-Versionen.

Die Modelle deckten verschiedene Aufgabenbereiche wie Text, Chat, Bilder, Sprache, Softwarecode ab. Darüber hinaus offeriert Google branchenspezifische Modelle wie Sec-PaLM 2 für Cybersicherheit oder Med-PaLM 2 für das Gesundheitswesen und Biowissenschaften.

Generell verfügbar sind mittlerweile auch Vertex Al Search and Conversation - ein Tool zur Erstellung von Such- und Chat-Anwendungen mit eigenen Daten - sowie das Vertex Al Generative Al Studio. Es enthält Werkzeuge zum Abstimmen und Anpassen von KI- Modellen sowie diverse Entwickler-Tools.

Darüber hinaus erweitert Google laut Kurian den Umfang seiner Vertex-AI-Plattform um etliche neue Features:

  • PaLM 2, Imagen and Codey Upgrades

PaLM 2 kann jetzt dann 32k-Fenster auch längere Dokumente verarbeiten.
PaLM 2 kann jetzt dann 32k-Fenster auch längere Dokumente verarbeiten.
Foto: Google Cloud

PaLM 2 wurde auf 32k-Kontextfenster erweitert. Auf diese Weise sollen Unternehmen in der Lage sein, längere Dokumente wie Forschungsarbeiten und Bücher problemlos zu verarbeiten. Ferner verbessere man das Erscheinungsbild Imagen und Codey unterstütze neue Sprachen.

  • Tuning-Werkzeuge

Für PaLM 2 und Codey ist ein Adapter-Tuning verfügbar, womit die LLM-Leistung mit nur 100 Beispielen verbessert werden könne. Zudem gebe es mit dem Style-Tuning eine neue Tuning-Methode für Imagen. Unternehmen könnten so per KI Bilder erstellen, die ihre spezifischen Markenrichtlinien oder anderen kreativen Vorgaben - und das mit wenigen Referenzbildern.

  • Neue Modelle

Vertex AI unterstützt nun auch Llama 2 und Code Llama von Meta sowie das Open-Source-Modell Falcon LLM des Technology Innovative Institute, ein beliebtes Open-Source-Modell. In Arbeit ist der Support von Claude 2 von Anthropic. Nach eigenen Angaben ist Google Cloud im Falle von Llama 2 der einzige Cloud-Anbieter, der sowohl Adapter-Tuning als auch Reinforcement Learning from Human Feedback (RLHF) anbietet.

  • Vertex-Al-Erweiterungen

Mit ihrer Hilfe sollen Entwickler Unternehmensdaten einbeziehen und Aktionen in Drittsystemen wie CRM-Systemen oder E-Mail in ihren KI-Anwendungen nutzen können.

  • Colab Enterprise

Hierbei handelt es sich um einen Managed Service, der die Benutzerfreundlichkeit der Colab-Notebooks von Google mit Sicherheits- und Compliance-Funktionen auf Unternehmensebene kombiniert. Ferner kann Colab Enterprise dazu genutzt werden, um KI-Workflows gemeinsam zu beschleunigen. Dabei haben die User Zugriff auf alle Funktionen der Vertex-KI-Plattform.