GTC 2022

Nvidia beschleunigt KI- und Klimamodellierung

23.03.2022
Von 
Peter Sayer ist Korrespondent des IDG News Service.
Auf der Entwicklerkonferenz GTC 2022 stellt Nvidia neue Möglichkeiten zur Modellierung und Vorhersage des Verhaltens von Wolken und ähnlichem vor.
Im Mittelpunkt der Nvidia GTC 2022 stehen neue Hard- und Softwarelösungen, um zunehmend komplexe Berechnungen vorzunehmen.
Im Mittelpunkt der Nvidia GTC 2022 stehen neue Hard- und Softwarelösungen, um zunehmend komplexe Berechnungen vorzunehmen.
Foto: Nvidia

Es ist schon einige Jahre her, dass Entwickler herausgefunden haben, dass sich Nvidias Hauptprodukt, der Grafikprozessor, nicht nur für das Rendern von Videospielen eignet, sondern auch für Hochleistungsberechnungen, wie sie bei der 3D-Modellierung, der Wettervorhersage oder dem Training von KI-Modellen zum Einsatz kommen. Genau auf solche Unternehmensanwendungen fokussiert sich Nvidia-CEO Jensen Huang in dieser Woche auf der Entwicklerkonferenz GTC 2022.

Das Ziel von Nvidia ist es, Tools zur Erstellung von digitalen Zwillingen und Modellen für maschinelles Lernen für den Enterprise-Einsatz weiterzuentwickeln. Selbst die Einführung von Quantencomputern soll mit einer Reihe von neuer Hardware- und Software-Lösungen beschleunigt werden.

Digitale Zwillinge

Digital Twins, numerische Modelle, die Änderungen an realen Objekten widerspiegeln und für Design, Fertigung und Dienstleistungserstellung nützlich sind, unterscheiden sich in ihrem Detailgrad. Für einige Anwendungen kann eine einfache Datenbank ausreichen, um die Servicehistorie eines Produkts aufzuzeichnen: Etwa, wann es hergestellt wurde, an wen es geliefert wurde, welche Änderungen vorgenommen wurden. Für andere Szenarien ist dagegen ein vollständiges 3D-Modell mit Echtzeit-Sensordaten erforderlich, das z. B. zur Vorwarnung vor einem Komponentenausfall oder zur Regenvorhersage genutzt werden kann.

Auf der GTC 2022 kündigte das Unternehmen neue Tools zur Erstellung digitaler Zwillinge für wissenschaftliche und technische Anwendungen an. Zwei Forschergruppen nutzen bereits Nvidias KI-Framework Modulus für die Entwicklung von Modellen für maschinelles Lernen in der Physik und die virtuelle 3D-Simulationsplattform Omniverse, um Wettervorhersagen mit größerer Zuverlässigkeit und Geschwindigkeit zu erstellen und das Design von Windparks zu optimieren.

Die Ingenieure von Siemens Gamesa Renewable Energy nutzen die Kombination aus Modulus und Omniverse, Nvidias Digital-Twin-Plattform für wissenschaftliche Berechnungen, um die Platzierung von Windturbinen im Verhältnis zueinander zu modellieren. Auf diese Weise soll sichergestellt werden, dass die maximale Menge an Strom erzeugt wird und die Auswirkungen der von den Rotorblättern erzeugten Turbulenzen auf Nachbarturbinen möglichst gering sind.

Während das Siemens-Gamesa-Modell die Auswirkungen des Windes auf eine Zone von einigen Kilometern Durchmesser untersucht, sind die Ambitionen der Forscher, die an FourCastNet arbeiten, viel größer. FourCastNet (benannt nach dem Fourier-Operator zur Berechnung des Fredholm-Integrals) ist ein Wettervorhersage-Tool, das auf 10 Terabyte an Daten trainiert wurde. Es emuliert und prognostiziert extreme Wetterereignisse wie Wirbelstürme oder atmosphärische Flüsse, wie sie Anfang März zu Überschwemmungen im pazifischen Nordwesten und in Sydney, Australien, führten. Nvidia behauptet, dass es dies bis zu 45.000 Mal schneller als herkömmliche numerische Vorhersagemodelle tun kann.

Das System ist ein erster Schritt zur Verwirklichung eines noch ehrgeizigeren Projekts, das Nvidia Earth-2 nennt. Nvidia kündigte im November 2021 an, einen Supercomputer mit eigenen Chips zu bauen und damit einen digitalen Zwilling der Erde mit einer Auflösung von einem Meter in seiner Omniverse-Software zu erstellen, um die Auswirkungen des Klimawandels zu modellieren.

Um auch anderen Unternehmen zu helfen, ihre eigenen digitalen Zwillinge zu erstellen und zu pflegen, wird Nvidia im Laufe dieses Jahres OVX-Computersysteme anbieten, auf denen die Omniverse-Software auf Racks läuft, die mit den hauseigenen Grafikprozessoren, Speicher und Hochgeschwindigkeits-Switch-Fabrics ausgestattet sind. Nvidia führt außerdem die Omniverse-Cloud ein, um Kreativen, Designern und Entwicklern die Zusammenarbeit an 3D-Designs zu ermöglichen, ohne dass sie Zugang zu eigener Hochleistungsrechenleistung benötigen.

Außerdem arbeitet das Unternehmen mit Robotikherstellern und Datenanbietern zusammen, um die Zahl der Omniverse-Konnektoren zu erhöhen, die Entwickler nutzen können, um ihre digitalen Zwillinge besser an die reale Welt anzupassen und mit ihr zu interagieren.

Zu den Unternehmen, die Omniverse bereits nutzen, gehören neben Siemens Energy, BMW und Ericsson laut Nvidia nun auch die Einzelhändler Kroger und Lowes. Sie setzen Omniverse ein, um ihre Läden und die Logistikketten, die sie beliefern, zu simulieren.

Beschleunigtes Lernen

Die Ausführung von Machine-Learning-Modellen kann sehr rechenintensiv sein, aber das Training ist noch schwieriger, da der Prozess ein System erfordert, das komplexe Berechnungen mit großen Datenmengen durchführen kann. Auf der GTC2022 stellt Nvidia eine neue GPU-Architektur, Hopper, als Nachfolger des Ampere-Designs vor. Sie soll solche Aufgaben beschleunigen. Der erste darauf basierende HPC-Chip ist der H100. Die GPU ist nach der Informatikpionierin Grace Hopper benannt, die einen der ersten Compiler entwickelte.

Laut Nvidia ermöglicht der Chip die Ausführung großer Sprachmodelle und Empfehlungssysteme, die in Unternehmensanwendungen immer häufiger zum Einsatz kommen, in Echtzeit und enthält neue Befehle, die die Routenoptimierung und Genomik-Anwendungen beschleunigen können. Durch die Möglichkeit, den Grafikprozessor in mehrere Instanzen zu unterteilen - ähnlich wie virtuelle Maschinen in einer CPU - wird er auch für die Ausführung mehrerer kleinerer Anwendungen vor Ort oder in der Cloud nützlich sein.

Im Vergleich zur wissenschaftlichen Modellierung erfordert das Training von KI-Modellen weniger mathematische Präzision, dafür aber einen höheren Datendurchsatz. Das Design des H100 ermöglicht es Anwendungen, das eine gegen das andere abzuwägen. Das Ergebnis, so Nvidia, ist, dass Systeme, die mit dem H100 gebaut werden, in der Lage sind, Modelle neunmal schneller zu trainieren als solche, die das Vorgängermodell, den A100, verwenden.

Confidential Computing

Nvidia sagte, dass seine neuen H100-Chips es auch ermöglichen werden, Confidential-Computing-Fähigkeiten auf die GPU auszuweiten, eine Funktion, die bisher nur auf CPUs verfügbar war. Confidential Computing ermöglicht es Unternehmen, Gesundheits- oder Finanzdaten in der sicheren Enklave eines speziell entwickelten Prozessors sicher zu verarbeiten, während sie außerhalb des Prozessors nur verschlüsselt vorliegen.

Die Möglichkeit, solche Daten sicher auf einem Grafikprozessor zu verarbeiten, selbst in einer Public Cloud oder einer Colocation-Einrichtung, könnte Unternehmen in die Lage versetzen, die Entwicklung und Nutzung von Modellen des maschinellen Lernens zu beschleunigen, ohne die Investitionsausgaben zu erhöhen.

Quantencomputer in Sicht

Quanten-Computing verspricht - oder droht vielleicht sogar - große Teile des heutigen Marktes für Hochleistungscomputer mit Quantenprozessoren wegzufegen, die subatomare Phänomene nutzen, um bisher unlösbare Optimierungsprobleme zu lösen. Wenn es soweit ist, könnten Nvidias Verkäufe auf dem Supercomputing-Markt deutlich einbrechen. In der Zwischenzeit spielen die Chips und Software des Herstellers jedoch eine wichtige Rolle bei der Simulation von Quantencomputersystemen.

Forscher an der Schnittstelle zwischen Quanten- und klassischem Rechnen haben eine Low-Level-Maschinensprache namens Quantum Intermediate Representation entwickelt. Nvidia hat einen Compiler für diese Sprache, nvq++, entwickelt, der zunächst von Forschern am Oak Ridge National Laboratory verwendet wird. Zudem gibt es ein SDK zur Beschleunigung von Quanten-Workflows, cuQuantum, das als Container verfügbar ist und für die Ausführung auf der A100-GPU von Nvidia optimiert wurde. Diese Tools könnten Unternehmen beim Aufbau von Quantenkompetenz helfen - zu einer Zeit, in der echte Quantencomputer noch nicht in der Breite verfügbar sind.

Dieser Artikel basiert auf einem Beitrag der US-Schwesterpublikation CIO.com