Neue Blackwell-GPUs, Humanoide, KI-Microservices

Nvidia erweitert sein KI-Ökosystem

19.03.2024
Von 
Jürgen Hill ist Chefreporter Future Technologies bei der COMPUTERWOCHE. Thematisch befasst sich der studierte Diplom-Journalist und Informatiker derzeit mit aktuellen IT-Trendthemen wie KI, Quantencomputing, Digital Twins, IoT, Digitalisierung etc. Zudem verfügt er über einen langjährigen Background im Bereich Communications mit all seinen Facetten (TK, Mobile, LAN, WAN). 
Auf der hauseigenen KI-Konferenz GTC24 legt sich Nvidia mächtig ins Zeug, um seine Marktführerschaft in Sachen AI-Chips zu verteidigen. So baut die Company ihr KI-Ökosystem konsequent aus.
Auf der hauseigenen KI-Konferenz GTC24 zeigt Nvidia neue Hardware und erweitert sein Ökosystem rund um KI.
Auf der hauseigenen KI-Konferenz GTC24 zeigt Nvidia neue Hardware und erweitert sein Ökosystem rund um KI.
Foto: NVIDIA

Intel, AMD Qualcomm etc. - die Liste der Verfolger, die KI-Chip-Platzhirsch Nvidia im Nacken sitzen, ist lang. Zudem sieht sich die Company mit hohen Erwartungen seitens der Investoren konfrontiert, seit die Aktie die 800-Dollar-Marke durchbrach.

Wie der Platzhirsch sein KI-Revier verteidigen will, enthüllte die mittlerweile über zwei Billionen Dollar schwere Company jetzt auf der hauseigenen KI-Konferenz GTC24. Neben neuer Hardware setzt das Unternehmen auf ein komplexes KI-Ökosystem aus Software, Partnerschaften und Neuerungen wie humanoide Roboter oder Microservices. Und allein mit Software dürfte die Company gut verdienen, wenn man bedenkt, dass beispielsweise die Nutzung von Nvidia AI Enterprise 4.500 Dollar pro Jahr, beziehungsweise ein Dollar pro Stunde kostet - pro GPU wohlgemerkt.

Zu den wichtigsten Neuerungen auf der GTC24 zählen:

  • Die neue GPU-Architektur Blackwell

  • Neue Computer und Switches

  • Microservices

  • Neue Robotertechnik

  • Ergänzungen rund um Omniverse und Digital Twins

  • Partnerschaften in Sachen autonomes Fahren rund um die Nvidia Avatar Cloud Engine und Nvidia DRIVE.

Die neue Blackwell-GPU

Die neue GPU-Blackwell-Architektur.
Die neue GPU-Blackwell-Architektur.
Foto: NVIDIA

Als Nachfolger für die vor zwei Jahren vorgestellte Hopper-Architektur präsentierte Nvidia jetzt Blackwell. Der Namen soll an den US-amerikanischen Mathematiker David Harold Blackwell erinnern, der sich auf Statistik, Spieltheorie und Informationstheorie spezialisiert hatte. Er war der erste Afroamerikaner, der in die National Academy of Sciences aufgenommen wurde.

Die neue GPU soll in Verbindung mit anderen Technologien wie einer Transformer Engine der zweiten Generation, einer neuen Version von Nvidia NVLink sowie einer RAS Engine das KI-Training und Echtzeit-LLM-Inference für Modelle mit bis zu 10 Billionen Parametern ermöglichen. Der Nvidia GB200 Grace Blackwell Superchip verbindet zwei Nvidia B200 TensorCore GPUs mit der Nvidia Grace CPU über einen 900 GB/s Ultra-Low-Power NVLink als Chip-zu-Chip-Verbindung.

Der GB200 Grace Blackwell Superchip mit zwei Blackwell GPUs und einer Grace CPU.
Der GB200 Grace Blackwell Superchip mit zwei Blackwell GPUs und einer Grace CPU.
Foto: NVIDIA

Als Server-Board ist der GB200 als HGX B200 erhältlich. Auf dem Board sind acht B200-GPUs, die via NVLink miteinander verbunden sind.

Neue Blackwell-Hardware

Untereinander können GB200-Systeme mit Hilfe der neuen SwitchPlattformen Nvidia Quantum-X800 InfiniBand und Spectrum-X800 Ethernet mit Geschwindigkeiten von bis zu 800 GB/s verbunden werden. Zudem ist der GB200-Chip eine Schlüsselkomponente des Nvidia GB200 NVL72, einem flüssigkeitsgekühlten Multinode Racksystem für rechenintensive Workloads.

Das System besteht aus 36 Grace Blackwell Superchips, die 72 Blackwell GPUs und 36 Grace CPUs umfassen, die über NVLink der fünften Generation miteinander verbunden sind. Laut Nvidia wartet der GB200 NVL72 mit einer bis 30-fach höheren Leistung bei LLM-Inference-Arbeitslasten auf als ein vergleichbares System mit Nvidia H100 Tensor Core GPUs.

Neuer KI-Supercomputer

Der neue DGX SuperPOD bietet laut Nvidia 11,5 Exaflops an KI-Supercomputing-Leistung.
Der neue DGX SuperPOD bietet laut Nvidia 11,5 Exaflops an KI-Supercomputing-Leistung.
Foto: NVIDIA

Dabei agiert die Plattform als eine einzige GPU mit 1,4 Exaflops KI-Leistung und 30 TB schnellem Speicher. Zudem ist sie ein Baustein für den KI-Supercomputer DGX SuperPOD. Der neue DGX SuperPOD bietet laut Nvidia 11,5 Exaflops an KI-Supercomputing-Leistung mit FP4-Präzision und 240 Terabyte schnellem Speicher. In einem SuperPod sind mindestens acht GB200-NVL72-Systeme verbaut, wobei weitere Systeme hinzugefügt werden können.

Projekt Ceiba

Unter dem Projektnamen Ceiba wollen Nvidia und AWS einen der schnellsten KI-Supercomputer der Welt zu bauen. Der Supercomputer wird exklusiv auf AWS gehostet und steht für Nvidias eigene Forschung und Entwicklung zur Verfügung.

Der Supercomputer soll mit 20.736 B200-GPUs gebaut werden. Nvidia will Ceiba dazu nutzen, um KI für LLMs, Grafik (Bild/Video/3D-Erzeugung) und Simulation, digitale Biologie, Robotik, selbstfahrende Autos, Nvidia-Earth-2-Klimavorhersage und vieles mehr zu entwickeln.

Microservices

Mit NIM hat Nvidia ein eigenes Angebot an GenAI-Microservices für Unternehmenskunden vorgestellt.
Mit NIM hat Nvidia ein eigenes Angebot an GenAI-Microservices für Unternehmenskunden vorgestellt.
Foto: NVIDIA

Mit NIM hat Nvidia ein eigenes Angebot an GenAI-Microservices für Unternehmenskunden vorgestellt. Diese sollen damit schneller eigene KI-Anwendungen entwickeln können. Dazu bieten die NIM-Microservices vorgefertigte Container, die unter anderem Nvidias Inference-Software wie den Triton Inference Server oder Tensor RT beinhalten. Die Microservices sind im Rahmen von Nvidia AI Enterprise 5.0 erhältlich.

Basierend auf der Nvidia-CUDA-Plattform, umfasst der Katalog Services für eine optimierte Inference auf mehr als zwei Dutzend KI-Modellen von Nvidia und Partner-Ökosystem. Unter Nvidia beschleunigte Software-Entwicklungskits, Bibliotheken und Tools können so als NVIDIA-CUDA-X-Microservices für Retrieval-Augmented Generation (RAG), Leitplanken, Data Processing, HPC und mehr genutzt werden. Zudem kündigte die Company über zwei Dutzend NIM- und CUDA-X-Microservices für das Gesundheitswesen an.

NIM und SAP

Im Rahmen der Partnerschaft mit Nvidia plant SAP KI-Anwendungen mit den mit neuen NIM-Microservices bereitzustellen. Ferner wird SAP den generativen KI-Foundry-Service von Nvidia zur Feinabstimmung von LLMs für domänenspezifische Szenarien nutzen, um so die LLMs zu optimieren.

Robotics

Mit Projekt GROOT kommt ein universelles Foundation Modell für humanoide Roboter.
Mit Projekt GROOT kommt ein universelles Foundation Modell für humanoide Roboter.
Foto: NVIDIA

Mit dem Projekt GROOT kündigte Nvidia ein universelles Foundation Model für humanoide Roboter an. Im Rahmen dieser Initiative stellte das Unternehmen auch einen neuen Computer für humanoide Roboter vor - den Jetson Thor. Er basiert auf dem Nvidia Thor System-on-a-Chip (SoC) sowie der Nvidia Isaac-Robotik-Plattform.

Auf Basis von GR00T konzipierte Roboter sollen künftig natürliche Sprache verstehen und Bewegungen emulieren, indem sie menschliche Handlungen beobachten und so schnell Koordination, Geschicklichkeit und andere Fähigkeiten lernen, um sich in der realen Welt zurechtzufinden, sich anzupassen und mit ihr zu interagieren.

Die Technik hinter GROOT

Der für Thor verwendete SoC enthält einen Grafikprozessor der nächsten Generation auf Basis der Blackwell-Architektur mit einer Transformer-Engine, die 800 Teraflops an 8-Bit-Gleitkomma-KI-Leistung zur Ausführung multimodaler generativer KI-Modelle offeriert.

GROOT nutzt Nvidias Robotik-Plattform Isaac, die unter anderem modulare KI-Funktionen für Roboterarme offeriert.
GROOT nutzt Nvidias Robotik-Plattform Isaac, die unter anderem modulare KI-Funktionen für Roboterarme offeriert.
Foto: NVIDIA

Zudem nutzt GROOT Nvidias Robotik-Plattform Isaac - eine Sammlung von vortrainierten KI-Modellen, Bibliotheken und Referenzhardware. Dazu zählen auch der neue Isaac Manipulator und der Isaac Perceptor. Der Manipulator offeriert modulare KI-Funktionen für Roboterarme, während der Schwerpunkt bei Perceptor auf Multikamera- und 3D-Surround-Vision-Funktionen liegt, mobile Roboter autonom einzusetzen.

Omniverse

Seine virtuelle Welt-Plattform Omniverse zur Entwicklung Digitaler Zwilling erweitert Nvidiaum fünf Cloud APIs:

- USD Render - erzeugt vollständige RTX-Renderings mit Raytracing von OpenUSD-Daten.

- USD Write - ermöglicht Benutzern die Änderung und Interaktion mit OpenUSD-Daten.

- USD Query - ermöglicht Szenenabfragen und interaktive Szenarien.

- USD Notify - verfolgt USD-Änderungen und liefert Updates.

- Omniverse Channel - verbindet Benutzer, Tools und Welten, um die Zusammenarbeit über Szenen hinweg.

Siemens und Omniverse

Digitaler Zwilling eines Flüssiggastankers im Omniverse.
Digitaler Zwilling eines Flüssiggastankers im Omniverse.

Siemens will die Omniverse Cloud APIs in seine Xcelerator Platform einbinden. Den Anfang macht Teamcenter X, eine Cloud-basierte Product-Lifecycle-Management-Software (PLM). Durch diese Verbindung sollen Anwender in die Lage versetzt werden, ihre digitalen Zwillinge durch physikalisch basiertes Rendering zu verfeinern.

Mit der Möglichkeit, generative KI-APIs oder Agenten zu nutzen, seien die Anwender in der Lage, 3D-Objekte oder Bildhintergründe mit hohem Dynamikbereich zu erzeugen, um so ihre Assets im Kontext zu betrachten. Wie das in der Praxis aussehen kann, zeigten Siemens und Nvidia am Beispiel des Schiffbauers HD Hyundai. Dieser nutzt die Software, um digitale Zwillinge von Flüssiggastankern zu visualisieren. Dabei können die Tanker aus bis über 7 Millionen Einzelteilen bestehen.

Data Center als Digital Twin

Rechenzentren sollen sich mit Hilfe eines Digital Twins schneller realisieren lassen.
Rechenzentren sollen sich mit Hilfe eines Digital Twins schneller realisieren lassen.
Foto: NVIDIA

Um Rechenzentren schneller zu planen und zu bauen hat Nvidia gemeinsam mit Ansys, Cadence, Patch Manager, Schneider Electric, Vertiv und anderen ein Digital Blueprint für einen entsprechenden Digital Twin entworfen. Dazu baute Nvidia zunächst einen digitalen Zwilling mit Software-Tools, die über Omniverse verbunden sind. Dann vereinheitlichten und visualisierten die Ingenieure mehrere CAD-Datensätze mit voller physikalischer Genauigkeit und Fotorealismus in OpenUSD mit Hilfe der Cadence Reality Digital Twin Plattform, die APIs von Nvidia Omniverse nutzt.

Digital Twins bei der Automatisierung

Digital Twins helfen beim KI-Training von Robotern.
Digital Twins helfen beim KI-Training von Robotern.
Foto: NVIDIA

Ein anderes Einsatzfeld für Digital Twins sieht man bei Nvidia im Training für Roboter. In Kombination mit Technologien wie Omniverse, Metropolis, Isaac and cuOpt hat man so eine Art KI-Fitnessstudio kreiert, in dem Roboter und KI-die Agenten trainieren und ihr Verhalten in komplexen industriellen Räumen untersucht werden kann. Metropolis, eine Plattform für Vision AI, erstellt dabei eine zentrale Karte der Arbeitsaktivitäten im gesamten Raum, indem sie die Daten von an der Decke montierten Multikameras auswertet.

KI im Auto

Unter Verwendung der Cloud-to-Edge-Technologie von Nvidia arbeiten Anbieter wie Cerence, Geely, Li Auto, MediaTek, NIO, SoundHound, Waabi und Wayve an intelligenten KI-Assistenten, einem Szenenverständnis und mehr. Mit DRIVE Thor hat Nvidia zudem eine fahrzeuginterne Computerplattform in petto, die für generative KI-Anwendungen entwickelt wurde.

Waabi will als erstes Unternehmen ein generative KI-gestützte Lösung für das autonome Fahren von LKWs auf den Markt bringen.
Waabi will als erstes Unternehmen ein generative KI-gestützte Lösung für das autonome Fahren von LKWs auf den Markt bringen.
Foto: NVIDIA

DRIVE Thor basiert ebenfalls auf der Blackwell-Architektur und liefert eine Rechenleistung von 1.000 Teraflops. Waabi, ein Unternehmen, das Pionierarbeit auf dem Gebiet der künstlichen Intelligenz (KI) für das autonome Fahren leistet, will mit DRIVE Thor die erste generative KI-gestützte Lösung für das autonome Fahren von LKWs auf den Markt bringen. Andere Hersteller die Thor nutzen wollen, sind unter anderem BYD, Hyper, XPENG, Nuro, Plus oder WeRide.