Nvidia GTC 2023

Nvidia will KI in jede Branche bringen

22.03.2023
Von 
Jürgen Hill ist Chefreporter Future Technologies bei der COMPUTERWOCHE. Thematisch befasst sich der studierte Diplom-Journalist und Informatiker derzeit mit aktuellen IT-Trendthemen wie KI, Quantencomputing, Digital Twins, IoT, Digitalisierung etc. Zudem verfügt er über einen langjährigen Background im Bereich Communications mit all seinen Facetten (TK, Mobile, LAN, WAN). 
Neue Chips, Softwarebibliotheken, Partnerschaften und Cloud-Services – auf der hauseigenen KI-Entwicklerkonferenz GTC hatte Nvidia-CEO Jensen Huang viele Neuigkeiten im Gepäck.
Jensen Huang, Nvidia-Gründer und -CEO, hat derzeit gut lachen. Dank der KI-Euphorie sind seine GPUs gefragt.
Jensen Huang, Nvidia-Gründer und -CEO, hat derzeit gut lachen. Dank der KI-Euphorie sind seine GPUs gefragt.
Foto: Nvidia

"ChatGPT ist nur der Anfang" - mit diesen markigen Worten begrüßte Nvidia-Gründer und CEO Jensen Huang die rund 250.000 Teilnehmer der vierzehnten GPU Technical Conference (GTC), die virtuell abgehalten wurde. Huang, der davon überzeugt ist, dass sich die Computertechnik jetzt in Lichtgeschwindigkeit weiterentwickelt, gab zunächst einmal wichtige Partnerschaften bekannt - mit Google, Microsoft und Oracle.

Zudem beschrieb er, wie Nvidia mit einer Reihe führender Tech-Unternehmen zusammenarbeite, um neue KI-, Simulations- und Kollaborationsfunktionen für Industriebetriebe bereitzustellen. " Die neuen Möglichkeiten des beschleunigten Rechnens liefern den Warp-Antrieb, KI ist die Energiequelle", unterstrich Huang die Bedeutung von künstlicher Intelligenz. Mit Blick auf Generative AI appellierte er an die Unternehmen, ihre Produkte und Business-Modelle schnell und gründlich zu überdenken.

Namhafte Kunden

Schaut man sich an, welch namhafte Player mittlerweile auf Nvidia-Technik setzen, dann scheint an der Company in Sachen KI kein Weg vorbeizuführen. Deutsche Unternehmen wie Siemens, BMW oder Mercedes Benz gehören genauso zum Kundenstamm wie die US-amerikanischen Dickschiffe AT&T, American Express, U.S. Postal Service und Amazonoder auch BYD in China.

Dabei hatte im Jahr 2016 alles ganz klein angefangen. Damals lieferte Huang den ersten DGX-KI-Supercomputer persönlich an OpenAI, der Company hinter ChatGPT. Inzwischen ist die Lawine ins Rollen geraten: ChatGPT ist die am schnellsten wachsende App der Geschichte.

Der iPhone-Moment der KI

"Wir erleben den iPhone-Moment der KI", sagte Huang - mit strahlenden Augen, denn dieser Trend ist sicher nicht zum Schaden von Nvidia. Waren die DGX-Supercomputer ursprünglich als KI-Forschungscomputer konzipiert, werden sie mittlerweile von mehr als der Hälfte aller Fortune-100-Unternehmen genutzt. Dort laufen sie rund um die Uhr, um große KI-Systeme mit gigantischen Datenmengen zu trainieren. "DGX-Supercomputer sind nun moderne KI-Fabriken", kommentierte Huang die Entwicklung.

Neue GPU-Chips für die KI

Nvidias neuer Superchip Grace Hopper.
Nvidias neuer Superchip Grace Hopper.
Foto: Nvidia

Angesichts des Leistungshungers von Large Language Models (LLM) wie ChatGPT hat Nvidia mit der H100 NVL mit Dual-GPU NVLink eine neue GPU mit Transformer Engine angekündigt, die auf der Hopper-Archiekur basiert. Ein Server, mit vier H100 NVL ausgerüstet, soll KI-Aufgaben bis zu zehn Mal schneller berechnen als mit vier HGX A100. Supercomputer mit H100 sind bei mehreren Cloud-Anbietern im Betrieb - darunter Amazon, Microsoft und Oracle. Auch Cirrascale und CoreWeave haben die allgemeine Verfügbarkeit von H100-Instances angekündigt. Zu den weiteren Cloud-Partnern, die H100 anbieten möchten, gehören Google Cloud, Lambda, Paperspace und Vultr.

Darüber hinaus hat Nvidia mit Grace Hopper einen neuen Superchip in der Pipeline, der die Grace-CPU mit der Hopper-GPU verbindet - und das mit Geschwindigkeiten von 900 GB/s. Laut Huang eignet sich Grace Hopper ideal für die Verarbeitung von sehr großen Datensätze wie KI-Datenbanken für Empfehlungssysteme und große Sprachmodelle.

DGX Cloud: KI für jedes Unternehmen

Nvidia Inference Platforms for Generative AI.
Nvidia Inference Platforms for Generative AI.
Foto: Nvidia

"KI für jedes Unternehmen, einfach im Browser", verspricht der Nvidia-CEO mit der DGX Cloud, wozu das Unternehmen Partnerschaften mit Microsoft Azure, Google Cloud und Oracle Cloud Infrastructure eingeht. Unternehmen sollen DGX Cloud-Cluster monatlich mieten können.

Generative KI beschleunigen

Um die Arbeit derjenigen zu beschleunigen, die generative KI nutzen wollen, kündigte Huang die NVIDIA AI Foundations an. Dabei handelt es sich um eine Familie von Cloud-Services für Anwender, die eigene LLMs und generative KI mit ihren Konzerndaten trainieren oder domänenspezifische Aufgaben fahren wollen.

Zu den AI Foundations Services gehören NVIDIA NeMo für die Erstellung von kundenspezifische Text-zu-Text-Modellen undPicasso, ein visueller Sprachmodellierungsdienst, der mit lizenzierten oder proprietären Inhalten trainiert werden kann. Außerdem wurde BioNeMo vorgestellt, ein KI-Service für die Arzneimittelforschung.

Medizinische Forschung beschleunigen

Der Cloud-Service BioNeoMo soll die Medizinforschung mit KI unterstützen.
Der Cloud-Service BioNeoMo soll die Medizinforschung mit KI unterstützen.
Foto: Nvidia

BioNeMo soll Forschern bei der Erstellung, Feinabstimmung und Bereitstellung benutzerdefinierter KI-Modelle mit eigenen Daten helfen. Darüber hinaus arbeitet NVIDIA mit Medtronic, dem weltweit größten Anbieter von Gesundheitstechnologie, zusammen. Laut Huang wollen die beiden Unternehmen eine KI-Plattform für softwaredefinierte medizinische Geräte entwickeln. Im Zuge der Partnerschaft soll eine gemeinsame Plattform für Medtronic-Systeme geschaffenwerden, die von chirurgischer Navigation bis hin zur robotergestützten Chirurgiereicht.

Ferner gab Medtronic bekannt, dass sein GI-Genius-System mit KI zur Früherkennung von Dickdarmkrebs auf NVIDIA Holoscan basiert. Holoscan ist eine Softwarebibliothek für Echtzeit-Sensorverarbeitungssysteme. Das System kommt laut Medtronic gegen Ende des Jahres auf den Markt.

Generative KI-Anwendungen schneller ausrollen

Um Unternehmen dabei zu helfen, generative KI-Modelle schneller einzusetzen, kündigte Huang eine Inference-Plattform für KI-Video, KI-Bilderzeugung, LLM-Bereitstellung und KI-Empfehlungen an. Siekombiniert NVIDIAs Inference-Software mit der Ada-, Hopper- und Grace-Hopper-Prozessoren - einschließlich der NVIDIA L4 Tensor Core GPU und der NVIDIA H100.

Dabei liefere NVIDIA L4 für KI-Video 120-mal mehr KI-gestützte Videoleistung als CPUs, kombiniert mit einer 99 Prozent besseren Energieeffizienz. Google sei der erste Cloud-Service-Provider, der seinen Kunden mit der Einführung der neuen virtuelle G2-Maschinen L4 anbiete. Zudem integriere Google L4 auch inseinen Vertex AI Model Store.