Nvidia DGX Cloud

Supercomputer-Service mit GenAI-Fokus

03.08.2023
Von 
John Edwards ist freier Autor für Themen rund um die Business-IT.
Nvidia bietet jetzt für die Entwicklung von KI-Modellen Supercomputer-Ressourcen als Service in der Cloud an.
Mit DXG Cloud verspricht Nvidia Remote-Supercomputer-Ressourcen für Einsatzzwecke wie Deep Learning, Data Analytics oder Simulationen.
Mit DXG Cloud verspricht Nvidia Remote-Supercomputer-Ressourcen für Einsatzzwecke wie Deep Learning, Data Analytics oder Simulationen.
Foto: Gorodenkoff - shutterstock.com

Mit DGX Cloud hat Nvidia einen Cloud-basierten KI-Supercomputer-Service eingeführt, der sich in erster Linie an Enterprise-Anwender mit hohen Ansprüchen - und dickem Geldbeutel - richtet. Nvidias Offering beinhaltet dabei ein Komplettpaket aus Soft- und Hardware, um KI-Systeme in großem Maßstab zu entwickeln - zugänglich per Webbrowser. DGX Cloud kombiniert:

  • eine KI-Developer-Suite,

  • Workflow-Software,

  • eine High-Performance-Infrastruktur und

  • Rund-um-die-Uhr-Support.

"DGX Cloud befähigt Unternehmen dazu, moderne KI-Workloads wie Generative AI beziehungsweise Large Language Models (LLMs) zu trainieren", stellt Charlie Boyle, Vice President of DGX Platforms bei Nvidia, in Aussicht.

Generativer Markt-Impact

Das Aufkommen von generativer KI treibt die Nachfrage nach KI-basierten Produkten und Services in neue Höhen. Unternehmen so gut wie aller Branchen bemühen sich darum, die erforderlichen Fähigkeiten und Infrastrukturen aufzubauen, um KI in ihre Produktentwicklungs- und Geschäftsprozesse zu integrieren.

An dieser Stelle könnte Nvidias DGX Cloud das richtige Angebot für Unternehmen sein, die möglichst schnell auf eine vollständige KI-Supercomputer-Umgebung zugreifen und sich dabei keine Gedanken über Kompatibilitäts-, Rechenzentrums-, oder Energieversorgungsprobleme machen wollen - vom erforderlichen Knowhow, das nötig ist, um Supercomputer-Cluster zu installieren und zu warten, ganz zu schweigen. "Die Kunden können sich auf Innovation statt auf Infrastruktur konzentrieren und sind innerhalb von Tagen statt Monaten einsatzbereit", verspricht Boyle.

Doch auch Unparteiische wissen die Vorzüge des Nvidia-Service zu schätzen. Etwa Vladislav Bilay, Cloud Solution Engineer bei Aquiva Labs: "DGX Cloud ermöglicht Forschern, Entwicklern und Datenwissenschaftlern, remote auf die Infrastruktur von Nvidia zuzugreifen. Das macht teure On-Premises-Hardware überflüssig. Zudem bekommen Sie eine nahtlose und skalierbare Umgebung, um KI-Modelle zu trainieren und bereitzustellen, um ihre Arbeitsabläufe auf flexible und bequeme Weise zu beschleunigen."

Einer der wichtigsten Vorteile ist nach Aussage von Bilay zudem die enge Integration mit gängigen KI-Frameworks und -Tools - etwa:

Das ermögliche den Nutzern, ihre bevorzugten Bibliotheken und APIs einsetzen zu können. Der Softwareexperte fügt hinzu, dass DGX Cloud darüber hinaus auch Zugang zum umfassenden Software-Stack von Nvidia biete, der auf die KI-Entwicklung zugeschnittene Treiber, Bibliotheken und Frameworks umfasse.

DGX-Cloud-Komponenten, -Preise und -Konkurrenz

Nvidias DGX Cloud umfasst mehrere integrierte Komponenten. Die Benutzer greifen über einen Webbrowser mit der Software "Base Command Platform" auf das Angebot zu. "Das ist der zentrale Knotenpunkt von DGX Cloud, in dem die Nutzer ihre vollständigen KI-Entwicklungs-Workflows managen", erklärt Boyle. "Mit einer grafischen Benutzeroberfläche und integrierten Monitoring- und Reporting-Tools beseitigt sie die Komplexität der gemeinsamen Nutzung von Ressourcen für ein groß angelegtes KI-Training, indem sie dafür mehrere Instanzen nutzt - das sogenannte 'Multi-Node-Training'."

Unternehmen mieten mehrere DGX-Cloud-Instanzen und erhalten im Gegenzug für die Mietdauer dedizierten Vollzeitzugang. Die Instanzen werden automatisch in der "Base Command Platform"-Software angezeigt, so dass die Benutzer Aufträge einreichen und ausführen können. Jede Instanz umfasst dabei acht Nvidia H100 oder A100 80GB Tensor Core GPUs - bietet also insgesamt 640GB GPU-Speicher pro Knoten. In Sachen Infrastruktur kooperiert Nvidia mit Cloud-Service-Anbietern wie Oracle Cloud Infrastructure, Microsoft Azure und Google Cloud Platform.

Billig ist die Nutzung von Nvidia-DGX-Cloud-Instanzen allerdings nicht. Los geht es ab rund 37.000 Dollar pro Instanz und Monat - exklusive Gebühren für KI-Software und Datentransfers. Eine Instanz verursacht pro Jahr also wiederkehrende Kosten in Höhe von mindestens 444.000 Dollar.

Nvidia ist mit seiner DGX Cloud nicht exklusiv unterwegs. Zu den wichtigsten Konkurrenten gehören:

"Diese Plattformen bieten ähnliche Funktionen, wie beispielsweise skalierbare Rechenressourcen, Integration mit gängigen KI-Frameworks und Unterstützung für Deep Learning-Workflows", weiß Bilay.

Insbesondere bei Unternehmen mit strengen Datenschutz- oder Compliance-Anforderungen könne die Nutzung einer solchen Cloud-Plattform jedoch auch Bedenken hinsichtlich Datenschutz und -sicherheit aufwerfen, warnt Bilay: "Obwohl DGX Cloud Sicherheitsmaßnahmen implementiert, ist es für Benutzer wichtig, die Sicherheitsprotokolle der Plattform zu evaluieren, um sicherzustellen, dass sie ihre spezifischen Compliance-Anforderungen erfüllen."

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World.