Technologiekonferenz GTC

Nvidia will die KI-Entwicklung beschleunigen

26.03.2019
Von 
Heinrich Vaske ist Editorial Director a.D. von COMPUTERWOCHE, CIO und CSO.
Mit einer Produktoffensive hat Nvidia auf seiner jährlichen GPU-Technologiekonferenz (GTC) in San José deutlich gemacht, dass der Chip- und Grafikkartenhersteller Artificial Intelligence und High Performance Computing keineswegs nur aus der Hardwareperspektive sehen möchte.
  • Nvidia stellt „CUDA-X AI“ vor, ein Set an GPU Acceleration Libraries für Data Science und AI
  • T4-GPU steht nun auch in der Cloud von AWS, Google, Microsoft und bald wohl auch von anderen bereit
  • In der Kooperation mit Toyota geht es um das virtuelle Training von autonomen Fahrzeugen
Jensen Huang, CEO und Gründer von Nvidia, zeigte die Roadmap des Grafikkarten- und AI-Spezialisten auf.
Jensen Huang, CEO und Gründer von Nvidia, zeigte die Roadmap des Grafikkarten- und AI-Spezialisten auf.
Foto: Nvidia

Nvidias CEO und Gründer Jensen Huang nutzte das San José State University Centre für eine ausufernde Keynote-Rede von drei Stunden (Aufzeichnung hier). "Unser Accelerated-Computing-Ansatz, den wir seit langem verfolgen und weiterentwickeln, findet immer mehr Anklang", sagte Huang. "Wenn man sich ansieht, was wir im letzten Jahr erreicht haben, wird klar, was für ein Momentum dahintersteckt."

Mit Mellanox strebt Nvidia die Hoheit im RZ an

Erst vor wenigen Tagen hatte Nvidia angekündigt, für den stolzen Preis von 6,9 Milliarden Dollar den israelischen Rechenzentrumsspezialisten Mellanox zu übernehmen. Damit bootete der Chiphersteller Intel aus, dass ebenfalls interessiert war, aber weniger Geld hinlegen wollte. Mellanox bietet eine breite Palette von Komponenten - darunter vor allem Ethernet-Switches - für die Vernetzung im Rechenzentrum an und behauptet zudem "Markführer im Bereich Infiniband/SAN" zu sein.

CUDA-X AI soll Entwicklung beschleunigen

Auf der GTC ging es jedoch vorrangig um andere Themen. Nvidia enthüllte unter anderem "CUDA-X AI", ein Set an GPU Acceleration Libraries für Data Science und Artificial Intelligence (AI). Man wolle das Entwickeln AI-basierter Anwendungen auf allen Ebenen - Data Processing, Feature Engineering, Machine Learning, Verifikation - beschleunigen, und zwar nicht punktuell, sondern von Ende zu Ende, hieß es. CUDA-X AI ist eine Bibliothekensammlung, die auf dem Parallel-Programmiermodell CUDA aufsetzt. Nvidia bietet es für Deep Learning, Machine Learning und High-Performance Computing (HPC) an.

Der Chiphersteller integriert die Libraries in populäre Deep Learning Frameworks wie TensorFlow, PyTorch und MXNet. Die Entwicklung eines großartigen Chips sei für Nvidia nur ein schöner Anfang, sagte Huang, solange die Entwickler und Anwender keine Vorteile daraus ziehen könnten, sei das nutzlos. Deshalb sei es für Nvidia so wichtig, in einem Ökosystem zu arbeiten. "Wir sehen uns als offene Plattform. Wir erstellen diese Bibliotheken so, dass sie softwaredefiniert und in ein modernes System integrierbar sind."

Public Cloud-Partnerschaften

CUDA-X AI werde bereits von Cloud-Providern wie Amazon Web Services (AWS), Google Cloud und Microsoft Azure eingesetzt. Insbesondere seine inzwischen siebenjährige Partnerschaft mit AWS hob Nvidia hervor: Auf der Konferenz hieß es unter anderem, Amazon werde nun beginnen, den Kunden auch die T4-Grafikchips von Nvidia über die G4-Instanzen der Elastic Compute Cloud (EC2) zur Verfügung zu stellen.

T4-GPUs können jetzt auch in den verschiedenen Public-Cloud-Compute-Welten gebucht werden, so Huang auf der Nvidia GTC 2019.
T4-GPUs können jetzt auch in den verschiedenen Public-Cloud-Compute-Welten gebucht werden, so Huang auf der Nvidia GTC 2019.
Foto: Nvidia

Damit sollen AWS-Kunden eine effiziente und performante Plattform für die Bereitstellung von AI-Diensten bekommen - mit der Möglichkeit, ihre Instanzen mit der GPU-Beschleunigungssoftware von Nvidia einschließlich CUDA-X AI zu koppeln. "Mit unseren neuen T4-basierten G4-Instanzen machen wir es den Kunden einfacher und kostengünstiger, ihre maschinell lernenden Inferenzen und grafikintensiven Anwendungen zu beschleunigen", sagte Matt Garman, Vice President für Compute Services bei AWS.

Nvidias T4-GPU ist darauf ausgelegt, Cloud-Workloads wie High-Performance-Computing, Deep-Learning-Training und -Inferenz, maschinelles Lernen, Datenanalysen und Grafik beschleunigt zu bearbeiten. Sie wird nun auch von Amazons "Elastic Container Service für Kubernetes" genutzt und soll in Anwendungsfällen wie KI-Inferenzierung, Echtzeit-Raytracing, Simulation und mehr zum Einsatz kommen. Nvidia bestätigte, dass auch Google Cloud die T4-GPUs in seinen Rechenzentren einsetzen werde. Man habe Hoffnung, dass die chinesischen Cloud-Anbieter Baidu, Tencent und Alibaba bald folgen könnten.

T4-Grafikprozessoren auch für normale Server

"In der Vergangenheit hatten Unternehmen kaum eine Chance, AI-Projekte umzusetzen, weil sie dazu schon beinahe einen Supercomputer hätten anschaffen müssen." Mit den Cloud-Services habe sich die Ausgangslage grundlegend verbessert, sagte Ian Buck, Nvidias Vice President und General Manager für Accelerated Computing im Gespräch mit der COMPUTERWOCHE-Schwesterpublikation "Computerworld UK". Manch ein Anwender fühle sich heute, als sitze er in einem "Spaceshuttle".

Nvidia gab auf seiner Hausmesse auch bekannt, dass gewöhnliche Mainstream-Server von Cisco, Fujitsu, Lenovo, Dell, Hewlett-Packard Enterprise (HPE) und anderen ebenfalls mit T4-Grafikprozessoren zu haben sind, sofern die Zertifizierung "Nvidia GPU Cloud ready" vorhanden ist. Damit ließen sich KI-Training und -Inferenz, maschinelles Lernen, Datenanalyse und die Einrichtung virtueller Desktops erheblich beschleunigen.

Um Entwickler sowie die Maker-Szene dazu zu bringen, auf der Nvidia-Plattform zu entwickeln, hat der Hersteller einen kleinen, mit dem Raspberry Pi vergleichbaren Taschencomputer namens "Jetson Nano" vorgestellt. Der KI-Rechenzwerg liefert bis zu 472 Gigaflops Rechenleistung, unterstützt nahezu alle modernen KI-Workloads und kostet nur 99 Dollar. "Wenn Sie einen Raspberry Pi verwenden und die Rechenleistung knapp wird, nutzen Sie einfach einen Jetson Nano, und Sie haben den gesamten CUDA-X AI-Stack", sagte Nvidia-Manager Deepu Talla.

Der Jetson Nano - mehr als ein Raspberry Pi

"Wir haben in der Branche und auch in der Entwicklergemeinde eine enorme Akzeptanz für unsere Jetson-Produktlinie festgestellt", behauptete Talla. "Wir haben über 200.000 aktive Entwickler auf Jetson und einige Tausend Kunden, die tatsächlich irgendeine Art von Produkt damit bauen." Jetson komme längst in verschiedenen Industrie- und Logistikszenarien zum Einsatz, zumal er sich via AWS Robomaker oder AWS IoT Greengrass in IoT- und Robotikszenarien einbinden lasse.

Zu Nvidias Ankündigungen gehörte auch die Aussage, dass die Deepstream-Plattform für die Videoanalyse ab sofort auch in der Microsoft-Azure-Cloud verfügbar sei. "Eine hochleistungsfähige Videoanalyse erfolgt on Premise etwa auf der Basis eines Tesla-basierten Servers. Die Metadaten gehen dann in die Azure Cloud. Es gibt dafür jetzt einen End-to-End-Workflow, und das wird durch Microsofts Support ermöglicht", sagte Talla.

In seiner Keynote gab Huang erst ganz zum Schluss bekannt, dass Nvidia seine Zusammenarbeit mit Toyota ausgebaut habe. Die Japaner haben es demnach auf die Simulations- und Testtechnologie von Nvidia rund ums autonome Fahren abgesehen, um damit selbstfahrende Autos auf die Straßen zu bringen.

Autonomes Fahren in virtuellen Umgebungen testen

Nicht alle Szenarien rund um autonomes Fahren lassen sich auf öffentlichen Straßen testen. Toyota und Nvidia arbeiten an virtuellen Testverfahren.
Nicht alle Szenarien rund um autonomes Fahren lassen sich auf öffentlichen Straßen testen. Toyota und Nvidia arbeiten an virtuellen Testverfahren.
Foto: Nvidia

Nvidia kündigte unter anderem "Drive Constellation" an, eine Cloud-basierte Simulationsplattform für autonomes Fahren. Damit wollen die Partner ein gravierendes Problem im Bereich des autonomen Fahrens angehen: Entwickler sollen in virtuellen Szenarien die extremen Ereignisse testen und simulieren, die im realen Verkehr aus Sicherheitsgründen nicht getestet werden können. Löst sich beispielsweise eine schwere Ladung vom Dachgepäckträger eines vorausfahrenden Fahrzeugs, lässt sich das unter Realbedingungen kaum testen, wohl aber in virtuellen Testumgebungen.

Drive Constellation besteht aus zwei Cloud-Lösungen: Der Server "Constellation Simulator" verwendet NVIDIA-GPUs und die Software "Drive Sim", um den Daten-Output eines virtuellen Fahrzeugs auf einer virtuellen Straße zu generieren. Der zweite Server "Constellation Vehicle" verarbeitet die Simulationsdaten mit Nvidias Fahrzeugcomputer "Drive AGX Pegasus AI". So werden alle "Entscheidungsdaten" umgehend erfasst und ausgewertet.

Umgebungsdaten von Fahrzeugen werden analysiert

Mit der Einführung ihrer Software "Safety Force Field" zielt Nvidia ferner darauf ab, Autos vor Unfällen zu schützen. Die Software analysiert und prognostiziert die Dynamik der Umgebung eines Fahrzeugs, indem sie laufend Sensordaten aufnimmt und daraus Maßnahmen ableitet. Dahinter steckt eine Policy, die sicherstellen soll, dass die ergriffenen Maßnahmen möglichst zu keinen unsicheren Situationen führen und dass unangenehme Folgen bestmöglich abgeschwächt werden.

"Unser Unternehmen befindet sich mitten in der Revolution der autonomen Fahrzeuge", sagte Huang. "Wir bauen aber keine selbstfahrenden Autos, sondern wir schaffen Systeme und eine Infrastruktur, die für die Branche notwendig sind, um selbstfahrende Autos zu bauen", schloss er.