Nvidia baut neue GPU-Architektur

Ampere soll Supercomputer für KI beschleunigen

20.05.2020
Von 
Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP; Betreuung von News und Titel-Strecken in der Print-Ausgabe der COMPUTERWOCHE.
Nvidias neue GPU-Architektur soll vor allem KI-Anwendungen beschleunigen. Auf Basis des A100-Chips sind bereits etliche neue Supercomputer geplant.

Zum Auftakt der GPU Technology Conference (GTC), die Nvidia nach der Absage von Ende März ins Netz verlagert hat, präsentierte CEO Jensen Huang mit Ampere eine neue Graphic-Processing-Unit-(GPU-)Architektur. Sie sei speziell für Data-Center-Belange ausgelegt worden und könne vor allem Workloads rund um KI und Machine Learning deutlich beschleunigen.

Nvidias A100-GPU aus der neuen Ampere-Generation wird im 7-Nanometer-Verfahren gefertigt.
Nvidias A100-GPU aus der neuen Ampere-Generation wird im 7-Nanometer-Verfahren gefertigt.
Foto: Nvidia

Als ersten Chip der Ampere-Klasse stellte Nvidia den "A100" vor. Dieser sei um den Faktor 20 leistungsstärker als seine Vorgänger, sagte Huang. Ampere wird im 7-Nanometer-Verfahren gefertigt. Die geringeren Strukturbreiten lassen mehr Transistoren auf der gleichen Fläche zu. Beim A100 sind es 54 Milliarden. Auf dem Vorgänger der "Volta"-Generation fanden 21 Milliarden Transistoren Platz. Außerdem hat Nvidia eigenen Angaben zufolge die Rechenkerne, die "Tensor Cores", überarbeitet und besser auf KI-Anforderungen hin angepasst.

Petaflops-Leistung mit GPUs

Basierend auf dem A100 hat Nvidia darüber hinaus eigene Systeme vorgestellt. Der "DGX A100" soll eine Leistung von fünf Petaflops erreichen und sich flexibel auf verschiedene parallele Workloads anpassen lassen. Ein einzelner Server könne entweder hochskalieren, um rechenintensive Aufgaben wie KI-Trainings abzuarbeiten, oder herunterskalieren, um KI-Einsätze konkret durchzurechnen, sagte der Nvidia-Chef. Kunden versprach der Manager darüber hinaus Kosteneinsparungen – vor allem beim Energieverbrauch.

Nvidia kündigte außerdem die nächste Generation seiner "DGX SuperPODs" an, die ebenfalls auf dem A100 basieren. Angetrieben von 140 DGX-A100-Systemen sowie der mit der Mellanox-Akquisition übernommenen Interconnect- und Netzwerktechnik kommen die Anlagen Nvidia zufolge auf eine KI-Rechenleistung von rund 700 Petaflops. Unter ­anderen will auch das Karlsruher Institut für Technologie (KIT) mit dem "HoreKa" einen neuen Supercomputer mit 60.000 Intel-Xeon CPUs und 740 A100-GPUs bauen. Geplante Leistung: 17 Petaflops.