Nvidia Drive PX Pegasus

Nvidias neue Supercomputing-Plattform beflügelt autonomes Fahren

19.10.2017
Von 
Bernhard Haluschak war bis Anfang 2019 Redakteur bei der IDG Business Media GmbH. Der Dipl. Ing. FH der Elektrotechnik / Informationsverarbeitung blickt auf langjährige Erfahrungen im Server-, Storage- und Netzwerk-Umfeld und im Bereich neuer Technologien zurück. Vor seiner Fachredakteurslaufbahn arbeitete er in Entwicklungslabors, in der Qualitätssicherung sowie als Laboringenieur in namhaften Unternehmen.
Die neue Version der Nvidia-Supercomputing-Plattform Drive PX, Codename Pegasus, will den Weg zum autonomen Fahren revolutionieren. Mit der Technologie lassen sich führerlose Fahrzeuge der Kategorie Level 5 problemlos realisieren, so der Hersteller.
Jensen Huang, Nvidia CEO, blickt optimistisch in die Zukunft.
Jensen Huang, Nvidia CEO, blickt optimistisch in die Zukunft.
Foto: Nvidia

Der Firmenchef und Mitbegründer vom Nvidia Corporation Jensen Huang hat eine klare Vision: Er prophezeit, dass in drei bis fünf Jahren erste autonom fahrende Autos unser Straßenbild bereichern werden. Eine kühne Aussage, die der Nvidia-Chef aber begründen kann. Denn anlässlich der Eröffnung der GPU Technology Conference (GTC) 2017 in München hatte der Nvidia-CEO einen Computer für künstliche Intelligenz (KI) im Gepäck, der erstmals ein komplett autonomes Fahren auf Level-5-Ebene ermöglichen soll.

Die Nvida-Prgasus-Plattform im Detail

Das neue System mit dem Codenamen Pegasus ist eine evolutionäre Weiterentwickelung der Nvidia Drive PX 2 Vorgängermodells mit dem Focus auf den Einsatz in autonom fahrende Verkehrsmittel. So beinhaltet die Plattform zwei neu entwickelte Xavier AI-Supercomputer-SoC-Einheiten und zwei neue diskrete GPUs der nächsten Generation, die aber nicht näher spezifiziert wurden. Letztere sollen besonders Deep Learning und Computer Vision Algorithmen beschleunigen.

Laut Nvidia-Chef ermöglicht der Pegasus-Supercomputer autonomes Fahren nach Level 5 - ganz ohne Fahrzeugführer.
Laut Nvidia-Chef ermöglicht der Pegasus-Supercomputer autonomes Fahren nach Level 5 - ganz ohne Fahrzeugführer.
Foto: Nvidia

Die Xavier-Plattform enthält zirka sieben Milliarden Transistoren, die in 16-nm-FinFET-Technologie gefertigt werden. Zusätzlich sorgen 512 Cores der neuen Volta-GPU sowie acht ARM64-basierte CPU-Kerne für die rasche Verarbeitung von Sensordaten in Fahrzeugen. Dual 8K Video Prozessoren und ein neuer Vision Accelerator helfen bei der Visualisierung der gesammelten Daten.

Laut Nvidia erfüllt die Pegasus-Plattform die ASIL D-Zertifizierung. Damit garantiert der Hersteller ein Sicherheitsniveau mit einer geforderten Ausfallwahrscheinlichkeit kleiner 10^8/Stunde. Für die Konnektivität in Fahrzeugen sorgen verschiedene integrierte Ein- und Ausgänge wie CAN-Bus (Controller Area Network), Flexray sowie 16 dedizierte Hochgeschwindigkeitssensoreingänge für Kamera, Radar, Lidar und Ultraschall inklusive 10Gbit Ethernet-Anschlüsse.

Die neue Drive-PX-Pegasus-Plattform ist kaum größer als ein Autokennzeichen.
Die neue Drive-PX-Pegasus-Plattform ist kaum größer als ein Autokennzeichen.
Foto: Nvidia

Die Pegasus Drive PX-Plattform ist in der Lage über 320 Billionen Operationen pro Sekunde durchzuführen, das bedeutet eine Leistungssteigerung um den Faktor 10 gegenüber dem Vorgänger. Die Speicherbandbreite geben die Entwickler mit 1 Terabyte pro Sekunde an. Pegasus richtet sich in erster Linie an Auto- und Technologieunternehmen, die automatisierte oder selbstfahrende Fahrzeuge bis Level 5 entwickeln wollen. Das System soll ab der zweiten Hälfte des Jahres 2018 verfügbar sein und ist mittelweile auf die Größe eines Autokennzeichens geschrumpft. Diese Baugröße erleichtert den Automobilunternehmen die Integration der Systeme in ihre Fahrzeuge, der elektrische Leistungshunger der Pegasus-Plattform von bis zu 500 Watt allerdings nicht.

Partnerschaften und mehr

Um die Technologie rund um das autonome Fahren an den Mann zu bringen setzt Nvidia verstärkt auf Partnerschaften. Neben den bekannten Automobilunternehmen ist neu das Logistikunternehmen Deutsche Post DHL Group (DPDHL) und der Automobilzulieferer ZF hinzugekommen. DPDHL will ein Teil seiner 3400-starken Fahrzeugflotte, bestehend aus sogenannten StreetScooter, automatisieren. Damit soll der Transport und die Auslieferung von Paketen besonders auf der "letzten Meile" optimiert werden. Im Rahmen der Partnerschaft soll ein Teil des Fuhrparks mit ZF-Sensoren, wie Kameras, Lidar oder Radar ausgestattet werden, die Sensordaten an das ZF-ProAI-System übertragen.

ZF ProAI basiert auf Nvidias Drive PX-Technologie und kann diese Informationen in Echtzeit verarbeiten. Das System kreiert ein 360-Grad-Umfeld und kann sich in diesem Bereich selbstständig bewegen und auch einen sicheren Fahrweg auf seiner Route vorausplanen. Somit können die Waren unabhängig von der Tageszeit geliefert werden, wodurch die Staus in den Stadtzentren erheblich reduziert werden und Emissions- und Geräuschbelastungen sinken. Laut dem Hersteller soll ZF ProAI alle Umweltkriterien der Automobilbranche erfüllen und auch unter Extrembedingungen wie Hitze, Kälte, Feuchtigkeit und Staub funktionieren. Die Serienfertigung des Systems plant ZF ab 2018.

Ein autonom fahrendes DPDHL-Prototypenfahrzeug in Aktion.
Ein autonom fahrendes DPDHL-Prototypenfahrzeug in Aktion.

Das erste DPDHL-Prototypenfahrzeug, das mit sechs Kameras, einem Radar und zwei Lidar sowie mit Nvidia-Drive-PX-Technologie bestückt war, konnten Interessierte bereits auf der GTC Munich 2017 im Einsatz bewundern. Wann allerdings erste Fahrzeuge auf Deutschlands Straßen unterwegs sein werden, ist noch offen.

Was bedeutet eigentlich Level 0 bis 5

Im Rahmen der Nvidia-Konferenz zeigten einige Automobilhersteller ihren aktuellen Entwicklungsstand in Hinblick auf autonomes Fahren. Ob Audi, VW, Mercedes, Volvo oder Ford viele nutzen die Nvidia-Technologie, um den Autolenker in Fahrzeugen durch künstlicher Intelligenz zu ersetzen. Doch was heißt eigentlich autonomes oder automatisiertes Fahren und was bedeuten die Klassifizierungen nach Level 0 bis 5.

Die verschiedenen Level des autonomen Fahrens nach SAE J3016 im Detail.
Die verschiedenen Level des autonomen Fahrens nach SAE J3016 im Detail.
Foto: SAE

Der Beginn des autonomen Fahrens kann mit der Einführung der ersten Fahrassistenten für Automobile gleichgesetzt werden. Dazu zählt sicherlich der erste von Chrysler eingesetzte Tempomat, der in den USA 1958 unter dem Namen Cruise Control bekannt wurde. Mercedes-Benz hat diese Technologie 1962 erstmals in ihren Automobilen verwendet. Seither haben sich die Assistenzsysteme rasant weiterentwickelt, sodass schließlich auch Regularien für den Einsatz solcher Technologien festgelegt werden mussten. Neben den regulatorischen Maßnahmen mussten auch entsprechenden Definitionen geschaffen werden, um die Begrifflichkeiten der verschiedenen manuellen bis autonomen Fahrweisen zu beschreiben. International definieret die SAE (Society for Automobile Engineers) in der Norm J3016 die Begrifflichkeiten in sechs verschiedenen Stufen (Level 0 bis 5).

In Deutschland hat die Bundesanstalt für Straßenwesen (BASt) als technisch-wissenschaftliches Forschungsinstitut des Bundesministeriums für Verkehr und digitale Infrastruktur die Grade der Automatisierung und ihre Definition verfasst. Sie hat die Aufgabe übernommen die Automatisierungsgrade von Fahrzeugen festzulegen, um für die verschiedenen Fahrfunktionen eine rechtliche Grundlage zu schaffen. Dabei ist die BASt von den SAE-Vorgaben abgewichen, in dem es den letzten Grad (Level5), das fahrerlose Führen eines Fahrzeugs, weggelassen hat.

SAE LeveL 0 - No Automation: Der Fahrer steuert alle Fahrzeugfunktionen selbstständig.

SAE LeveL 1 - Driver Assistance: Der Fahrer übergibt einzelne Fahrfunktionen an Assistenzsysteme.

SAE LeveL 2 - Partial Automation: Der Fahrzeugführer überwacht ständig die automatisierten Fahrzeugfunktionen.

SAE LeveL 3 - Conditional Automation: Der Fahrer muss die Fahrzeugfunktionen nicht mehr ständig überwachen, aber bei Bedarf übernehmen.

SAE LeveL 4 - High Automation: Das Fahrzeug kann alle Fahrsituationen automatisch bewältigen. Ein Fahrer ist nicht mehr zwingend erforderlich.

SAE LeveL 5- Full Automation: Das System übernimmt die Führung des Fahrzeuges völlig selbstständig. Komponenten wie Lenkrad oder Brems- und Gaspedal werden nicht mehr benötigt. (Nicht von der BASt definiert.)

Aktuelle Gesetzeslage für autonomes Fahren

Auch auf der Gesetzgeberseite tut sich was, allerdings nur sehr langsam und nicht konsequent und schnell genug, um eine Rechtssicherheit für automatisiert oder autonom fahrende Fahrzeuge zu schaffen.

Erst im Mai 2017 hat der Bundesrat ein neues Gesetzt zum automatisierten Fahren, das jetzt vorerst nur für zwei Jahre in Kraft tritt, verabschiedet. Diese Gesetzt beinhaltet, das automatisierte Fahrsysteme beziehungsweise computerisierte Fahrassistenten jetzt Fahraufgaben selbständig durchführen dürfen. Die rechtliche Gleichstellung von Fahrer und Computer definiert auch die Rückübernahmen der Fahrzeugsteuerung. So schreibt das Gesetz vor, das der Fahrer nur nach Aufforderung durch das System die Kontrolle über das Fahrzeug wieder übernehmen muss oder wenn die automatischen Fahrzeugfunktionen nicht mehr bestimmungsgemäß eingesetzt werden können.

Zur Kontrolle des Fahrgeschehens ist der Einsatz einer Blackbox als Datenspeicher vorgeschrieben, so dass im Fall eines Falles, diese Box als Beweismittel herangezogen werden kann.

Der aktualisierte Gesetzestext erläutert die Rechte und Pflichten eines Fahrzeugführers, der hoch- oder vollautomatisierte Fahrfunktionen nutzt, im § 1b StVG. Wie man unschwer erkennt, ist der Gesetzgeber von der Regulierung von autonomen Fahrtzeugen noch weit entfernt, den hochautomatisiert heißt nicht automatisch autonom.

Das Holodeckt erlaubt verteilten Teams in virtuellen Arbeitsumgebungen zusammenzuarbeiten.
Das Holodeckt erlaubt verteilten Teams in virtuellen Arbeitsumgebungen zusammenzuarbeiten.
Foto: Nvidia

Holodeck, die Plattform für fotorealistische Virtual Reality

Neben künstlicher Intelligenz in Fahrzeugen nutz Nvida seine Technologie auch, um virtuelle und mit KI angereicherte Arbeitsumgebungen zu schaffen. In diesem Zusammenhang gibt Nvidia ab sofort einen Vorabzugang zum Nvidia Holodeck für Produktdesigner, Anwendungsentwickler, Architekten und andere Gestalter von 3D-Inhalten frei. Das Projekt offeriert ein Mehrbenutzersystem für eine Virtual-Reality-Umgebung, in der zum Beispiel Entwickler fotorealistische 3D-Modelle erstellen, testen und optimieren können.

In einem solchen 3D-Design Lab lassen sich große und detaillierte Modelle naturgetreu und in Echtzeit erschaffen beziehungsweise rendern. Dabei kann sich der Nutzer in einer physikalisch simulierten Welt bewegen, die Menschen und verschiedene Objekte auch aus der realen Welt enthält. Verteilte Teams können sich in virtuellen Räumen treffen und an gemeinsamen Projekten arbeiten oder dieser bewerten. Unter Zuhilfenahme von KI-gesteuerten Simulationstools lassen sich etwa Maschinen trainieren und die so gewonnen Erkenntnisse von der virtuellen in die reale Welt übertragen. Der Entwicklungsprozess von entsprechenden Maschinen kann damit verkürzt und die Produktsicherheit erhöht werden.