Von Gaming zu Generative AI

Nvidias Weg zum Billionenunternehmen

19.07.2023
Von 
Peter Sayer ist Korrespondent des IDG News Service.
Nvidias Chips haben sich über die einstige Videospielnische hinaus zum essenziellen Bestandteil von KI-Strategien im Unternehmensumfeld entwickelt. Und auch in Sachen Generative AI will der Konzern künftig in großem Stil mitmischen.
Nvidia wurde 1993 gegründet. 30 Jahre später gehört das Unternehmen zu den wertvollsten der Welt. Das dürfte sich auch so schnell nicht mehr ändern.
Nvidia wurde 1993 gegründet. 30 Jahre später gehört das Unternehmen zu den wertvollsten der Welt. Das dürfte sich auch so schnell nicht mehr ändern.
Foto: Valeriya Zankovych - shutterstock.com

Nvidias Transformation vom Videospiel-Spezialisten zum Wegbereiter für künstliche Intelligenz (KI), (Industrial) Metaverse und autonome Fahrzeuge lief nicht von heute auf morgen ab. Der Sprung in den exklusiven Club der Eine-Billion-Dollar-Unternehmen allerdings schon. Nachdem Nvidia starke Quartalsergebnisse vermelden konnte und einen Umsatzanstieg von 50 Prozent für das zweite Quartal 2023 in Aussicht gestellt hatte, erreichte die Börsenbewertung des Unternehmens quasi über Nacht völlig neue Höhen.

Nvidia wurde zum neuen Liebling der Wall Street und darf nun auch offiziell in einem Atemzug mit Alphabet, Amazon, Apple und Microsoft genannt werden. Zwar rutschte das Unternehmen kurzzeitig wieder unter die Billionen-Marke, erholte sich aber schnell wieder. Die Investmentbanker von Morgan Stanley prognostizieren, dass Nvidias Wert bis zum Jahresende 2023 um weitere 15 Prozent zulegen könnte.

Im Vergleich zu Microsoft, Google oder Apple genießt Nvidia weit weniger Markenbekanntheit unter Endkunden. Wie konnte das Unternehmen es also bewerkstelligen, sich dennoch im Club der Billionen-Dollar-Unternehmen zu etablieren, im Gegensatz zu Tesla und Meta? Dieser Artikel geht dieser Frage auf den Grund und wirft dazu einen Blick auf die Geschichte - und Zukunft - von Nvidia.

Gaming-Treiber

Nvidia startete sein Business im Jahr 1993 damit, Grafikbeschleunigerchips für PCs zu entwickeln. Die Gründer (Jen-Hsun Huang, Curtis Priem und Chris Malachowsky) erkannten dabei, dass 3D-Grafiken in Videospielen sehr repetitive und rechenintensive Anforderungen an CPUs stellten. Ihre Lösung: Statt diese Berechnungen vom Prozessor in Reihe ausführen zu lassen, entwickelten sie einen speziellen Chip, der diese parallel abwickelte.

Diese Erkenntnis führte zur Entwicklung der ersten 3D-Beschleunigerprozessoren ab 1995 und der GeForce-Grafikkarten, die 1999 ihre Marktpremiere feierten. Bis heute ist das Unternehmen unangefochtener Marktführer im Bereich der dedizierten Grafikkarten. Diese Sparte macht immer noch mehr als ein Drittel des Umsatzes aus.

Im Laufe der Zeit kamen weitere Anwendungen für die Parallelverarbeitungsfunktionen der Grafikprozessoren (GPUs) von Nvidia hinzu, die Probleme mit einer ähnlichen Matrixarithmetik-Struktur wie die 3D-Grafikmodellierung lösen. Dennoch mussten Softwareentwickler, die Grafikchips für nicht-grafische Anwendungen nutzen wollten, ihre Berechnungen in eine Form bringen, die als eine Reihe von Anweisungen entweder für Microsofts DirectX-Grafik-API oder für die Open-Source-Grafikbibliothek OpenGL an die GPU gesendet werden konnte.

Das änderte sich im Jahr 2006, als Nvidia eine neue GPU-Architektur vorstellte: CUDA ließ sich direkt in C programmieren, um die mathematische Verarbeitung zu beschleunigen. Das vereinfachte den Einsatz für die parallele Datenverarbeitung wesentlich. Einer der ersten Use Cases für CUDA war die Öl- und Gasexploration, bei der Berge von Daten aus geologischen Untersuchungen verarbeitet werden.

Der Markt für GPUs als Allzweckprozessoren (General Purpose GPUs, GPGPUs) öffnete sich schließlich im Jahr 2009, als der OpenGL-Herausgeber Khronos Group die Open Computing Language (OpenCL) veröffentlichte. Bald darauf fügten Cloud-Hyperscaler wie Amazon Web Services GPUs zu einigen ihrer Recheninstanzen hinzu und machten GPGPU-Kapazitäten damit auf Anfrage verfügbar.