All in auf Unternehmens-KI

Knackt Intel mit Gaudi 3 Nvidias KI-Monopol?

09.04.2024 von Jürgen  Hill
Auf seiner Kunden- und Partnerkonferenz Intel Vision 2024 setzt Intel alles auf eine Karte: Mit neuen KI-Chips und einem eigenen KI-Ökosystem will man den Rivalen Nvidia ausstechen.
All in - Intel-Chef Pat Gelsinger setzt derzeit voll auf die Enterprise-AI-Karte.
Foto: Intel Screenshot

Für Intel sah es in letzter Zeit nicht gut aus: Aktienportalen wie aktien.guide zufolge verbuchte der Chipbauer bei wichtigen Kennzahlen eine negative Entwicklung, während KI-Chip-Rivale Nvidia mit Wachstumszahlen im dreistelligen Prozentbereich punkten konnte. So schrumpfte etwa Intels Gewinn im Jahresvergleich um 79 Prozent, während Nvidias Profit um 581 Prozent stieg.

Intel unter Druck

Dementsprechend groß ist der Druck auf den Konzern, in Sachen KI endlich ein überzeugende und vor allem Geld bringende KI-Story zu präsentieren. Auf seiner Kunden und Partnerkonferenz Intel Vision 2024 versucht der Chipbauer dies nun mit einer umfassenden KI-Strategie für Unternehmen. Diese Strategie basiert auf neuer KI-Hardware sowie einem offenen, skalierbaren KI-Ökosystem.

Mit Blick auf diese Neuerungen warb Intel-CEO Pat Gelsinger auf der Vision 2024 bei Kunden und Analysten um Zuversicht: "Die Innovation schreitet in einem noch nie dagewesenen Tempo voran. Alles wird durch Silizium ermöglicht - und jedes Unternehmen wird sich schnell zu einem KI-Unternehmen wandeln. Und wir bringen KI in alle Bereiche des Unternehmens, vom PC über das Rechenzentrum bis hin zum Edge." Und mit Blick auf die Hardware meinte Gelsinger: "Unsere neuesten Gaudi-, Xeon- und Core-Ultra-Plattformen bieten ein umfassendes Paket flexibler Lösungen, die auf die sich ändernden Bedürfnisse unserer Kunden zugeschnitten sind und immense Chancen für die Zukunft bieten."

Mit Gaudi 3 gegen Nvidia Hopper

Intel-Boss Gelsinger (rechts im Bild) zeigt eines der ersten Muster des KI-Beschleuinigers Gaudi 3.
Foto: Intel

Eine dieser Zukunftshoffnungen ist der neue KI-Beschleuniger-Chip Gaudi 3, den das Unternehmen erstmals als Muster im Dezember 2023 zeigte. Selbstbewusst verspricht Intel, dass Gaudi 3 für Unternehmen, die GenAI in großem Maßstab einsetzen wollen, einen bedeutenden Sprung bei KI-Training und Inference liefern. Dazu warte Gaudi 3 mit viermal mehr KI-Rechenleistung für BF16 und einer 1,5fach höheren Speicherbandbreite als sein Vorgänger auf.

Ein starker Papiertiger

Zumindest auf dem Papier liest sich das Potenzial des Gaudi 3 super. So soll er kosten- und energieeffizienter als sein Vorgänger sein. Und last, but not least: Er soll endlich Nvidias H100-KI-Chip Paroli bieten. Intel gibt an, dass Gaudi 3 im Vergleich zum H100 mit einer durchschnittlich 50 Prozent schnelleren Einarbeitungszeit für Llama2-Modelle mit 7B und 13B Parametern und das GPT-3-Modell mit 175B Parametern aufwarte. Ferner übertreffe der Inferenzdurchsatz des Intel Gaudi 3-Beschleunigers den H100 im Durchschnitt um 50 Prozent. Und bei der Inferenz-Energieeffizienz sei Intels jüngster KI-Spross im Durchschnitt bei den Llama-Modellen mit 7B und 70B Parametern und dem Falcon-Modell mit 180B Parametern um 40 Prozent besser.

Gaudi 3 - eine Enttäuschung?

Allerdings haben Intels Performance-Angaben zu dem neuen KI-Beschleunigerchip, der ab dem zweiten Quartal 2024 OEM-Herstellern wie HPE, Lenovo oder Supermicro zur Verfügung stehen soll, einen Schönheitsfehler. Intel vergleicht Gaudi 3 nämlich lediglich mit dem H100 Hopper, der bei Nvidia bereits als Auslaufmodell gilt.

Intel will den KI-Beschleuniger Gaudi 3 im 5nm-Prozess fertigen.
Foto: Intel

Im zweiten Halbjahr will Nvidia mit dem im März vorgestellten B100 Blackwell den Nachfolger des H100 liefern. Der im 3-Nanometer-Prozess gefertigte Chip (Intel verwendet für Gaudi 3 5nm) soll etwa ein Viertel des Stromverbrauchs eines H100 aufweisen. Und während für das Training des gesamten ChatGPT 8.000 Hopper-Chips drei Monate benötigten, würde nun 2.000 Blackwell-Chips den Task erledigen. Damit könnte es also mit Intels propagierten Leistungsvorsprung für Gaudi 3 bald vorbei sein.

Erste Industriekunden für Gaudi

Allerdings gibt es für Intel dennoch ein Trostpflaster, das den wirtschaftlichen Erfolg von Gaudi 3 sichern könnte. Nvidia hat vorsichtshalber für die Blackwell-Chips bereits vor einer Phase der Knappheit gewarnt. Angeblich gibt es Anlaufschwierigkeiten mit dem 3nm-Prozess. Gelingt es Intel zudem noch, Gaudi 3 günstiger als Nvidias KI-Chips anzubieten, dann überzeugt das eventuell so manchen Kunden.

Erste Kunden, die künftig den KI-Beschleuniger Gaudi 3 verwenden wollen, konnte Intel zur Vision 2024 präsentieren. Hierzulande will ihn etwa Bosch für die intelligente Fertigung nutzen. Geplant ist dabei die Erstellung synthetischer Datensätze von Fertigungsanomalien. Mit diesen Daten sollen dann beispielsweise automatische optische Inspektionsmaschinen trainiert werden.

Gaudi-Anwendungen

Bosch gehört mit zu den ersten Anwendern, die Gaudi 3 für GenAI verwenden. Er soll synthetische Datensätze für Fertigungsanomalien erstellen.
Foto: Bosch

Beim weltweit agierenden Nahrungsmittelhersteller International Flavors & Fragrances Inc. (IFF) ist ein Einsatz der Chips in Verbindung mit GenAI und Digital Twins geplant. Sie sollen dabei helfen, einen integrierten digitalen Biologie-Workflow für fortschrittliches Enzymdesign sowie die Optimierung von Fermentationsprozessen aufzubauen. Bei Landing AI, einem auf Computer Vision spezialisierten Unternehmen, soll Gaudi 3 dazu dienen, ein feinabgestimmtes, domänenspezifisches Large Vision Model (LVM) für die Segmentierung von Zellen und die Erkennung von Krebs zu realisieren.

Eigene KI-Plattform geplant

Doch ebenso wichtig wie leistungsfähige KI-Hardware ist mittlerweile das dazu gehörige Software-Ökosystem. Ein Punkt, in dem Nvidia in den letzten Jahren mit CUDA und der Nvidia-AI-Enterprise-Plattform ebenfalls bereits kräftig vorgelegt hat. Diese Vormachtstellung will Intel nun gemeinsam mit Partnern brechen, indem eine "Open Platform for Enterprise AI" geschaffen wird. Das Projekt zielt darauf ab, offene, herstellerübergreifende GenAI-Systeme zu entwickeln, die durch Retrieval-Augmented- Generation einfach zu implementieren sind und mit hoher Leistung und Wertschöpfung aufwarten.

RAG im Blick

Laut Intel ermöglicht RAG Unternehmen, ihre bestehenden, proprietären Datenquellen, die auf Xeon-basierten Lösungen laufen, mit offenen LLM-Funktionen zu erweitern und so den Einsatz von GenAI zu beschleunigen. In einem ersten Schritt plant Intel, Referenzimplementierungen für GenAI-Pipelines herauszugeben sowie ein technisches Konzept zu veröffentlichen. Des Weiteren wolle man Infrastrukturkapazitäten in der Intel Developer Cloud für die Entwicklung und Validierung von RAG und zukünftigen GenAI-Pipelines bereitstellen.

Neue Xeon-CPUs

Neben dem Gaudi-3-Beschleuniger und der KI-Plattform stellte Intel Updates zu seinen weiteren KI-Produkten vor. Mit den neuen Xeon-6-Prozessoren will Intel eine leistungseffiziente Lösung für die Ausführung aktueller GenAI-Lösungen, einschließlich RAG, offerieren. Die Xeon-6-Prozessoren mit neuen Efficient-Cores (E-core) - Codename Sierra Forest - sollen eine außergewöhnliche Effizienz bieten und noch in diesem Quartal auf den Markt kommen. Bei den Intel Xeon 6 mit Performance-Cores (P-core) - Codename Granite Rapids - setzt die Company dagegen auf eine gesteigerte KI-Leistung. Hier ist geplant, dass sie kurz nach den E-core-Prozessoren auf den Markt kommen.

Updates für Core Ultra

In Sachen Edge- und Client-Computing erweitert Intel sein Angebot an Core-Ultra-Prozessoren. Für den industriellen Einsatz im Edge-Bereich in Embedded-Geräte werden die KI-CPUs künftig auch als gesockelte Varianten zu erhalten sein. Die bisherigen Notebook-Versionen mussten direkt auf das Motherboard gelötet werden.