KI-Geschäft soll 3,5 Milliarden Dollar Umsatz bringen

Intel bringt dedizierte KI-Prozessoren

14.11.2019
Von 
Jürgen Hill ist Teamleiter Technologie. Thematisch ist der studierte Diplom-Journalist und Informatiker im Bereich Communications mit all seinen Facetten zuhause. 
Intel baut sein Chip-Portfolio aus. Der Fokus liegt dabei auf Spezialprozessoren für KI-Szenarien.
Deep Learning und andere KI-Anwendungen sollen mit Intels neuen Nervana-Prozessoren effizienter und schneller werden.
Deep Learning und andere KI-Anwendungen sollen mit Intels neuen Nervana-Prozessoren effizienter und schneller werden.
Foto: Intel

Intel legt nach. Nachdem die Chinesen mit Huawei und den Ascend-KI-CPUs bislang im Rennen um ein umfassendes Portfolio an spezialisierten KI-Chips 1:0 in Führung lagen, kontert nun Intel mit eigenen, dedizierten KI-Prozessoren. Und will, wie es auf dem Intel AI Summit hieß, die Konkurrenz in Sachen Performance und Leistungsfähigkeit um den Faktor Zehn beziehungsweise Sechs übertreffen. Zudem sollen die KI-Prozessoren die Xenon-CPUs in Servern und Rechnern entlasten und so schnellere und effizientere KI-Anwendungen erlauben. Dies soll die Entwicklung und Bereitstellung von KI-Systemen von der Cloud bis zum Edge beschleunigen.

Intels KI-Portfolio

Neu im Intel Portfolio kommen dabei zwei Nervana Neural Network Processors (NNP): Der NNP-T1000 ist für das Training/Lernen von KI-Anwendungen gedacht, der Inferenz-Prozessor NNP-I1000 für das Verarbeiten von Daten anhand der gelernten Daten. Beide Chips sind die ersten ASICs, die Intel speziell für komplexes Deep Learning entwickelt hat. Ergänzt wird das Portfolio durch die Movidius Vision Processing Unit (VPU) für KI-unterstütze Anwendungen mit Bilderkennung - also etwa der visuellen Qualitätskontrolle in der Fertigung.

Angesichts der neuen KI-Chips wirbt man bei Intel damit, das breiteste KI-Portfolio der Branche zu haben. Eine Darstellung, die man wohl bei Huawei nicht unbedingt teilen wird. Mit seinen KI-Lösungen will Intel in diesem Jahr 3,5 Milliarden Dollar Umsatz erwirtschaften.

Die neuen Nervana NNPs liefert Intel ab sofort aus, während die Movidius VPU in der ersten Jahreshälfte 2020 verfügbar sein sollen. Intel sieht seine NNPs als Teil seines AI-Konzepts auf Systemebene. Die eigentliche Hardware ergänzt Intel wiederum wie die Konkurrenten um einen eigenen Software-Stack, der die Softwareentwicklung vereinfachen soll.

Chips für Facebook und Baidu

Glaubt man Intel, schafft der NNP-T die Balance zwischen Datenverarbeitung, Kommunikation und Speicher und ermöglicht eine nahezu lineare, energieeffiziente Skalierung. Auf diese Weise sei er von kleinen Clustern bis hin zu großen Supercomputern nutzbar. Dagegen eigne sich der NNP-I für intensive multimodale Inferenzen. Beide Produkte seien mit Blick auf die KI-Anforderungen von großen AI-Anwendern wie Baidu oder Facebook entwickelt worden. Facebook will etwa mit seinem Deep-Learning-Compiler Glow die Inferenzberechnungen per NNP-I unterstützen.

Intel kündigte außerdem seine neue DevCloud for the Edge an, die zusammen mit dem Distribution des OpenVINO-Toolkit ein entscheidendes Problem für Entwickler löst. Sie können ihre AI-Lösungen auf einer breiten Palette von Intel-Prozessoren ausprobieren, testen sowie prototypisieren, bevor sie die Hardware kaufen müssen.