Kooperation mit Nvidia

HPE entwirft integrierten KI-Stack

01.12.2023
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
Mit vorkonfigurierten Komplettsystemen aus Hardware, Software und dazu passenden Services will HPE die passende Infrastruktur für das Training und den Betrieb großer KI-Modelle liefern.
Auch für HPE-Chef Antonio Neri dreht sich derzeit alles rund um das Thema KI.
Auch für HPE-Chef Antonio Neri dreht sich derzeit alles rund um das Thema KI.
Foto: HPE

Hewlett Packard Enterprise (HPE) arbeitet an KI-nativen Hybrid-Cloud-Architekturen, mit deren Hilfe Anwenderunternehmen KI-Modelle schneller entwickeln und ausrollen können sollen. Auf seiner Kundenkonferenz HPE Discover Ende November in Barcelona kündigte der IT-Anbieter eine Reihe von speziell auf KI-Anforderungen ausgelegten Lösungen an. Diese Pakete setzen sich aus verschiedenen Software- und Infrastrukturkomponenten zusammen, die HPE zufolge den kompletten KI-Lifecycle beschleunigen sollen. Der Anbieter spricht von "Full-Stack KI-nativen Lösungen", die Einstiegsbarrieren in die KI-Welt verringern und die Betriebe in die Lage versetzen sollen, ihre KI-Modelle effizient zu trainieren und zu tunen.

"Mit dem Aufkommen von GenAI haben viele Unternehmen erkannt, dass die Daten- und Compute-Anforderungen für den effektiven Betrieb von KI-Modellen einen grundlegend anderen Technologieansatz erfordern", sagte Antonio Neri, Präsident und CEO von HPE, zum Konferenzauftakt in der katalanischen Metropole. HPE werde seine Hybrid-Cloud-, Supercomputing- und KI-Fähigkeiten so ausbauen, dass Kunden eine KI-gestützte Transformation vornehmen könnten. Die HPE-Klientel werde ihre eigenen KI-Modelle sicher auf Basis Der eigenen Daten entwickeln können, versprach Neri.

Infrastrukturen brauchen KI-Tuning

GenAI-Workloads seien extrem rechenintensiv, beschrieben die HPE-Verantwortlichen die Herausforderung. Die dahinterliegenden Systeme müssten in der Lage sein, große Mengen an Daten schnell und effizient zu verarbeiten. Es gelte daher, die bestehenden Cloud-Infrastrukturen um einen KI-Ansatz auszubauen. Das reiche von den passenden Daten-Pipelines über eine hybride Grundstruktur, um KI an verschiedenen Stellen in der eigenen IT-Landschaft betreiben zu können, bis hin zu Supercomputing-Funktionen für das Training großer Modelle. Wichtig seien ferner Management-Software für den KI-Lifecycle und ein offeneS Ökosystem, um unterschiedliche Komponenten miteinander verknüpfen zu können.

HPE stellte zusammen mit Nvidia ein vorkonfiguriertes Komplettsystem für KI-Workloads vor. Anwender könnten damit vortrainierte Basismodelle mit eigenen Daten anpassen und in Betrieb nehmen, hieß es. Dabei verbesserten sogenannte RAG-Workstreams (Retrieval-Augmented Generation) die Datenqualität und Genauigkeit der KI-Anwendung.

Das neue System basiert HPE zufolge auf einer Rack-Scale-Architektur mit dem HPE ProLiant Server DL380a, der mit NVIDIA L40S GPUs, NVIDIA BlueField-3 DPUs und der NVIDIA Spectrum-X Ethernet Networking Platform bestückt ist. Ausgelegt ist das System mit 16 HPE-Servern und 64 Nvidia-GPUs für das Feintuning eines Llama-2-Modells mit 70 Milliarden Parametern.

Integriert wurde außerdem das HPE Machine Learning Development Environment. Anwender finden hier Funktionen zum schnelleren Prototyping und Testen von KI-Modellen. Darüber hinaus hat HPE seine Ezmeral Software um GPU-fähige Funktionen erweitert, die das Bereitstellen von KI-Modellen vereinfachen und die Datenvorbereitung für KI-Anwendungen in der Hybrid Cloud beschleunigen sollen. Für mehr Speed in der Entwicklung und Bereitstellung von KI-Produktionsumgebungen soll auch die Software NVIDIA AI Enterprise sorgen. Darin enthalten sind Nvidias NeMo-Framework, sogenannte Guardrailing-Toolkits für mehr Sicherheit und Stabilität sowie Werkzeuge für die Datenkuratierung und vortrainierte Modelle, um den GenAI-Einsatz im Unternehmen zu optimieren.

Ein weiterer Bestandteil von HPEs KI-Paketen ist HPE GreenLake for File Storage. Laut Anbieter handelt es sich dabei um eine All-Flash-Plattform für unstrukturierte Daten, die sich vor Ort betreiben, aber aus der Cloud verwalten lassen soll. Das System unterstützt jetzt NVMe SSDs mit 30 Terabyte und das InfiniBand-Netz NVIDIA Quantum-2. Das erhöhe die Kapazitätsdichte und den Datendurchsatz für KI-Anwendungen um den Faktor sieben, hieß es.