Künstliche Intelligenz

KI erfordert spezielle Systeme – aber welche?

11.03.2022
Anzeige  Klassische IT-Performance-Daten sind nicht mehr für die Auswahl eines KI-Systems geeignet. Doch ein neuer Benchmark ermöglicht endlich objektive Systemvergleiche.
KI ist eine Schlüsseltechnologie, doch die Nutzung ist bislang bescheiden, was auch an den speziellen Technologieanforderungen liegt.
KI ist eine Schlüsseltechnologie, doch die Nutzung ist bislang bescheiden, was auch an den speziellen Technologieanforderungen liegt.
Foto: Peshkova - shutterstock.com

Laut einer Bitkom-Untersuchung gilt KI als eine richtungsweisende Zukunftstechnologie. Doch die tatsächliche Nutzung von KI-Technologien geht nur langsam voran. "Nur acht Prozent der deutschen Unternehmen haben im vorigen Jahr in KI investiert und nur magere vier Prozent setzen KI produktiv ein", heißt es in einer Studie von PwC.

Die Ursachen dafür sind vielfältig. Sie reichen von Knowhow-Defiziten über Akzeptanzprobleme bis hin zu intransparenten Technologie-Angeboten, denn eines ist den meisten IT-Entscheidern inzwischen klar geworden: Standard-Systeme sind für das rechenintensive Machine-Learning (ML) und Deep-Learning (DL) ungeeignet. Andererseits sind es gerade die ML/DL-Anwendungen, die den größten KI-Nutzen generieren.

Beispiele dafür sind:

  • Betrugsanalysen und automatisierte Handelssysteme für die Finanzdienstleister.

  • Online-Personalisierung im Einzelhandel und Produktempfehlungen.

  • Überwachungssysteme für die physische Unternehmens-Sicherheit.

  • Geologische Analysen zur Exploration von Gas- und Erdöllagerstätten.

  • Aufspüren von Traffic-Anomalien zur Verbesserung der Cybersicherheit.

  • Automatisierung des IT-Betriebs (AIOps).

Machine Learning: Bildverarbeitung als Vorbild

ML-Algorithmen arbeiten eine große Anzahl von Matrix-Multiplikationen und Akkumulations-Gleitkommaoperationen parallel ab. Insofern ähneln sie den bekannten Bildverarbeitungsfunktionen, wie Pixelschattierung und Raytracing. Folglich eignen sich Grafikprozessoren (GPUs) auch besser für ML als Standard-CPUs (Central Processing Units). Die ersten ML-Lösungen basierten auch auf handelsüblichen GPUs, doch inzwischen gibt es neue GPUs die speziell auf ML-Workloads zugeschnitten sind.

Aber nicht nur die GPU ist wichtig, viel entscheidender ist das optimale Zusammenspiel aller Hard- und Softwarekomponenten, wie dies mit modernen dedizierten Servern bereits angeboten wird. Diese Systemspezialisierung hat aber leider dazu geführt, dass die jeweiligen Leistungsunterschiede nicht mehr mit den technischen Basisdaten erklärt werden können. Nötig sind stattdessen Benchmarks, bei denen für genau definierte Referenzmodelle die jeweiligen Performance-Werte ermittelt werden. Das bietet dann die zur Beschaffung wichtige objektive Vergleichsmöglichkeit einzelner Systeme.

MLPerf: Vergleichsmodelle statt theoretischer Daten

MLPerf ist ein solcher Benchmark, bei dem die Performance von alltäglichen ML-Problemen objektiv gemessen und verglichen wird. Der Test wurde von MLCommons entwickelt, einem Konsortium, das 2018 von 50 führenden KI-Unternehmen und -Organisationen gegründet wurde. Zu ihnen gehören unter anderen Google, Nvidia und der chinesische Hightech-Anbieter Inspur.

Der Benchmark wird viermal im Jahr durchgeführt. An jedem Test beteiligen sich immer mehr führende KI-Unternehmen. Neben Inspur gehören dazu auch Nvidia, Intel, Qualcomm, Alibaba, Dell und HPE. Im vorigen Jahr wurden die Tests Inference 1.0, Training 1.0, Inference 1.1 und Training 1.1 durchgeführt. Beispielsweise nahmen am jüngsten Test im vorigen Jahr 14 Organisationen teil, die 186 Ergebnisse einreichten. Das Training bestand aus acht praxisnahen Aufgaben: Bildklassifizierung (Computer-Vision), einfache Objekterkennung (Gesichter, Gebäude), schwierige Objekterkennung (dominierende Objekte herausfiltern und maskieren), Bildsegmentierung in der Medizin (3D-Objekte), Spracherkennung (ASR), Verarbeitung natürlicher Sprache (NLP), Empfehlungen (Kauf, Kontakte) und Lernunterstützung (Strategiespiel GO).

Organisatorisch ist MLPerf eine offene Community, deren Ziel es ist, die Entwicklung von KI-Technologien kontinuierlich weiter voranzureiben - ähnlich wie bei der Open Source Gemeinde.

Mit zwei Inspur-Servern an die Spitze

Der jüngste MLPerf-Vergleichstest fand Ende des vorigen Jahres statt. Dabei hat Inspur bei sieben der acht Prüfungen als Bester abgeschnitten. Zum Einsatz kamen zwei besonders für KI optimierte Server. So war das Modell NF5688M6 der Spitzenreiter bei den Kategorien natürlicher Sprachverarbeitung, schwieriger Objekterkennung, Empfehlungen und Segmentierung medizinischer Bilder. Das Server-Modell NF5488A5 war der Top-Performer bei der Bildklassifizierung, der einfachen Objekterkennung und der Spracherkennung. Wesentlichen Anteil daran hatte auch Inspurs Full-Stack-Konzept, das eine deutlich höhere KI-Trainingsgeschwindigkeit erlaubt. Damit können Inspurs KI-Server bis zu 27.400 Bilder pro Sekunde verarbeiten.

Die schnellsten Komponenten optimal integriert

Systemseitig ist die herausragende Leistung der Inspur-Server auf die enge Integration von Hardware-, Software- und System-Level-Technologien zurückzuführen. Beispielsweise ermöglicht das PCIe Retimer Free Design eine Hochgeschwindigkeitsverbindung zwischen CPU und GPU und bietet so eine engpassfreie IO-Übertragung beim KI-Training. Der NF5488A5 ist einer der ersten Server mit Nvidias A100-GPU. Er ist mit 8x 3rd Gen NVlink A100 GPUs und 2 AMD Milan CPUs ausgestattet und erlaubt sowohl Flüssigkeits- als auch Luftkühlung. Der NF5688M6 ist ein KI-Server, der für große Rechenzentren mit extremer Skalierbarkeit optimiert ist. Er unterstützt acht A100-GPUs, zwei Intel Ice Lake CPUs und bis zu 13 PCIe Gen4 IO-Erweiterungskarten.

Fazit: MLPerf hat sich etabliert

Nach über dreijähriger Entwicklungszeit hat sich der MLPerf-Benchmark zu einem ausgereiften Standard für die Leistungsbewertung verschiedener KI-Rechenplattformen in realen Szenarien etabliert.

Der Benchmark bietet eine transparente, wiederholbare und effektive Möglichkeit, die KI-Leistung von realen, praxisnahen Szenarien direkt zu vergleichen. Er ist damit das beliebteste und am meisten verbreitete KI-Testszenario für alle Trainings- und Inferenzlösungen. Die KI-Anwender nutzen ihn gerne, um die verschiedenen KI-Plattformen zu bewerten und ihre Auswahl zu treffen.

Inspur hat beim jüngsten MLPerf-Training hervorragend abgeschnitten und damit die KI-Kompetenz des Unternehmens eindrucksvoll unter Beweis gestellt. Doch nicht nur bei den für MLPerf erforderlichen Referenz-Modellen ist Inspur führend. So ist KI ein fester Bestandteil des gesamten Portfolios, das aus Lösungen für die RZ-Infrastruktur, für Cloud Computing und Lösungen für die Open Compute-Architektur besteht.

Alles über die KI- und Technologieangebote von Inspur finden Sie hier