Erfolgreich im Datenzeitalter - mit neuen Maßstäben bei Leistung, Flexibilität und Skalierbarkeit

Künstliche Intelligenz, Advanced Analytics, Cloud Computing und neue Storage-Technologien helfen Unternehmen bei der Problemlösung, Entscheidungsfindung und Skalierung. Erfahren Sie hier, wie Sie mit moderner, effizienter IT-Infrastruktur im Zeitalter der Daten erfolgreich sein können.

Infrastruktur für KI

Warum der Data-Center-Leiter wie ein KI-Entwickler denken sollte

03.09.2020
Spezielle Kriterien von KI-Entwicklern und allgemeine Anforderungen von Data-Center-Spezialisten an die IT-Infrastruktur stehen oft im Widerspruch zueinander. Beide kommen auf ihre Kosten, wenn sie gemeinsam eine leistungsfähige und variable IT-Umgebung definieren, die auf der vorhandenen Infrastruktur aufsetzt.

Digitalisierung ist für Unternehmen wichtiger denn je. Das zeigt sich vor allem in der Corona-Krise. Sie hat Unternehmen dazu gebracht, schneller als geplant Geschäftsprozesse zu digitalisieren und die Zahl ihrer digitalen Angebote zu erhöhen. Eine interessante Option im Rahmen von Digitalisierungsprojekten ist der Einsatz von KI-Anwendungen (Künstliche Intelligenz). Sie analysieren beispielsweise Bilder, Sprachdaten und Textinformationen, damit Unternehmen schneller und präziser auf Kundenanfragen reagieren können.

Ein Großteil der deutschen Unternehmen beschäftigt sich bereits mit KI- und Machine-Learning-Anwendungen.
Ein Großteil der deutschen Unternehmen beschäftigt sich bereits mit KI- und Machine-Learning-Anwendungen.
Foto: metamorworks - shutterstock.com

Daher ist wenig überraschend, dass der Studie "Machine Learning 2020" von IDG Research Services zufolge bereits rund drei Viertel der deutschen Firmen KI- und Machine-Learning-Anwendungen einsetzen oder diese zumindest testen. Eine Herausforderung sind jedoch die erhöhten Anforderungen, die KI-Lösungen an die IT-Infrastruktur stellen können.

Vor der Investition erfolgt die Bestandaufnahme

Doch bevor die IT-Abteilung Geld für schnelle, aber teure GPUs (Graphics Processing Units) ausgibt, sollte sie Alternativen prüfen. Denn zum einem steht wegen der Corona-Krise in vielen Unternehmen weniger Geld für die IT zur Verfügung. Zum anderen lassen sich vorhandene Server-Systeme mit CPUs, etwa denen der Xeon®-Reihe von Intel, variabler einsetzen als Systeme mit Grafikprozessoren, deren Domäne "nur" KI-Anwendungen sind.

Eine solche Bestandsaufnahmen sollte drei Faktoren berücksichtigen: die Flexibilität, Effizienz und Skalierbarkeit. Für eine Intel Xeon®-Plattform spricht, dass sie nicht nur klassische Geschäftsanwendungen, sondern auch Entwicklungsumgebungen und Anwendungen aus den Bereichen KI und Machine Learning unterstützt.

Effizienz im Blick behalten

Das gilt insbesondere für die Prozessoren der zweiten Generation der Reihe Xeon®. Sie sind mit Intels Deep Learning Boost-Technologie ausgestattet. Dadurch bieten sie eine bis zu 30 Mal höhere Inferenzleistung als Prozessoren anderer Anbieter.

Zusätzlich sollten IT- und Rechenzentrumsfachleute den Faktor Effizienz im Auge behalten. Zu berücksichtigen ist beispielsweise, dass sich Grafikprozessoren zwar besser für das Training von KI-Algorithmen eignen. Doch diese Phase macht nur einen Bruchteil der gesamten Entwicklungszeit einer KI-Lösung aus. Zu klären ist außerdem, wie oft ein erneutes Training der KI-Modelle erforderlich ist. Das heißt, das kostspielige GPU-Cluster wird in vielen Fällen nur zeitweilig benötigt. Das ist unter dem Aspekt Wirtschaftlichkeit nicht optimal.

Skalierbarkeit sicherstellen

Wichtig ist zudem die Skalierbarkeit. Wenn KI-Projekte mehr Rechenkapazitäten benötigen, muss "Luft nach oben" vorhanden sein. Das lässt sich erreichen, wenn ein Unternehmen Edge-Systeme (Edge Nodes) einsetzt oder Ressourcen in Cloud-Rechenzentren von Intel bucht.

Hochleistungs-Flash-Speicher der Reihe Intel Optane™ in Verbindung mit Xeon®-CPUs bildet eine leistungsfähige Basis für KI-Anwendungen.
Hochleistungs-Flash-Speicher der Reihe Intel Optane™ in Verbindung mit Xeon®-CPUs bildet eine leistungsfähige Basis für KI-Anwendungen.
Foto: Intel

Im ersten Schritt sollte ein Anwender jedoch sicherstellen, dass keine Flaschenhälse im eigenen Rechenzentrum entstehen. Eine Option ist der Einsatz von Netzwerkadaptern, die Datenraten von 10 GBit/s und mehr unterstützen. Intel stellt beispielsweise mit der Intel Ethernet 700 Series Netzwerkadapter für diese Geschwindigkeiten bereit.

Damit ein KI-System schnell und effizient arbeitet, lohnt sich außerdem ein Blick auf die verwendeten Storage-Komponenten. Ein schnelles Storage-System, das auf Intels Optane™-Technologie basiert, kann bei KI-Anwendungen Vorteile bringen. Es beschleunigt beispielsweise die Abläufe in einer KI-Pipeline: beim Einlesen, Vorbereiten, Trainieren und der Inferenz.

Prüfen: Was benötigen die KI-Fachleute eigentlich?

Doch mit dieser Bestandsaufnahme ist es nicht getan. Ebenso wichtig ist, dass die Rechenzentrums- und IT-Spezialisten verstehen, welche IT-Lösungen ihre Kollegen aus der KI-Entwicklungsabteilung benötigen. Für diese sind beispielsweise leitungsfähige KI-Frameworks und Deep-Learning-Modelle wichtig. Damit brauchbare Resultate in akzeptabler Zeit vorliegen, muss die IT-Infrastruktur außerdem so ausgelegt sein, dass sich Algorithmen mit großen Mengen von Trainingsdaten "füttern" lassen.

IT-Spezialisten wiederum müssen eine Infrastruktur bereitstellen, die eine breite Palette unterschiedlicher Anwendungen unterstützt - vom E-Mail-Server über CRM-Systeme bis zu KI-Frameworks. Das heißt, beide Welten - KI und IT - müssen einen Kompromiss finden. Data-Center-Experten sollten sich daher klar machen, welche Anforderungen beispielsweise KI-Workloads stellen:

  • Welche KI- und Machine-Learning-Modelle kommen zum Einsatz und wie umfangreich sind diese?

  • Wie groß sind die Datenmengen und die Batch-Jobs?

  • Welche maximalen Latenzzeiten verkraften die Workloads?

  • Wie viele KI-Instanzen sind parallel aktiv?

  • Mit welchen Frameworks lassen sich Workloads bei Bedarf auf mehrere Knoten verteilen, um so eine optimale Ausnutzung aller Ressourcen zu gewährleisten?

Schrittweiser Ausbau

Das heißt, IT-Fachleute sollten die IT-Umgebung so einrichten, dass sie sowohl für Standardanwendungen als auch KI-Applikationen "passt". Im ersten Schritt bietet es sich an, für erste Gehversuche mit KI die vorhandene IT-Infrastruktur zu nutzen. Dafür kommen in erster Linie Server mit Xeon®-CPUs in Betracht, eventuell solche mit der Intel Deep Learning Boost-Technologie. Kommen komplexere KI-Modelle zum Einsatz, lässt sich diese Infrastruktur schrittweise erweitern (siehe Bild 2).

Eine IT-Infrastruktur auf Basis von CPUs, Storage-Komponenten und Netzwerk-Lösungen von Intel unterstützt eine breite Palette von KI-Anwendungen.
Eine IT-Infrastruktur auf Basis von CPUs, Storage-Komponenten und Netzwerk-Lösungen von Intel unterstützt eine breite Palette von KI-Anwendungen.
Foto: Intel

Nutzt ein Anwender beispielsweise Echtzeit-KI-Anwendungen wie Sprach- und Bilderkennung, kann er die Server mit Xeon®-CPUs nachrüsten, die über mehr Rechenkerne verfügen und höher getaktet sind. Applikationen wie Empfehlungs-Engines wiederum benötigen mehr Arbeitsspeicher und Hochleistungs-SSDs. In diesem Fall haben IT-Fachleute die Option, Speicherlösungen der Intel Optane™-Reihe einzusetzen und damit die Latenzzeiten zu reduzieren.

KI-Spezialisten müssen mitspielen

Dieser evolutionäre Ansatz sollte auch von den KI-Fachleuten mitgetragen werden. Daher ist es wichtig, dass ihnen die Rechenzentrumsexperten ein Bild vom "großen Ganzen" vermitteln. In ihm sind KI und Machine Learning nur ein Puzzleteil von vielen.

Hilfreich ist, wenn den KI-Experten die gesamte KI- und Analytics-Pipeline vor Augen geführt wird. So sind Xeon®-Plattformen erforderlich, um die Daten zu erfassen und zu konsolidieren, die anschließend von KI-Frameworks genutzt werden. Gleiches gilt für die Aufbereitung und Visualisierung der Ergebnisse, die KI-Algorithmen bei ihren Analysen erzielen. Auch das übernehmen CPUs. Daher bietet es sich an, auch für klassische KI-Funktionen auf Prozessoren der Xeon®-Serie zurückzugreifen. Die Vorteile: eine geringere Komplexität der IT- und KI-Infrastruktur und eine einfachere Skalierung. Denn mit CPUs lässt sich eine solche Infrastruktur auch auf mehr als vier oder acht Knoten aufbauen. Das ist bei GPUs oft schwierig.

Hinzu kommt, dass der Anwender keine neue Hardware mit Grafikprozessen benötigt, sondern gewissermaßen sofort loslegen kann, wenn er auf Prozessoren der Xeon®-Serie zurückgreift. Diese Standard CPU-Knoten kann er zudem für andere Geschäftsbereiche nutzen, wenn auf ihnen gerade kein neues KI Modell trainiert wird.

KI-Anwendungen schweben nicht im luftleeren Raum. Ihre Grundlage bildet eine Daten-Pipeline, die maßgeblich auf Servern mit CPUs wie dem Intel Xeon® aufsetzt.
KI-Anwendungen schweben nicht im luftleeren Raum. Ihre Grundlage bildet eine Daten-Pipeline, die maßgeblich auf Servern mit CPUs wie dem Intel Xeon® aufsetzt.
Foto: Intel

Anwendungsbeispiel: KI um Contact Center

Wie sich eine IT-Infrastruktur auf Basis von Intel Xeon®-Prozessoren für KI-Anwendungen nutzen lässt, zeigt das Beispiel von KI-basierten Contact-Centern. Intels Partner Gnani.ai hat ein Konzept für solche Center entwickelt. Sie analysieren Sprachdaten und Voice-Bots in Echtzeit, um Anfragen von Kunden zu beantworten. Mithilfe solcher virtuellen, KI-basierten Sprachassistenten lassen sich die Kosten eines Contact-Centers um mehr als 75 Prozent senken.

Ein KI-basiertes Contact-Center von Gnani.ai: Intelligente Voice Bots beantworten Anfragen von Kunden und entlasten dadurch die menschlichen Mitarbeiter im Center.
Ein KI-basiertes Contact-Center von Gnani.ai: Intelligente Voice Bots beantworten Anfragen von Kunden und entlasten dadurch die menschlichen Mitarbeiter im Center.
Foto: Intel

Das Konzept von Gnani.ai beruht auf Xeon® Scalable-Prozessoren von Intel mit DL Boost-Technologie und persistentem Optane™ DC-Speicher. Hinzu kommen Software-Bibliotheken von Intel, die für KI-Anwendungen optimiert sind, etwa für die automatische Spracherkennung (ASR, Automatic Speech Recognition) und Natural Language Processing (NLP). Ein Vorteil der Lösung ist, dass sich mithilfe der Intel-Plattform die Bearbeitungszeiten bei der Spracherkennung deutlich reduzieren ließen. Dadurch können mehr KI-gestützte Contact-Center-Anwendungen gleichzeitig betrieben werden.

Auch die erweiterte Skalierbarkeit ist ein signifikanter Vorteil: Ein KI-Contact-Center von Gnani.ai lässt sich quasi überall implementieren: in einem Edge-Data-Center, in Firmenrechenzentren und in der Cloud. Mit Plattformen auf Basis der Intel Xeon® Scalable-CPUs ist das jederzeit möglich. Und exakt von dieser Variabilität und Skalierbarkeit profitieren alle: die KI-Experten, die Rechenzentrumsspezialisten und vor allem die Anwender.