Erfolgreich im Datenzeitalter - mit neuen Maßstäben bei Leistung, Flexibilität und Skalierbarkeit

Künstliche Intelligenz, Advanced Analytics, Cloud Computing und neue Storage-Technologien helfen Unternehmen bei der Problemlösung, Entscheidungsfindung und Skalierung. Erfahren Sie hier, wie Sie mit moderner, effizienter IT-Infrastruktur im Zeitalter der Daten erfolgreich sein können.

Künstliche Intelligenz

So bereiten Sie Ihre IT auf KI-Workloads vor

19.03.2020
Wer KI-Anwendungen umsetzen möchte, sollte seine IT fit machen für die hohen Anforderungen, die KI stellt. Dabei sollte die IT-Infrastruktur für die KI-Workloads wirtschaftlich effizient optimiert werden.

Immer mehr Unternehmen erkennen das Business-Potenzial von KI. Laut der aktuellen Fraunhofer-Studie "KI in der Unternehmenspraxis" beschäftigen sich bereits 75 Prozent der befragten deutschen Unternehmen mit KI und 16 Prozent haben bereits einen praktischen KI-Workload im Einsatz. In erster Linie erwarten sich die Anwender beim KI-Einsatz eine Steigerung ihrer Produktivität.

Damit Unternehmen das Potenzial von KI nutzen können, empfiehlt sich eine KI-optimierte IT-Infrastruktur, die in der Lage ist, die rechen- und datenintensiven Workloads zu bewältigen.
Damit Unternehmen das Potenzial von KI nutzen können, empfiehlt sich eine KI-optimierte IT-Infrastruktur, die in der Lage ist, die rechen- und datenintensiven Workloads zu bewältigen.
Foto: Gorodenkoff - shutterstock.com

Eine Hürde sehen viele allerdings immer noch in der praktischen Umsetzung von KI-Projekten. Möchten Unternehmen aktuell KI-Technologie einführen, müssen sie sich prinzipiell zwischen zwei Optionen entscheiden. Sie können für ihre KI-Anwendungen Cloud-basierte Dienste in Form von AI- oder Machine-Learning-as-a-Service nutzen. Oder sie entwickeln ihre KI-Modelle im Unternehmensumfeld auf eigener Hardware.

Der Cloud-basierte Weg hat zweifellos seine Vorteile. Kosten- und Effizienzgründe können aber dafür sprechen, KI-Anwendungen im eigenen Haus zu entwickeln. Weil für KI Unmengen von Daten an die Cloud-Dienstleister übertragen werden müssen, blockieren die oft schmalen Netzwerk-Bandbreiten und hohe Latenzzeiten die Ausführungseffizienz. Dies zeigt sich schon beim Inferencing, besonders aber beim Trainieren von Modellen. Auch der Datenschutz kann eine Rolle spielen, denn viele Betriebe wollen oder dürfen die für KI-Modelle notwendigen - oft sehr sensiblen - Trainingsdaten nicht außer Haus geben.

Es spricht also einiges für eine interne Entwicklung. Damit Unternehmen in diesem Fall das Potential der KI nutzen können, empfiehlt sich eine KI-optimierte IT-Infrastruktur: Sie muss in der Lage sein, die rechen- und datenintensiven Workloads zu bewältigen, die für maschinelles Lernen und Predictive Analytics typisch sind.

Prozessoren - Generalisten oder Spezialisten?

Auf der untersten Ebene - den Prozessoren - haben sich in den letzten Jahren GPUs für das Training von KI-Modellen etabliert. GPUs waren mit entscheidend dafür verantwortlich, dass Deep Learning wirtschaftlich angewendet und die Performance gesteigert werden konnte. Trotzdem sind GPUs nicht in jedem Fall eine gute Wahl.

Wer breit einsetzbare Prozessoren sowohl für KI als auch für klassische Arbeitslasten wie relationale Datenbanken oder ERP-Systeme präferiert, fährt mit Intel Xeon Prozessoren der 2. Generation gut. Im Gegensatz zu GPUs sind sie auch für Nicht-KI-Applikationen einsetzbar. Gleichzeitig eignen sie sich aber für die KI-Entwicklung und -Feinjustierung besonders, da sich ihr Durchsatz erheblich steigern lässt. Dies erhöht die betriebliche Effizienz und senkt die Total Cost of Ownership.

Sind die Leistungsanforderungen höher, kommt die Allzweck-Hardware allerdings an ihre Grenzen. Bei sehr großen Datenmengen und anspruchsvollen Machine Learning-Verfahren können sich Trainingszeiten durchaus über mehrere Wochen hinziehen - was ein eklatanter Wettbewerbsnachteil sein kann. In diesem Fall empfehlen sich dedizierte Prozessoren, die ausschließlich auf KI-Anforderungen optimiert sind.

KI-optimierte Chips gibt es heute für verschiedene Bereiche. Sie fokussieren voll auf KI und ein Großteil dieser CPUs wurde speziell für intensives Deep-Learning-Training konzipiert. Die Prozessoren eliminieren Speicher- und Datenflussengpässe und unterstützen verteilte Lernalgorithmen sowie Systeme, mit denen sich Deep Learning einfach skalieren lässt.

Memory-Storage-Hierarchie auflösen

Eine wichtige Rolle bei Machine-Learning- und Analytics-Anwendungen spielen auch Memory und Storage. Beim Arbeitsspeicher heißt die Devise, möglichst klotzen statt kleckern - sprich: im Zweifel lieber mehr Speicher. Die Anforderungen ergeben sich vor allem aus den notwendigen Datenmengen, der Komplexität der Aufbereitung und den Anforderungen der Machine- oder Deep-Learning-Algorithmen.

Ein größeres Problem im KI- und Analytics-Umfeld ist der Storage. Herkömmliche SSD-Systeme reagieren vergleichsweise langsam auf Datenanforderungen von Prozessoren. Werden Daten zwischen dem RAM-basierten Speicher und dem plattenbasierten SSD-Speicher hin- und hergeschaufelt, entsteht eine enorme Latenz- und Bandbreitenbelastung. Um die Bereitstellung zu beschleunigen, sollten deshalb möglichst viele Daten näher an die CPUs verschoben und dort bereitgehalten werden.

Intels Optane DC Persistent Memory macht genau dies möglich und durchbricht damit die traditionelle Memory-Storage-Hierarchie. Der persistente Optane-Speicher verbindet preisgünstige, hohe Speicherkapazitäten mit nichtflüchtiger Datenspeicherung. Die Kombination der beiden Techniken ermöglicht es, Aufgaben und Dienste durch geringere Verzögerungen und höhere Leistung zu optimieren.

Schneller entwickeln mit Open Source KI-Ökosystemen

Das Thema Hardware ist aber nur ein Punkt, der die Effizienz und den Erfolg von KI-Projekten ausmacht. Eine eventuell notwendige Hardware-Aufrüstung sollte um ein KI-Ökosystem ergänzt werden. Generell bieten sich für die Entwicklung von Deep-Learning-Modellen und -Architekturen Frameworks und Tools wie TensorFlow oder Torch an. Da sie in der Regel Open Source sind, können interessierte Entwickler problemlos darauf zugreifen.

Intel hat zahlreiche Open-Source-Lösungen wie Tensorflow, Caffe oder MXNet für den Einsatz auf Intel-Hardware optimiert. KI-Entwickler können damit frei wählen, welches KI-Framework ihren Bedürfnissen am besten entspricht. Open Source Tools haben in der KI einen besonderen Nutzen, weil Entwickler weltweit den Quelltext einsehen, ändern und weiterentwickeln können. Legt man den Code offen, erhält man ohne zusätzlichen Aufwand Unterstützung für die Weiterentwicklung und fördert so die eigene Agilität. Die Eigenentwicklungszeit lässt sich drastisch reduzieren, weil zum Beispiel Fehler sofort identifiziert werden.

Eine weitere Erleichterung ist BigDL, ein von Intel entwickeltes Programmiergerüst, das das Erstellen von Deep-Learning-Anwendungen direkt auf Apache Spark- oder Hadoop-Clustern ermöglicht. Zusätzlich hat Intel eine Sammlung an Werkzeugen zusammengestellt, die bei der Realisierung leistungsfähiger Deep-Learning-Anwendungen hilft.

Um die Zeit für die KI-Entwicklung weiter zu verkürzen, hat Intel zusammen mit weiteren Partnern auch eine Suite entwickelt: die Intel Select Solutions for Artificial Intelligence. Diese Suite besteht aus aufeinander abgestimmten Software- und Hardware-Komponenten und wurde für praxisorientierte Leistungsanforderungen optimiert. Mit ihnen lässt sich die Zeit bis zur erfolgreichen KI-Implementierung erheblich verkürzen.

Lesen Sie hier, wie Sie die richtige Hardware für Ihre KI-Lösung finden.

Mehr erfahren