Erfolgreich im Datenzeitalter - mit neuen Maßstäben bei Leistung, Flexibilität und Skalierbarkeit

Künstliche Intelligenz, Advanced Analytics, Cloud Computing und neue Storage-Technologien helfen Unternehmen bei der Problemlösung, Entscheidungsfindung und Skalierung. Erfahren Sie hier, wie Sie mit moderner, effizienter IT-Infrastruktur im Zeitalter der Daten erfolgreich sein können.

Datenanalyse und Infrastruktur

Big Data benötigt auch Big Power

24.11.2020
Dank Künstlicher Intelligenz und Big Data tritt Analytics in eine neue Phase ein, in der aussagekräftige Echtzeitanalysen und sehr genaue Prognosen möglich sind. Zugleich stellen die neuen Verfahren auch an die Hardware Ansprüche, die nur mit CPUs und Speichertechnologie einer neuen Generation erfüllt werden können.
Die Möglichkeiten von modernen, KI- und ML-basierten Analytics sind grenzenlos. Doch leider trifft das auf die zugehörige Hardware nicht immer zu.
Die Möglichkeiten von modernen, KI- und ML-basierten Analytics sind grenzenlos. Doch leider trifft das auf die zugehörige Hardware nicht immer zu.
Foto: Elnur - shutterstock.com

Unstrukturierte Daten oder Big Data sind Fluch und Segen zugleich: Aus Sicht der Businesswelt sind sie eine Schatztruhe an Erkenntnissen, aus Sicht der IT eine Riesenherausforderung. Allein das Datenvolumen zwingt die IT zu neuartigen Lösungen, die Erkenntnisgewinnung entwickelt sich zur Königsdisziplin der Datenanalyse.

Ein Ausweichen erscheint unwahrscheinlich. Big-Data-Anwendungen sind inzwischen weiter verbreitet als allgemein angenommen. Laut einer Bitkom-Umfrage setzen heute bereits 62 Prozent aller Unternehmen Big-Data-Technologien ein und sie werden durch Anwendungen wie kognitives IoT, KI-basierte Betrugserkennung und vorausschauende Wartung immer wichtiger. Kernelement all dieser Anwendungen ist wiederum die Datenanalyse, insbesondere in Kombination mit Verfahren der Künstlichen Intelligenz, da KI immer häufiger Bestandteil der Anwendungen selbst ist.

Deep Learning erobert die Businesswelt

Bei den KI-Verfahren moderner Analytik handelt es sich primär um Algorithmen für Machine Learning (ML) und Deep Learning (DL), die sich selbst entsprechend der Anforderungen und der gewonnenen Erkenntnisse modifizieren. Beim normalen Machine Learning erfolgt das Lernen hauptsächlich durch von Menschen korrigiertem Training der Software, wohingegen bei Deep Learning neuronale Netze die Software selbstständig anpassen. Bislang typische Anwendungen sind Bilderkennung, natürliche Sprachverarbeitung oder komplexe Spiele wie Schach und Go.

Künstliche Intelligenz und Edge Computing ermöglichen in Kombination Echtzeit-Datenanalysen, wie sie beispielsweise in der Qualitätssicherung bei Audi zum Einsatz kommt.
Künstliche Intelligenz und Edge Computing ermöglichen in Kombination Echtzeit-Datenanalysen, wie sie beispielsweise in der Qualitätssicherung bei Audi zum Einsatz kommt.
Foto: Jenson - shutterstock.com

Nun schickt sich Deep Learning an, auch die Businesswelt zu erobern. Experten gehen davon aus, dass spätestens im nächsten Jahr DL den Sprung in viele Business-Anwendungen schaffen wird. Begründet wird dies damit, dass die dafür erforderliche Hard- und Software bis dahin in puncto Geschwindigkeit und Genauigkeit wesentliche Fortschritte gemacht haben wird. Hinzu kommt die neue Lernmethodik der Deep-Learning-Inferenz. Hierbei werden trainierte Modelle verwendet, um die tatsächlichen Ergebnisse einer Anwendung mit hoher Genauigkeit vorauszusagen.

Durch die Kombination von Analytics durch KI können zum Beispiel Einzelhändler besser verstehen, wie sich Kunden durch Verkaufsräume bewegen, und Hersteller viel einfacher die Ursachen für Defekte in ihren Produkten erkennen. Audi beispielsweise setzt Realtime-Analytics bei Edge-Anwendungen ein, um seine Qualitätssicherung drastisch zu verbessern.

Alle Hebel in Bewegung setzen

Machine Learning und Deep Learning sind zwar die Speerspitzen der neuen Analytics-Welten, doch deren Verbreitung ist noch relativ gering. Zur Zeit gilt das Augenmerk der CIOs meist einer schrittweisen Erweiterung der vorhandenen Analytics-Anwendungen, was vor allem daran liegt, dass der effiziente und effektive Umgang mit extrem großen Datenmengen noch vielfach in den Kinderschuhen steckt.

Ein Grund dafür ist, dass die technischen Voraussetzungen häufig den neuen Aufgaben nicht gewachsen sind. Denn viele Datenmanager und Infrastruktur-Architekten haben inzwischen erleben müssen, dass die bekannten Big-Data-Plattformen wie Splunk, Cloudera, MongoDB oder Elastic herkömmliche IT-Systeme schnell an die Grenzen ihrer Leistungsfähigkeit und Skalierbarkeit bringen. Auch die erforderlichen Bare-Metal-Bereitstellungen können zu einem Management-Albtraum werden.

So setzt sich bei den IT-Experten allmählich die Erkenntnis durch, dass dem Problem nur über Maßnahmen an allen Stellhebeln beizukommen ist. Dazu gehören auch die in der Hardware verwendeten Prozessor- und Storage-Technologien. Denn die Optimierung von Datenbanken, die massiv skalierte Datenbasen verwenden, erfordert Hardware, die Datenbank- und Analyse-Workloads effektiv unterstützen kann. Sind diese Technologien richtig besetzt, können auch die vielen neuen Analysemöglichkeiten tatsächlich zeit- und kostengerecht ausgeschöpft werden.

Xeon und Optane für Power-Analytics

Zu diesen Technologien gehören beispielsweise die skalierbaren Intel Xeon Prozessoren der neuesten Generation. Sie sind speziell darauf ausgelegt, Datenbank-Workloads auszulagern und die Rechenleistung zu verbessern. Für diesen Zweck hat Intel in den letzten Jahren eine Reihe von Optimierungen auf Halbleiterebene vorgenommen. Dazu gehört zum Beispiel die Befehlssatzerweiterung AVX-512 oder VNNI, in Zukunft auch TMUL. Damit können alle gängigen Datenbanksysteme und KI-Programme deutlich beschleunigt werden.

Ideal ergänzt werden die neuen Prozessoren durch Intels persistenten Optane-Speichermodule, die den Arbeitsspeicher erweitern und damit die Verarbeitungsgeschwindigkeit drastisch erhöhen können. Diese bieten einen Leistungsschub für eine Reihe von DBMS-Plattformen und -Anwendungen und ermöglichen die Optimierung von Datenbanken im Arbeitsspeicher der Server zum Zweck von erweiterten Datenanalysen.

Und letztlich gehören dazu auch Intels Optane SSDs und Intels NVMe-SSDs. Diese bieten eine große Lese-Schreib-Lebensdauer und erlauben bei allen Datenbanken kontinuierliche Schreib- und Lese-Operationen mit einer hervorragenden Langlebigkeit pro Drive. Dadurch tragen sie dazu bei, im Rechenzentrum Engpässe bei der Datenspeicherung zu beseitigen und größere Datenmengen kostengünstiger zu bewältigen. Nicht nur Anwendungen lassen sich damit beschleunigen, sondern auch die Transaktionskosten von Tasks, bei denen die Latenz von essenzieller Bedeutung ist, deutlich senken. Ein Anwendungsgebiet hierfür sind Realtime-Analytics bei Edge-Anwendungen, wie sie in der oben erwähnten Qualitätssicherung bei Audi im Einsatz sind.