Künstliche Intelligenz, Advanced Analytics, Cloud Computing und neue Storage-Technologien helfen Unternehmen bei der Problemlösung, Entscheidungsfindung und Skalierung. Erfahren Sie hier, wie Sie mit moderner, effizienter IT-Infrastruktur im Zeitalter der Daten erfolgreich sein können.

Optane als Datenspeicher-Strategie

Cold, Warm und Hot Data optimal bereitstellen

15.03.2020
Unternehmen brauchen für die aktuellen Herausforderungen eine Datenstrategie mit einem klaren Data-Tiering. Herkömmliches Tiering mit der Unterscheidung zwischen Cold und Hot Data wird KI-, Analytics- und IoT-Anforderungen nicht mehr gerecht. Die Intel Optane-Technologie bietet mit der Auflösung der Grenzen zwischen Memory und Storage völlig neue Optionen.

In der Fertigung beispielsweise müssen Maschinen in der Lage sein, Steuerbefehle sofort auszuführen. Wenn eine Maschine droht, zu überhitzen, sind Reaktionen in Mikrosekunden gefordert. Die erforderlichen Daten müssen deshalb möglichst nah am Arbeitsspeicher gehalten werden. Auch Streaming-Anwendungen - etwa in der Finanzdienstleistungsbranche - müssen Daten in einem ultraschnellen Speicher halten, der sich sehr nahe am Rechenknoten befinden sollte. Die Konzeption heutiger Speicher-Architekturen erschwert solche Anwendungen.

Eine weitere Herausforderung ist die zunehmende De-Zentralisierung der Daten: Daten werden heute immer mehr verteilt gespeichert und verarbeitet. Die für IoT-Anwendungen wie autonome Autos oder intelligente Städte notwendigen Informationen sollten direkt vor Ort verfügbar sein, weil die dort eingesetzten IoT-Devices oft sofort reagieren müssen. Würden in einem autonomen Auto in einer Gefahrensituation die Sensordaten erst in die Cloud übertragen, dort interpretiert und dann eine Anweisung zurückgeschickt werden, wäre längst ein Unfall geschehen.

Die Folge dieser Dezentralisierung: Das Rechenzentrum wird in gewissem Maße disaggregiert, und am Rande des Netzwerks tauchen rechenzentrumsähnliche Technologien auf, die alle die Erfassung, Speicherung und Analyse von Daten erfordern.

"Heiße Daten" werden im Zuge der Echtzeit-, Streaming und IoT-Anwendungen immer mehr und immer wichtiger. Wo aber sollen diese Daten vorgehalten werden?
"Heiße Daten" werden im Zuge der Echtzeit-, Streaming und IoT-Anwendungen immer mehr und immer wichtiger. Wo aber sollen diese Daten vorgehalten werden?
Foto: Ryzhi - shutterstock.com

Eine intelligente Datenstrategie ausarbeiten

Um für diese und weitere Herausforderungen der Zukunft gerüstet zu sein sollte die IT eine intelligente Datenstrategie entwickeln. Dabei sollten die Daten vor allem für die Echtzeit- und künftige Anwendungsnutzung vorpositioniert und geschichtet werden. Durch das Verständnis der Anwendungen - die oft um Analytik oder KI herum aufgebaut sind, die den Wettbewerbsvorteil vorantreiben - kann die IT eine Datenstrategie ausarbeiten, die sich direkt auf den Geschäftserfolg auswirkt.

Für eine vorausschauende Datenstrategie sollten Sie die folgenden kritischen Punkte klären:

  • Aktuelle Anforderungen an die Anwendungsdaten verstehen: Welche Beziehung besteht zwischen den Daten und den Anwendungen, die sie verwenden. Wie werden die Daten genutzt? Was sind die Anforderungen an Latenz und Verfügbarkeit? Wer braucht welchen Zugang? Welche Anwendungen sind Business-kritisch?

  • Künftige Datenanforderungen planen: Welche künftigen Anwendungen werden welche Datenanforderungen stellen - in Bezug auf Leistung, Standort oder Kosten? Wie wird sich der langfristige Geschäftsplan auf die Datenanforderungen auswirken?

  • Datenhierarchie erstellen: Anwendungen erfordern unterschiedliche Arten von Daten. Es ist wichtig, die Beziehungen zwischen den verschiedenen Datenbanken, sowohl strukturierten als auch unstrukturierten, zu verstehen. Die Modellierung der Daten liefert eine Hierarchie der Daten und bildet einen wichtigen Erfolgsfaktor für Analysestrategien.

  • Impaktoren auf Unternehmensebene: Eine Datenstrategie, die sich an den Geschäftszielen orientiert, muss Faktoren berücksichtigen, die sich sowohl auf die Speicherumgebung als auch auf die Analysestrategien auswirken. Dazu gehören Dinge wie Datenverfügbarkeit, Datenschutz, Datenaufbewahrung und die Einhaltung von Vorschriften, die das Unternehmen möglicherweise einhalten muss.

Wohin mit "Hot Data"?

Am Ende dieses Prozesses sollten Unternehmen ein Bild ihrer aktuellen und zukünftigen Datenhierarchien haben und mit dem Tiering starten können. Beim Tiering haben sich die Kategorien "cold", "warm" und "hot Data" etabliert. Auf "kalte" Daten wird fast nie zugegriffen, sie müssen aber sicher gespeichert werden. Am anderen Ende der Skala befinden sich die "heißen" Daten, auf die häufig und schnell zugegriffen werden muss.

Beim Tiering werden traditionell Daten bestimmten Medien zugeordnet - hierarchisch sortiert mit steigenden Leistungen und Kosten:

  • Das Band ist billig und sehr langsam.

  • Die Festplatten sind preiswert, aber relativ langsam

  • Solid-State-Laufwerke (SSDs) sind teurer und schneller

  • DRAM ist extrem teuer und schnell

  • Der Prozessor-Cache ist der teuerste und schnellste (aber in der Größe stark eingeschränkt).

Die selten benötigten kalten Daten werden normalerweise auf preiswertem Band oder neuerdings in der Cloud gespeichert. Häufiger verwendete warme Daten können problemlos auf Festplatte oder SSD abgelegt werden. Das zentrale Problem sind sehr warme und heiße Daten. Diese Daten werden im Zuge der eingangs erwähnten Echtzeit-, Streaming und IoT-Anwendungen immer mehr und immer wichtiger. Wo aber sollen diese Daten vorgehalten werden?

Der immense Datenumfang spricht für HDDs oder SSDs. Die herkömmliche Festplatten- und SSD-Technologie bietet umfangreichen, preiswerten und langlebigen Speicher. Doch für analytische Zwecke sind HDD und SSD zu langsam. Werden Daten zwischen dem RAM-basierten Speicher und dem plattenbasierten SSD-Speicher hin- und hergeschaufelt entsteht eine enorme Latenz.

Die Notwendigkeit für schnelle Verfügbarkeit erfordert sehr schnellen Speicher wie DRAMS oder Cache. Es sollten deshalb möglichst viele Daten näher an der CPU gehalten werden. Doch die Datenkapazität bei DRAM und im Cache ist sehr beschränkt - und teuer.

Dieses Dilemma führt zu echten Problemen für die IT - sowohl kostenmäßig als auch technisch. Hier kommt die Intel Optane-Technologie ins Spiel.

Neue Tiering-Schicht mit Optane

Intel Optane Persistent Memory durchbricht die traditionelle Memory-Storage-Hierarchie. Die neue Technologie löst mit der Kombination von schnellem DRAM mit NAND-Speicher das Problem der enormen Latenz- und Bandbreitenbelastung, wenn Daten zwischen dem RAM-basierten Speicher und dem plattenbasierten SSD-Speicher hin- und hergeschaufelt werden.

Intel Optane ist zwar nicht so schnell wie DRAM, aber schnell genug, um als erweiterter Speicherpool zu fungieren und reaktionsfähiger als selbst die leistungsstärksten NAND-SSDs. Tatsächlich ist Optane tausendfach schneller als NAND, bietet also Latenzen im Mikrosekunden-Bereich, nicht in Millisekunden. Das bedeutet, dass die Intel Optane-Technologie für viele Anwendungen die In-Memory-Leistung replizieren kann und daher eine viel bessere Hochleistungslösung für warme oder heiße Daten bietet als Festplatte und SSD - und eine viel billigere Lösung als DRAM.

Im Endeffekt wird mit Intel Optane-Technologie eine neue Tiering-Schicht geschaffen, die besonders für die Anwendungen nützlich ist, die in der heutigen Unternehmensumgebung einen Wettbewerbsvorteil darstellen: Advanced Analytics, KI, High Performance Computing und IoT-Anwendungen.