Das Data Tiering neu denken

Kapazitäts- und Performance-Engpässe im Data Center überwinden

20.09.2019
Anzeige  In Zeiten von Big Data benötigen Rechenzentren eine neue Form des Data Tiering, die Kapazitäts- und Performance-Engpässe überwindet und zugleich IT-Betriebskosten senkt. Hier empfiehlt sich der Einsatz nicht-flüchtiger Speicher – zum Beispiel eine Kombination aus Intel Optane SSD P4800X und dem Intel Optane DC Persistent Memory.
Foto: whiteMocca - shutterstock.com

In der Geschäftswelt von heute werden enorme Datenmengen verarbeitet und analysiert, und dieses Volumen wächst mit jedem Tag. Dabei handelt es sich nicht nur um strukturierte, sondern immer häufiger auch um unstrukturierte Daten wie Bilder und Videos in sozialen Medien oder Internet-of-Things (IoT)-Daten aus Sensoren von Maschinen, Anlagen und Geräten.

Daten als Grundlage für digitale Geschäftsmodelle

Diese Daten bilden die Grundlage für digitale Geschäftsmodelle und -prozesse. Sie ermöglichen beispielsweise Industrial-Internet-of-Things (IIoT)-Szenarien, bei denen Hersteller ihre Maschinen und Geräte nicht mehr verkaufen, sondern von ihren Business-to-Business (B2B)-Kunden eine Gebühr nach dem Pay-per-Use-Konzept verlangen - für die verbrauchte Luft bei einem Kompressor oder die Anzahl der Stiche bei einer Industrienähmaschine.

Im Marketing und im Vertrieb helfen Künstliche-Intelligenz (KI)-basierte Algorithmen, die Kundenansprache gezielter zu gestalten oder die Kaufwahrscheinlichkeit zu ermitteln. Neben Stamm- und historischen Kaufdaten fließen hier auch "Echtzeitdaten" wie das Verhalten im Webshop inklusive Session-IDs, Informationen aus sozialen Medien sowie Daten aus der Interaktion via Telefon, E-Mail oder Fax ein.

Die Grenzen des klassischen Data Tiering

Der Erfolg solch datengetriebener Geschäftsmodelle hängt maßgeblich davon ab, dass die Unternehmen jederzeit Zugriff auf die relevanten Daten haben und damit sofortigen Einblick in das Geschäft und die Ergebnisse. Dazu müssen IT-Systeme mit allen Prozessen und Daten rund um die Uhr zugänglich sein, für Beschäftigte genauso wie für Kunden und Partner. Gleichzeitig müssen die Informationen so intelligent gespeichert werden, dass sich selbst hohe Transaktionsvolumina pfeilschnell prozessieren lassen.

In der Regel werden daher die Daten, die am häufigsten genutzt werden, als "hot" eingestuft und in einem flüchtigen Dynamic Random Access Memory (DRAM) gespeichert. Weniger oft genutzte Daten ("warm") werden auf Solid-State-Disks (SSD) abgelegt, selten benötigte ("cold") auf HDD-Festplatten (Hard Disk Drive) beziehungsweise Bandspeichern (Tape Drives).

Neue Tiering- und Datenstrategie

Dieses klassische Data-Tiering-Konzept stößt durch die schiere Menge an Daten häufig an Grenzen. Damit es im Rechenzentrum nicht zu Kapazitäts- und Performance-Engpässen kommt, sind neue und intelligente Methoden und Konzepte in Bezug auf das Data Tiering und das Datenmanagement gefragt, die zugleich kosteneffizient sind und das IT-Budget nicht übermäßig belasten.

Hier kommen nicht-flüchtige Speicher ins Spiel, zum Beispiel das Intel Optane DC Persistent Memory (PMEM) und Intel-Optane-DC-SSDs der Produktreihe P4800X - am besten ergänzt durch die Intel-QLC-3D-NAND-SSDs der nächsten Generation. Diese Kombination ermöglicht ein Data Tiering ohne Performance- und Kapazitätsengpässe, selbst bei enorm großen Datenmengen.

Auf der untersten Ebene der Speicherpyramide bieten die QLC-3D-NAND-SSDs deutlich mehr Speicherdichte als herkömmliche Festplattensysteme, benötigen weniger Platz im Rechenzentrum und damit auch weniger Energie und Kühlung und sind äußerst langlebig. Das senkt die Betriebskosten und den Kapitalaufwand.

Dank der hohen Belastbarkeit und einer schnellen Cache- und Speichertechnik verhindern die Optane DC SSDs P4800X Datenspeicherengpässe auf SSD-Ebene und erhöhen die Arbeitsgeschwindigkeit von Storage-Clustern und Applikationen. Unabhängig vom Durchsatz sorgen geringe Latenzzeiten und eine optimal ausbalancierte Lese- und Schreib-Performance für konsistente Lese-Antwort-Zeiten, die bis zu 60-mal kürzer sein können als bei Hochleistungs-NAND-SSDs. Optane-DC-SSDs lassen sich auch in das Speichersubsystem integrieren, wo sie als DRAM erscheinen, und als Speichererweiterung nutzen. Eine Anpassung des Betriebssystems oder der Anwendungssoftware ist dafür nicht nötig.

Mehr Memory-Kapazität optimiert Data Tiering

Das Intel Optane DC Persistent Memory (PMEM) wiederum bietet eine ungleich größere System-Memory-Kapazität als ein herkömmliches DRAM, nämlich mehr als drei Terabyte pro Prozessor, und optimiert das Data Tiering. Da sich hier neben "heißen" auch "warme" Daten halten lassen, kann eine deutlich größere Datenmenge in die Nähe des

Prozessors gebracht werden. Das beschleunigt Workloads, minimiert Latenzzeiten und erhöht die Performance etwa bei Abfragen.

Da das PMEM nicht-flüchtig ist, verbleiben die Daten, anders als beim DRAM, bei einer geplanten oder ungeplanten Downtime im Memory. Sie müssen nicht aus anderen, langsameren Speichern in den Arbeitsspeicher geladen werden, das heißt, die Start- und Ladezeit einer In-Memory-Datenbankplattform wie SAP HANA reduziert sich enorm.

Wie T-Systems von Persistent Memory profitiert

Für einen Cloud-Provider wie T-Systems, der als weltweit größter SAP-Hosting-Provider mehr als 820 Terabyte an SAP-HANA-Datenbankkapazität in seinen Rechenzentren verwaltet, ist das ein kritischer Faktor. Kunden von T-Systems erwarten nämlich einen schnellen Reboot und Neustart des SAP-HANA-Datenbankmanagementsystems, vor allem wenn es sich um eine Single-Node-Instanz handelt.

Um das Datenmanagement durch schnellen Zugriff in Kombination mit dauerhafter Speicherung zu optimieren, nutzt T-Systems deshalb Optane DC PMEM im Index Server von SAP HANA neben DRAM. Durch die im Vergleich zum DRAM deutlich höhere Datenspeicherkapazität reduziert sich die Total Cost of Ownership (TCO) für den SAP-HANA-Speicher. Im Rahmen einer Systemreplikation lassen sich Daten aus dem Produktiv- und Qualitätssicherungssystem im Persistent Memory halten, und bei einem Disaster-Recovery-Szenario kann das Produktivsystem sofort aktiviert werden.

Gleichzeitig beschleunigt Optane DC PMEM die Start- und Ladezeiten nach einer Downtime drastisch, wie Benchmark-Tests von T-Systems zeigen. Eine vier Terabyte große SAP-HANA-Plattform lässt sich nun in zwölf Minuten statt wie bisher in drei Stunden starten, also 15-mal schneller. Ohne kundeneigene Tabellen aus dem SAP-HANA-Delta-Store verringert sich die Startzeit sogar um das 42-Fache - von 2,5 Stunden auf 3,6 Minuten. Doch auch die Downtime bei einem Update beziehungsweise Upgrade von SAP HANA verkürzt sich deutlich, in diesem Fall von SAP HANA 2.0 SPS 03 auf SPS 04. Auf diese Weise kann T-Systems die zugesagten Service Level Agreements (SLA) garantieren und das Vertrauen seiner Kunden rechtfertigen.

Lesen Sie hier, wie Intel-Optane-Technologien das Data Tiering revolutionieren und die Grundlage für ein performantes und flexibles hybrides Cloud Data Center schaffen.