Geschwindigkeit ist nicht alles

So setzen Sie Flash Storage im Rechenzentrum richtig ein

20.07.2016
Von 
Seit April 2016 leitet Peter Wüst die Emerging Solutions and Innovation Group EMEA bei NetApp. Aufgabe der bereichsübergreifenden Abteilung ist es, die steigenden Anforderungen an das Datenmanagement im Geschäftsumfeld mit passenden Lösungen zu adressieren. Seine jetzige Rolle wurde eigens zu diesem Zweck geschaffen.

All Flash vereinfacht Workflows

Der Einsatz von Flash führt dazu, dass IT-Manager bestehende Konzepte für das Datenmanagement überprüfen sollten. Dies schließt die Frage ein, ob Backup-Kopien auf schnellem Flash-Speicher gesichert werden müssen. Das kann sinnvoll sein, wenn ein sehr schnelles Umschalten im Disaster-Recovery-Fall verlangt wird, um die Verfügbarkeit von Produktivsystemen zu sichern. In die TCO-Betrachtung einer Flash-Investition sollte daher auf jeden Fall das Gesamtkonzept von Backup und Restore inklusive einer Nutzung der Cloud für Backup-as-a-Service einfließen.

Warum Konzepte für Software-defined Storage, ein automatisiertes Backup und eine leichte Bedienbarkeit von Flash-Systemen so wichtig sind, zeigt die Entwicklung der Speicherkapazität, die pro IT-Administrator verwaltet wird. Eine Analyse von Gartner (Gartner IT Metrics 2015) hat ermittelt, wie sich die TB/FTE-Ratio (Terabyte per Full-Time Employee) in den vergangenen Jahren verändert hat: Im Jahr 2010 betreute ein Storage-Administrator im Schnitt noch 81 TByte, im Jahr 2014 bereits 299 TByte. Es ist davon auszugehen, dass dieser Wert steigt und somit die Verantwortung der IT-Mitarbeiter für die Datenverfügbarkeit zunehmen wird.

Innovationen aufnehmen

Das Wettrennen der Speichertechnologien geht weiter. So arbeiten die Festplatten-Hersteller bereits daran, die Speicherdichte zu steigern. Das Advanced Storage Technology Consortium (ASTC) sieht im Jahr 2025 erste Festplatten mit 100 TByte. Ob sich der hierfür notwendige technologische Aufwand bei den fallenden Flash-Preisen rechnet, wird sich zeigen.

Im Flash-Segment prognostiziert Toshiba SSD-Kapazitäten von bis zu 128 TByte bis etwa 2018 auf Basis von Quadruple Level Cells (QLC). Darüber hinaus arbeiten Intel und Micron an der 3D-Xpoint-Technologie: Diese soll mithilfe einer Art Phase Change Memory arbeiten und dadurch noch einmal mehr Geschwindigkeit im Vergleich zu Flash bieten und etwa ab 2017 verfügbar sein.

Fazit

Erst in Kombination mit innovativen Software-Features entwickeln Unternehmen mit der Flash-Technologie eine Infrastruktur, die flexibel skalierbar ist, höchste Performance-Anforderungen unterstützt und wirtschaftliche Vorteile bringt.

Die Integrationsfähigkeit von Flash-Storage mit vorhandenen und zukünftigen Storage-Infrastrukturen sollte höchste Priorität haben, um die laufenden IT-Kosten permanent niedrig zu halten. Gleichzeitig muss die Integration mit IT-Ressourcen aus der Cloud möglich sein, um das Hybrid-Cloud-Betreibermodell zu unterstützen.

Wer also heute ein zukunftsfähiges Datenmanagement implementieren möchte, gleicht die in diesem Beitrag aufgeführten Kriterien mit dem Storage-Lieferanten seiner Wahl ab. (hal)