Storage Tiering

In Schichten zum optimalen Speicher

Bernd Reder ist freier Journalist mit den Schwerpunkten Netzwerke, IT und Telekommunikation in München.
Mit Automated Tiered Storage (ATS) können Unternehmen Daten je nach Nutzungsgrad auf dem passenden Speichermedium ablegen und so ihre IT optimieren.

Lange Zeit war in Unternehmen die Vorstellung verbreitet, dass Speicherplatz "nichts kostet". Gefördert wurde dieses Denken durch die Preisentwicklung bei Massenspeichern wie Festplatten, Bandlaufwerken und neuerdings Solid State Drives (SSD): Die Kapazitäten der Speichermedien stiegen, die Preise gingen nach unten. So kostet bei SATA-Harddisks der Enterprise-Klasse ein Gigabyte derzeit etwa 7 bis 10 Cent. Bei SAS-Modellen (Serial-Attached Storage) sind es rund 50 Cent, bei den preisgünstigsten Modellen zirka 12 Cent.

Doch die rapide steigenden Datenmengen in den Rechenzentren haben dazu geführt, dass "Storage" mittlerweile ein erheblicher Kostenfaktor ist. Nach Schätzungen des Marktforschungsinstituts IDC steigt das Datenvolumen in einem Rechenzentrum um 60 Prozent pro Jahr. Ein Data Center mit Storage-Systemen, auf denen heute 100 TByte Daten lagern, muss laut dieser Rechnung im Jahr 2022 Speicherkapazitäten von11 Petabyte vorhalten.

Allerdings werden nicht alle Daten im selben Maße genutzt. Nach Untersuchungen von EMC beträgt die Wahrscheinlichkeit, dass Nutzer auf Daten zugreifen, die älter als 90 Tage sind, nur 10 Prozent. Bei Informationsbeständen, die ein halbes Jahres alt sind (180 Tage), sinkt der Wert auf 1 Prozent, und nach einem Jahr erreicht er 0,01 Prozent. Deshalb bietet es sich an, ein Schichtenmodell (Storage Tiering) zu verwenden, also häufig verwendete Daten auf schnellen, dafür kostspieligeren Speichermedien wie SAS-Platten und Solid State Drives (SSDs) vorzuhalten, weniger häufig nachgefragte Informationen dagegen auf preisgünstige SATA-Festplatten, Virtual Tape Libraries (VTL) und Bandbibliotheken auszulagern.

Tiered Storage als Nachfolger von Hierarchical Storage Management

Storage Tiering ist kein brandneues Konzept. Die Grundlagen sind bereits seit mehreren Jahrzehnten bekannt und stammen aus der Mainframe-Welt. Sie wurden in Form des Hierarchical Storage Management (HSM), Information Lifecycle Management (ILM) sowie Automated Tiered Storage in den vergangenen 20 Jahren verfeinert.

Der Grundgedanke blieb derselbe: "Hot Data", also solche, die schnell bereitgestellt werden müssen, geschäftskritisch sind und auf die Anwender häufig zugreifen, werden auf schnellen Speichermedien wie SAS-RAID-Konfigurationen oder Flash-Speichern vorgehalten. Weniger wichtige Informationen ("Cold Data") lagern dagegen auf preisgünstigeren Medien wie SATA-Festplatten-Arrays oder Archivierungsmedien.

Klassisch ist ein Ansatz mit drei Ebenen (Tiers):

  • Tier 1 ("Performance Tier"): Schnelle SAS- und Fibre-Channel-RAID-Arrays oder Flash-Speicher (SSDs, Flash-basierte Cache-Speicher in Storage-Systemen oder Servern) für etwa 5 Prozent der Datenbestände,

  • Tier 2 ("Capacity Tier"): SAS-Harddisks und SATA-RAIDs mit hoher Kapazität für rund 35 Prozent der Informationen und

  • Tier 3 ("Archiving Tier"): Low-Cost-SATA-Platten für etwa 60 Prozent der Daten, dazu Bandlaufwerke und optische Speichermedien für die Archivierung.

Dieses Modell ist jedoch nach Ansicht einiger Fachleute überholt. Sie empfehlen eine feingliedrigere Struktur, die vier bis fünf Ebenen vorsieht. Die amerikanische Beratungsgesellschaft Horison Information Strategies beispielsweise, die sich auf den Bereich Storage konzentriert hat, favorisiert vier Ebenen (siehe Tabelle). Zu den drei bestehenden Tiers 1 bis 3 kommt ein Tier 0 hinzu. Seine Merkmale:

  • Er ist für extrem hohe Anforderungen in Bezug auf die I/O-Leistung (mehrere Millionen IOPS) ausgelegt. Diese treten beispielsweise im Bereich OLTP (Online Transaction Processing) auf.

  • Eine Verfügbarkeit der Daten und Systemumgebung von nahezu 100 Prozent ("Five Nines" = 99,999 %).

  • Niedrige Zugriffszeiten, bei anspruchsvollen Applikationen im Milli- oder Nanosekunden-Bereich.

  • Verarbeitung geschäftskritischer Daten, die unmittelbaren Einfluss auf den Unternehmenserfolg (Umsatz) haben.

  • Einsatz von Hochleistungs-Storage-Komponenten wie Solid State Drives (SSD) oder Systemen mit kombiniertem Festplatten- und Flash-Speicher wie etwa Netapp FAS.

Storage-Ebenen / Tiers

Ebene (Tier)

Tier 0

Tier 1

Tier 2

Tier 3

Datenbestand

1 -3 %

12 – 20 %

20 – 25 %

43 – 60 %

Speichertechnik

SSD

Fibre Channel, Hochleistungs-Disk-Arrays

Fibre Channel, Disk-Arrays mittlerer Leistungsstufe

Tape Libraries

Klassifizierung

Hohe I/O-Werte, kurze Antwortzeiten gefordert

Unternehmenskritisch, Anwendungen, die umsatzrelevant sind

Wichtige bis sensible Daten, wichtige Anwendungen

Archivdaten, wichtig für Erfüllung von Compliance-Vorgaben

TByte pro Administrator

Wenige TByte

30 TByte

30 – 100 TByte

Bis zu mehrere Petabyte

Verfügbarkeit

99,999 %

99,999 %

99,99 %

99,0 % bis 99,9 %

Akzeptable Ausfallzeit

keine

keine

Unter 5 h / Jahr

Unter 1 Tag / Jahr

I/O-Performance

Mehr als 1 Million IOPS

200.000 – 300.000 IOPS

100.000 bis 200.000 IOPS

Mäßige bis niedrige Anforderungen an I/O

Recovery Point Objective von Backup

Unter 4 h

Unter 4 h

Unter 12 h

1 Tag oder länger

Preis / GByte

Sehr hoch

hoch

mittel

niedrig

Quelle:

Horison Information Strategies