Storage-Kosten senken

Drei Techniken für effizientere Speicher

04.05.2009 von Martin Bayer
Die IT-Budgets werden knapper, doch die Datenberge wachsen unaufhörlich an. Deshalb müssen die Anwender ihre Storage-Umgebungen auf mehr Effizienz trimmen.

Die Verantwortlichen für die Speicherlandschaften in den Unternehmen stecken in einem Dilemma: Angesichts der Finanzkrise streicht das Management vielerorts die IT-Budgets zusammen. Gleichzeitig werden die Storage-Aufgaben nicht leichter. Nach wie vor wachsen die Datenberge, die abgelegt und verwaltet werden wollen. Um aus dieser Zwickmühle herauszukommen, sind die Unternehmen gezwungen, ihre Speicherumgebungen zu optimieren und effizienter zu machen. Die Anbieter versprechen ihren Kunden mit einer Vielzahl neuer Techniken Hilfe bei diesen Hausaufgaben.

1. Deduplizierung spart Speicherplatz

Unter Deduplizierung fasst man Techniken zusammen, die Anwender unterstützen sollen, Datenredundanzen zu erkennen und zu beseitigen. Ziel ist, das Volumen der zu speichernden Daten zu reduzieren und damit Speicherplatz auf den Storage-Systemen einzusparen. Außerdem soll die Netzauslastung sinken. Mit Hilfe von De-Duplication-Funktionen werden mehrfach vorhandene Datenbestände nur ein einziges Mal abgespeichert. Die Tools ersetzen redundant abgelegte Informationen durch Platzhalter, so genannte Pointer, die auf den Speicherort der Originaldatei verweisen.

Redundante Daten lassen sich auf verschiedene Art und Weise erkennen. Content-Adressed-Storage-Systeme (CAS), die es schon seit einigen Jahren gibt, identifizieren Daten nach dem Inhalt der Information und nicht nach ihrer Lage auf dem physischen Medium. Damit ist gewährleistet, dass identische Datensätze nicht mehrmals auf dem Speichermedium abgelegt werden.

Moderne Deduplizierungs-Techniken gehen noch einen Schritt weiter:

Deduplizierung sorgt dafür, dass identische Daten nur einmal abgespeichert werden. Das spart Platz in den Storage-Systemen.

Ein Beispiel: Ändert sich in einer Powerpoint-Präsentation eine Folie, würde ein dateibasierendes Deduplizierungs-Werkzeug zwei verschiedene Versionen dieser Datei ablegen. Ein Tool, das die Informationen granularer zerlegt, würde erkennen, dass sich nur ein Teil verändert hat, und entsprechend auch nur die beiden Versionen dieser einen Folie abspeichern. Alle anderen Folien der Powerpoint-Präsentationen blieben unverändert ein einziges Mal auf dem Speichermedium abgelegt. Mit Hilfe der De-Duplication-Technik auf Byte-Ebene lassen sich also deutlich mehr redundant vorliegende Informationen erkennen und verhindern. Die Einspareffekte, was den benötigten Speicherplatz betrifft, sind damit wesentlich größer.

Neben der Art und Weise, wie die zu speichernde Information zerlegt wird, unterscheiden sich auch die Methoden, an welcher Stelle im Datenverarbeitungsprozess die Deduplizierung stattfindet:

Laut EMC-Manager Mika Kotro steht Deduplizierungs erst am Anfang. Aktuell werde die Technik nur im Backup-Umfeld eingesetzt.

Die Hersteller sehen in der Deduplizierung großes Potenzial für mehr Speichereffizienz, räumen im gleichen Atemzug aber auch ein, dass noch etliche Hausaufgaben zu erledigen sind. "Das Thema Deduplizierung steht erst am Anfang", sagt Mika Kotro, Product Marketing Manager von EMC. Aktuell werde die Technik nur im Backup-Umfeld eingesetzt. Um alle Möglichkeiten auszureizen, Speicherressourcen einzusparen, müssten Unternehmen neben den Backups auch ihre primären und sekundären Daten dedupliziert vorhalten können, ergänzt Peter Wüst, Director Systems Engineering von Netapp. Erst dann sei Deduplizierung optimal umgesetzt.

Aus Sicht von Ralf Colbus, Storage-Spezialist von IBM, kämpft die Technik derzeit noch mit Performance-Problemen. Die Systeme müssten in der Lage sein, verloren gegangene Daten schnell wiederherzustellen. Darüber hinaus dürften im Produktivbereich De-Duplication-Tools zu keinen Leistungseinbußen führen. Aus diesem Grund gebe es noch keine Deduplizierungs-Lösungen für das Highend, sagt Markus Schneider, zuständig für das Product Marketing der Speicherlösungen von Fujitsu Technology Solutions. Hier beständen noch Probleme in Sachen Skalierbarkeit und Geschwindigkeit.

2. Thin Provisioning lastet Speicher besser aus

Mit Hilfe von Thin Provisioning sollen Anwender die Kapazität ihrer Speichersysteme effizienter auslasten können. Nicht nur Speichersysteme, auch Energie und Stellfläche ließen sich einsparen.

Richten Storage-Administratoren Speicherressourcen auf klassische Weise ein, werden oft große Teile der vorhandenen Kapazitäten verschwendet. Im Zuge eines solchen "Hard Provisioning", das auch als "Fat Provisioning" oder "Exact Provisioning" bezeichnet wird, weisen die Speicherverantwortlichen Anwendern oder Anwendungen dediziert bestimmte Ressourcen zu. Mit diesem Vorgang - dedicate on allocation - ist die so zugeteilte Speicherkapazität fest geblockt und steht anderen Anwendern oder Anwendungen nicht zur Verfügung. Darüber hinaus lässt sich der allokierte Speicher nur aufwändig modifizieren. Wird mehr Storage benötigt, müssen alle Daten zunächst auf ein anderes Medium übertragen, die entsprechende Logical Unit Number (LUN) gelöscht und neu eingerichtet werden. Um dafür gewappnet zu sein und aufwändigen Storage-Modifikationen zu entgehen, bemessen die Administratoren den Speicher meist sehr großzügig. Die Folge:

Diese Verschwendung soll sich durch Thin Provisioning verhindern lassen. Dabei wird der Anwendung mehr Speicher vorgegaukelt, als das System in Wirklichkeit dafür reserviert hat. Der Platz wird aber erst dann tatsächlich belegt, wenn die Anwendung Daten auf das Medium schreibt. Benötigt diese mehr Speicher, bedient sich das System automatisch aus einem freien Speicher-Pool und weist mehr Kapazitäten zu. Wann dies passieren soll, kann der Administrator über einen bestimmten Schwellenwert festlegen. Darüber hinaus müssen sich die Verantwortlichen nicht mehr um den Speicherbedarf einzelner Anwender und Anwendungen kümmern, sondern nur noch die Gesamtkapazität des Systems im Auge behalten. Erst wenn der freie Speicherplatz unter einen bestimmten Pegel zusammenschmilzt, gilt es zusätzliche Ressourcen einzukaufen. Das Speichersystem schlägt automatisch Alarm, wenn dies der Fall ist, und benachrichtigt die Verantwortlichen.

Damit erleichtert Thin Provisioning die Administration der Storage-Umgebungen: zum einen durch die automatisierte Speicherzuteilung, zum zweiten dadurch, dass von Haus aus weniger Kapazitäten benötigt werden. Letzteres hat außerdem zur Folge, dass der Energiebedarf sinkt und die Unternehmen weniger Stellplatz in ihren Rechenzentren benötigen. Darüber hinaus sparen die IT-Verantwortlichen beim Einkauf, da sie keinen Speicher mehr auf Vorrat einzukaufen brauchen, sondern erst dann Ressourcen beschaffen müssen, wenn diese wirklich benötigt werden. Gerade angesichts der drastisch fallenden Preise für Harddisks kann dieser Faktor das Budget deutlich entlasten.

Markus Schneider, FTS: "Thin Provisioning kommt zunehmend auch auf mittelgroßen und kleineren Storage-Systemen zum Einsatz."
Foto: Fujitsu

Den Speicherexperten zufolge eignet sich Thin Provisioning allerdings nicht für jedes Unternehmen. "Je kleiner der Gesamtspeicherplatz ist und je weniger Systeme angeschlossen werden, umso weniger sinnvoll ist Thin Provisioning", sagt EMC-Manager Kotro. Zwar gebe es einen Trend, dass Thin Provisioning zunehmend auch auf kleineren Systemen eingesetzt werde, ergänzt Schneider von Fujitsu. Der Nutzen der Methode sei allerdings umso größer, je mehr Applikationen und Server auf ein Storage-System konsolidiert sind, bestätigt er seinen Kollegen von EMC. Dagegen rechnet Netapp-Manager Wüst damit, dass sich Thin Provisioning auf lange Sicht auch in den Midrange- und Einstiegsspeichern durchsetzen wird.

3. Virtualisierung vereinfacht Speicherverwaltung

Was mit Thin Provisioning auf einzelnen Storage-Systemen beginnt, geht mit der Virtualisierung ganzer Speichernetze weiter. Mit Hilfe entsprechender Techniken lassen sich die in einem Storage Area Network (SAN) organisierten Speicherressourcen effizienter auslasten und virtuelle Kapazitäten flexibel verschiedenen Servern zuweisen. Administratoren können im laufenden Betrieb die Größe von LUNs verändern beziehungsweise diese zwischen verschiedenen Speichersystemen migrieren. Damit lassen sich so genannte Tiered-Storage-Architekturen aufbauen, in denen die Daten je nach Anforderung auf dem entsprechenden Speichertyp abgelegt werden können: Informationen, auf die schnell und oft zugegriffen wird, lassen sich zum Beispiel auf schnellen Solid State Drives platzieren, während Daten, die nur gelegentlich aufgerufen werden ihren Platz auf herkömmlichen SATA-Festplatten finden. Moderne Management-Konsolen sind mittlerweile sogar in der Lage, diesen Prozess automatisch abzuwickeln, auf Grundlage zuvor vom Administrator festgelegter Richtwerte, was beispielsweise Zugriffszahlen anbelangt.

Darüber hinaus bieten virtualisierte Speichernetze eine Reihe weiterer Vorteile: Die IT-Verantwortlichen können Disk Arrays verschiedener Hersteller in einem gemeinsamen Speicher-Pool zusammenfassen. Im SAN verwendete Techniken und Protokolle wie Fibre Channel (FC) und Internet SCSI over IP (iSCSI) spielen für die Virtualisierungsschicht keine Rolle. Es sind also in aller Regel keine aufwändigen Vorarbeiten und Modifikationen nötig, um das Speichernetz zu virtualisieren. Funktionen wie Snapshots, Spiegelungen, Replikation und Backups, die zuvor dediziert bestimmten Maschinen zugeordnet waren, lassen sich in einer virtualisierten Umgebung flexibel verteilen.

Je nachdem, wo die Instanz sitzt, gibt es unterschiedliche Ansätze, das SAN zu virtualisieren: Host-, Storage-, Switch- oder Netz-basierend.

Neben diesen Ansätzen, die auf bereits vorhandener Infrastruktur aufsetzen, gibt es dedizierte Virtualisierungs-Appliances, die sich in das Netz einklinken lassen. Dabei unterscheidet man zwischen Geräten, die direkt im Datenstrom zwischen Server und Speicher hängen (In-Band oder symmetrisch), und Appliances außerhalb des Datenpfads (Out-of-Band oder asymmetrisch).

Anwenderunternehmen virtualisieren neben ihren Primärspeichern mittlerweile auch ihre Bandbibliotheken. Virtual Tape Libraries (VTLs) emulieren mit Hilfe einer speziellen Software ein Bandlaufwerk, sitzen in Wirklichkeit jedoch auf herkömmlichen Disk Arrays. Der Vorteil: Backup-Daten lassen sich so schneller ablegen, weil sie zuerst auf einer Festplatte fixiert und erst dann in einem zweiten Schritt im Hintergrund auf eine Bandbibliothek geschrieben werden. Gerade wenn das Backup-Fenster zeitlich begrenzt ist, empfiehlt sich diese Methode. Mit der Emulation müssen die Administratoren zudem ihren Backup-Prozess nicht modifizieren, da die VTL den Servern wie gewohnt ein Bandlaufwerk zum Sichern der Daten vorspielt.

Angesichts der um sich greifenden Virtualisierung scheint es nur noch eine Frage der Zeit, bis die gesamte Storage-Infrastruktur unter einer gemeinsamen Management-Schicht verschwindet. Speicherfunktionen würden dann weitgehend automatisiert abgewickelt, der Verwaltungsaufwand deutlich reduziert. Bislang fehlen jedoch die notwendigen Standards, um den Traum von einer Unified Storage Architecture wahr werden zu lassen.

Storage-Systeme mit eingebauter Effizienz

Viele Hersteller haben auf veränderte Storage-Anforderungen reagiert und bieten Geräte mit vorintegrierten Techniken an, die die Effizienz des Speichers verbessern sollen: