Wie sich Speicher effizient nutzen lassen

24.01.2005

Seit dem Aufkommen von Speichernetzen wollte man das Prinzip der Trennung von physikalischer und logischer Sicht auf die Geräte auf - möglichst alle - vernetzte Datensilos erweitern: Den an ein SAN angeschlossenen Servern soll nicht mehr ein Speicher dediziert zugeordnet werden. Vielmehr soll er den Speicherplatz zugewiesen bekommen, den er momentan für seine Anwendung benötigt, egal wo die Daten tatsächlich abgelegt werden.

Gelingt die Virtualisierung, ergeben sich einige Vorteile: Die Kapazitätsauslastung der Speicher, die oft nur bei 30 Prozent liegt, lässt sich mindestens verdoppeln. Zudem erfolgt die Datenmigration von einem Speicher zu einem anderen unterbrechungsfrei. In einem mehrstufigen Speicherkonzept lassen sich so Kosten sparen, wenn Daten mit steigendem Alter auf immer billigere Medien transferiert werden. Außerdem sind Backup und Restore dann ohne Belastung des LAN zu erledigen. Ein anderer Vorteil der Speichervirtualisierung kam erst in jüngster Vergangenheit zum Tragen: die Möglichkeit zur Provisionierung. Darunter versteht man die zeit- und mengenmäßige Zuweisung von Speicherplatz an einen Server oder eine Applikation.

Bald entbrannte ein Streit darüber, wo die Virtualisierungseinheit am effizientesten zu platzieren sei: eingebunden in das SAN (In-Band-Lösung) oder abgekoppelt vom eigentlichen Datenstrom (Out-of-Band). In-Band-Lösungen wie etwa die Software "SAN-Symphony" von Datacore sind einfacher zu implementieren als Out-of-Band-Konzepte, können aber im SAN zum Nadelöhr werden, da alle Speicherdaten die Virtualisierungslogik passieren müssen.

Um den potenziellen Engpass zu vermeiden tauchte bald die Idee auf, die Virtualisierungsinstanz im Speicher-Switch abzulegen (Out-of-Band). Es dauerte allerdings länger als erwartet, bis im vergangenen Jahr die ersten "intelligenten" Speicher-Switches auf den Markt kamen. Sie sollen nach dem Willen von Switch-Lieferanten wie Cisco, McData oder Brocade neben der Virtualisierungssoftware auch noch Speicherprogramme beherbergen. Von den großen Speicherlieferanten hat sich EMC für diese Art der Virtualisierung entschieden.

Die neuesten Speichergenerationen von Hitachi Data Systems und IBM folgen einem Trend: Speichergeräte enthalten immer mehr Rechenpower und Techniken wie etwa die Partitionierungsmöglichkeit. Noch einen Schritt weiter gehen Bemühungen, die modulare Speicherzellen zu Grids zusammenfassen.

Die Zukunft heißt Grid

Die autonomen Speichermodule sind mit Prozessor und Arbeitsspeicher ausgestattet und kommunizieren so mit Schwesterzellen und dem Chef im Grid, dem Scheduler. Grids erweitern also das Virtualisierungskonzept erheblich und schaffen auch bei Speicher-Management-Problemen Abhilfe: Die Interoperabilität funktioniert über Systemgrenzen hinweg, und die Skalierbarkeit ist jederzeit gegeben. (kk)