Vielfältige Virtualisierung

Storage-Virtualisierung macht die IT effizienter

08.03.2010
Von 
Ariane Rüdiger ist freie Autorin und lebt in München.
Noch vor zwei Jahren beäugten Anwender die systemübergreifende Virtualisierung von Speichergeräten kritisch. Jetzt steht das Konzept vor dem Durchbruch.

Virtualisierung entwickelt sich zum neuen Paradigma der IT-Welt. Das gilt auch für Speicher. Schließlich wächst der Datenberg unaufhörlich. Laut IDC müssen 2010 in Deutschland allein etwa 70 Exabyte (1 EB = 1 Million Terabyte/TB) gespeichert werden. Angesichts der spärlichen Auslastungsgrade von Storage-Systemen - üblich sind Werte zwischen 20 und 40 Prozent - bleibt für die Storage-Virtualisierung viel zu tun. Sie trennt die Hardware durch eine zusätzliche Softwareschicht von den zugreifenden Systemen und Anwendungen, so dass beispielsweise die Erweiterung eines logischen Speicherbereichs (LUN = Logical Unit Number) oder die Migration von Daten von einem System auf ein anderes keine physikalischen Eingriffe mehr erfordern und die Auslastung steigt. Die meisten neueren Geräte der Profiklasse lassen sich wenigstens innerhalb der Box virtualisieren.

Komplizierter wird es, wenn mehrere unterschiedliche Speichersysteme zu einer virtualisierten Storage-Umgebung verschmolzen werden sollen. Doch das Vertrauen in die Technologie wächst: "Heute virtualisieren manche Kunden tatsächlich über Systemgrenzen hinweg", berichtet Siegfried Betke, Director Central Europe beim Virtualisierungsspezialisten Datacore. Das liegt an der voranschreitenden Standardisierung und daran, dass Virtualisierungslösungen immer leistungsfähiger werden.

Appliances, Controller oder Server für die Speichervirtualisierung haben zum Beispiel große Caches und leistungsfähige Prozessoren. Das beschleunigt Datenzugriffe und Migrationen beim Systemwechsel oder bei der Datenverlagerung in mehrschichtigen Speicherumgebungen (Tiered Storage). Letztere ist noch immer die wichtigste Anwendung der Technologie. Datacores Produkte SAN Symphony und SAN Melody unterstützen beispielsweise 1 TB Cache. Die Enterprise-Lösung SAN Symphony gibt es ab Frühjahr 2010 auch für 64-Bit-Systeme.

Nach wie vor umstritten ist die Frage, wo die systemübergreifende Virtualisierung stattfinden soll: Virtualisiert man direkt im Datenpfad, braucht man keine Agenten auf den Systemen, es besteht aber ein Engpassrisiko, weil Daten und Steuerinformationen die Virtualisierung passieren müssen. Virtualisiert man außerhalb des Datenpfades, brauchen die Systeme Agenten, und der Engpass ist jetzt die Appliance. Dazwischen liegen die Split-Path-Lösungen, die nur die Steuerinformationen durch das Virtualisierungssystem laufen lassen, die Daten aber an diesem vorbeischicken. Das verringert das Engpassrisiko.