Vielfältige Virtualisierung

Storage-Virtualisierung macht die IT effizienter

08.03.2010 von Ariane Rüdiger
Noch vor zwei Jahren beäugten Anwender die systemübergreifende Virtualisierung von Speichergeräten kritisch. Jetzt steht das Konzept vor dem Durchbruch.

Virtualisierung entwickelt sich zum neuen Paradigma der IT-Welt. Das gilt auch für Speicher. Schließlich wächst der Datenberg unaufhörlich. Laut IDC müssen 2010 in Deutschland allein etwa 70 Exabyte (1 EB = 1 Million Terabyte/TB) gespeichert werden. Angesichts der spärlichen Auslastungsgrade von Storage-Systemen - üblich sind Werte zwischen 20 und 40 Prozent - bleibt für die Storage-Virtualisierung viel zu tun. Sie trennt die Hardware durch eine zusätzliche Softwareschicht von den zugreifenden Systemen und Anwendungen, so dass beispielsweise die Erweiterung eines logischen Speicherbereichs (LUN = Logical Unit Number) oder die Migration von Daten von einem System auf ein anderes keine physikalischen Eingriffe mehr erfordern und die Auslastung steigt. Die meisten neueren Geräte der Profiklasse lassen sich wenigstens innerhalb der Box virtualisieren.

Komplizierter wird es, wenn mehrere unterschiedliche Speichersysteme zu einer virtualisierten Storage-Umgebung verschmolzen werden sollen. Doch das Vertrauen in die Technologie wächst: "Heute virtualisieren manche Kunden tatsächlich über Systemgrenzen hinweg", berichtet Siegfried Betke, Director Central Europe beim Virtualisierungsspezialisten Datacore. Das liegt an der voranschreitenden Standardisierung und daran, dass Virtualisierungslösungen immer leistungsfähiger werden.

Appliances, Controller oder Server für die Speichervirtualisierung haben zum Beispiel große Caches und leistungsfähige Prozessoren. Das beschleunigt Datenzugriffe und Migrationen beim Systemwechsel oder bei der Datenverlagerung in mehrschichtigen Speicherumgebungen (Tiered Storage). Letztere ist noch immer die wichtigste Anwendung der Technologie. Datacores Produkte SAN Symphony und SAN Melody unterstützen beispielsweise 1 TB Cache. Die Enterprise-Lösung SAN Symphony gibt es ab Frühjahr 2010 auch für 64-Bit-Systeme.

Nach wie vor umstritten ist die Frage, wo die systemübergreifende Virtualisierung stattfinden soll: Virtualisiert man direkt im Datenpfad, braucht man keine Agenten auf den Systemen, es besteht aber ein Engpassrisiko, weil Daten und Steuerinformationen die Virtualisierung passieren müssen. Virtualisiert man außerhalb des Datenpfades, brauchen die Systeme Agenten, und der Engpass ist jetzt die Appliance. Dazwischen liegen die Split-Path-Lösungen, die nur die Steuerinformationen durch das Virtualisierungssystem laufen lassen, die Daten aber an diesem vorbeischicken. Das verringert das Engpassrisiko.

Motor Cloud Computing

Die heiße Debatte um Cloud-Konzepte wirkt auch auf den Storage-Markt stimulierend. Denn ohne virtualisierte Speicherumgebungen sind Clouds kaum denkbar. So umfasst VMwares Konzept vCloud selbstverständlich auch Schnittstellen zur virtualisierten Speicherwelt (vStorage), über die Speichersysteme in das Rechenzentrums-Management einbezogen werden sollen. Auch die Server-Virtualisierung selbst bedeutet, dass Speicher zu einem gewissen Grad virtualisiert werden sollten. So können mit VMFS (Virtual Machine File System) von VMware mehrere virtuelle Maschinen synchronisiert auf eine LUN zugreifen. Früher war das unmöglich: Ein logischer Speicherbereich und der Server waren gewissermaßen eine Einheit. Microsoft musste nachziehen und hat CSV (Cluster Shared Volume) entwickelt, das ebenfalls den synchronisierten Zugriff von bis zu 16 Maschinen auf eine LUN ermöglicht. Während es sich bei VMFS um ein eigenständiges Filesystem handelt, nutzt CSV Microsofts NTFS als Basis.

Insgesamt geht der Trend dahin, die Speichervirtualisierung enger mit höherwertigen Funktionen wie etwa Archivierung oder dem gesamten Speicher-Management zu verzahnen. Denn noch immer gilt, dass Speicher-Management zu viele Ressourcen verschlingt.

Ein Beispiel für diesen Trend ist EMC FAST (Fully Automated Storage Tiering). Die kürzlich angekündigte Lösung soll sämtliche Datenbewegungen in einem Speichersystem aus mehreren Hardwareeinheiten in internen und externen Clouds automatisieren. FAST bündelt Funktionen, die ohne die Basisfunktion Virtualisierung schlicht undenkbar sind. Dazu gehören das Tiering unterhalb der LUN-Ebene, die bedarfsgemäße Kapazitätsbereitstellung, die Zusammenfassung von Speicherkapazitäten und vieles mehr. "Mit FAST definiert man zum Beispiel LUN-Gruppen mit gleichen Eigenschaften und legt fest, wie viel Prozent der Daten auf welche Speicherschichten wandern sollen. Dadurch landen wesentlich weniger Daten auf teuren Speicherklassen", erklärt Mark Phillip Cost, Business Manager Storage bei EMC und verantwortlich für die Allianz mit Cisco und VMware. EMC behauptet, durch den Einsatz der Lösung ließen sich 40 Prozent Betriebskosten sparen. Für seinen Content-Store Centera stellte EMC jüngst eine Lösung vor, die mehrere dieser Geräte logisch zu einem hochskalierbaren und revisionssicheren Archiv verbindet. Im Highend bietet EMC Symmetrix V-Max an, eine bis 2 Petabyte (PB) skalierbare Plattform, die auch Fujitsu vermarktet.

Trend zur Mini-Cloud

Außerdem brachte EMC im Herbst 2009 gemeinsam mit Cisco und VMware so genannte vBlocks auf den Markt. Das sind Komplettsysteme (Server, Netzwerk, Storage, Management), die zumindest intern vollständig integriert und virtualisiert sind und sich damit sozusagen als Mini-Cloud eignen. Der Herstellerallianz liegt wohl auch die Einsicht Ciscos zugrunde, dass man einen engen Partner im Speichergeschäft und nicht nur virtualisierungsfähige Switches und Server braucht.

Bereits im Frühjahr 2009 war Hewlett-Packard mit Matrix vorgeprescht, einer voll integrierten Lösung mit verschiedenen Storage-Optionen. Anwender können unter anderem Shared Storage auf Basis der Lefthand-Technologie (siehe unten) direkt ins System einbinden. Den Bereich systemübergreifende blockbasierende Storage-Virtualisierung sieht Ingo Kraft, Business Manager Storage bei HP, allerdings eher kritisch. "Es gab früher einige Ansätze, die nicht mehr auf dem Markt sind. Das Problem waren nicht abgestimmte Protokolle der Einzelsysteme und der Service." HP verwendet für die Virtualisierung heterogener Speicher-Systemwelten SVSP (Storage Virtual Service Platform), eine Modifikation der LSI Storage Virtualization Platform. Hierbei handelt es sich um eine netzbasierende Split-Path-Lösung. Das heißt, die Virtualisierung findet zwar auf Netzebene statt, befindet sich aber nur teilweise im Datenpfad.

In puncto hochskalierbare Speichersysteme hat HP sich durch den Spezialisten Lefthand verstärkt. In dessen Umgebungen werden alle Storage-Arrays logisch wie eine einzige Ressource behandelt. Die Speicherumgebung lässt sich infolgedessen gut erweitern. Die iSCSI-basierende Lefthand-Lösung, eigentlich eher für den Mittelstand gedacht, "wird durchaus auch von Großkunden in umfangreichen Verbünden verwendet", sagt Kraft.

Netapp kungelt mit Microsoft

EMC-Rivale Netapp will der EMC/Cisco/VMware-Initiative über eine Dreijahresallianz mit Microsoft Paroli bieten. Im Mittelpunkt stehen die Themen Virtualisierung und Storage-Management. Die hauseigenen Virtualisierungslösungen basieren auf dem Betriebssystem "Data Ontap". Es ist auch in die Gateways der V-Series integriert, an die sich Arrays der Anbieter EMC, Sun und HP anschließen lassen. Auf ihnen kann der Administrator nun beliebig virtuelle LUNs definieren, die Systemgrenzen auch überschreiten dürfen. Netapp verspricht Kunden, die auch ihre Server virtualisieren und die vorgeschlagenen Best Practises einhalten, dass sie 35 Prozent Speicher einsparen können. Wenn nicht, kauft Netapp und nicht der Kunde die zusätzliche Kapazität ein.

Trotzdem scheint das Produkt in Deutschland nicht so recht zu überzeugen. "Wir verkaufen V-Series viel in den USA. In Deutschland wollen die Kunden lieber nur einen Ansprechpartner für den Service", sagt Peter Wüst, Director System Engineering bei Netapp. Kombiniert mit Windows Server 2008 R2, Microsoft Hyper-V und Microsoft System Center soll die Lösung nun sogar die Hälfte der Speicherkapazität einsparen können - allerdings ohne Garantie.

Virtualisierung im Netz?

Ciscos kleinerer Rivale Brocade, der die Speichervirtualisierung naturgemäß wie Cisco am liebsten im Switch implementiert sehen möchte, hat zwei Virtualisierungslösungen anzubieten, die mit Speicherarchitekturen zusammenhängen: zum einen das vor rund zwei Jahren vorgestellte Konzept der Data Center Fabric, umgesetzt in dem Data Center Switch "DCX", der auch als Virtualisierungszentrale für die angeschlossenen Speichersysteme dient, zum anderen seine File-Virtualisierung "Storage X" für Microsoft-Umgebungen. Letztere fasst alle unter Microsoft verwalteten Files, unabhängig von ihrem Standort, unter einem Namenssystem zusammen. Insofern ähnelt die Lösung anderen Global-Namespace-Angeboten, greift aber im Gegensatz etwa zu Data Ontap von Netapp nicht auf die Speicherhardware selbst durch. Während sich durch Ciscos Einstieg in den Server-Markt für Brocade plötzlich neue Chancen bei Connectivity-Lösungen und damit auch für das DCF-Konzept ergeben, hört man von der File-Virtualisierungslösung wenig.

IBM ist vor der neuen Koalition ebenfalls nicht bange. Ralf Colbus, Storage Evangelist: "Wir können locker mithalten, denn wir bieten den Kunden Wahlfreiheit zwischen interner und externer Virtualisierung." Kernprodukt ist weiter der SAN Volume Controller. Das System, das inzwischen Geräte von 120 unterschiedlichen Herstellern virtualisieren kann, kommt jetzt mit On-Board-Solid-State-Speicher. "Damit schaffen wir 800.000 Ein- und Ausgabevorgänge in der Sekunde", sagt Colbus, was bedeute, dass der Controller, der im Datenpfad virtualisiert, wohl kein Engpass mehr sein könne. Dies ist bisher der wichtigste Kritikpunkt an Lösungen, die die Speichervirtualisierung unmittelbar in den Datenpfad integrieren. Außerdem hat IBM das intern voll virtualisierte und hochskalierbare System XIV im Programm, das sich für Storage-Grid-Strukturen eignet. Hinzu kommen Produkte aus der DS-Serie.

Auch Tape wird virtualisiert

Last, but not least werden auch Tape-Systeme virtualisiert. Virtuelle Tape-Libraries (VTLs) emulieren Speicherbänder mehr oder weniger perfekt, bestehen aber zumindest teilweise aus Festplatten. Eine wichtige Rolle spielt hier neben Quantums DXi-Serie auch Fujitsu mit Eternus CS, früher CentricStor. Diese VTLs bieten Tape und Disk und speichern Daten beim Backup auf das Medium, das sich je nach Art der Daten und Abfragehäufigkeit am besten eignet.

Thin Provisioning

Wer über Storage-Virtualisierung spricht, kommt um das Thema Thin Provisioning nicht herum. Dabei wird den angeschlossenen Systemen und Anwendungen logisch vorgegaukelt, sie hätten sehr viel mehr Speicher zur Verfügung, als physikalischer Speicher implementiert ist. Das spart unterm Strich Storage-Ressourcen. Denn erst wenn die vorhandenen Speichereinheiten vollaufen, werden neue Festplatten ins System eingesetzt - aber ohne Rekonfiguration der LUNs, da diese ja von Anfang an größer ausgelegt waren. Immer mehr Firmen implementieren Varianten dieses Ansatzes in ihre Speicher-Arrays. Pionier 3Par kündigte kürzlich für seine Systeme eine neue Version des Betriebssystems "InForm" an.

Bei den Neuerungen steht das Thema Automatisierung im Mittelpunkt. Der Administrator kann virtuelle Domains, also feste Gruppen virtueller LUNs, wiederum zu so genannten autonomen Gruppen zusammenfassen, die als eine logische Einheit behandelt werden. Administrationsaufgaben werden dann auf die gesamte autonome Gruppe angewendet, was Zeit spart. So werden zum Beispiel alle Domains einer autonomen Gruppe auf einen Server gesichert, ohne dass die logische Isolierung der einzelnen virtuellen Domains deswegen aufgehoben würde. Es lassen sich jederzeit Untergruppen bilden, die Teile ihrer Eigenschaften von der übergeordneten Gruppe erben. Da sich auch die Server in VMware-Umgebungen zu solchen Gruppen (Host Groups) bündeln lassen, passen die Konzepte auf der Server- und der Speicherseite nun besser zueinander. "Auf diese Weise eliminieren wir viele der zeitraubenden Wiederholungstätigkeiten bei der Speicherverwaltung in virtuellen Umgebungen", sagt Craig Nunes, Marketing-Chef von 3Par. Netapps und HPs intern virtualisierte Storage-Plattform EVA (Enterprise Virtual Array) bietet die Technologie ebenfalls.

Natürlich wirken sich Technologien wie Thin Provisioning auch auf Storage-Management-Software aus. Ein Beispiel hierfür ist Symantec. Der Hersteller präsentiert im Dezember 2009 Erweiterungen zu seinen Produkten Veritas Storage Foundation, Veritas Cluster File System und Veritas Cluster Server.

Unterstützt wird jetzt auch Thin Provisioning. Mehrschichtige Speichersysteme lassen sich damit dynamisch verwalten, was zum Beispiel Datenmigrationen beschleunigt. Eingeschlossen sind jetzt auch Solid-State-Speicher, die die Management-Software automatisch entdeckt und mit geeigneten Daten beschickt. Außerdem fordert die Software freien physischen Speicher in Systemen mit Thin Provisioning mit dem Thin Provisioning API zurück, um ihn für andere Zwecke zu nutzen. Bisher funktioniert das mit Hardware von IBM, Hitachi Data Systems und 3Par, andere Hersteller wollen ebenfalls dazustoßen. (wh)