Ratgeber

Wie Speichersysteme und virtuelle Server zusammenspielen

02.04.2009 von Andrej Radonic
SANs existieren schon lange und werden dank iSCSi und Fibre Channel over Ethernet auch für kleinere Unternehmen erschwinglich. Eine zentrale Rolle spielen sie bei der Server-Virtualisierung, die für fortgeschrittene Funktionen einen Netzspeicher voraussetzt.

Speicherplatz kann zwar im Host-Rechner selbst lokal bereitgestellt werden, was einfach und billig zu realisieren ist, aber erhebliche Nachteile für die Virtualisierung mit sich bringt:

Über den Netzspeicher können alle virtuellen Maschinen auf Systemabbilder zugreifen und so fortgeschrittene Funktionen nutzen.

Normale Netzwerklaufwerke auf Basis von SMB/CIFS, die File-Server und NAS-Geräte (Network Attached Storage) in praktisch allen LANs zur Verfügung stellen, überwinden zwar diese Beschränkungen. Sie arbeiten jedoch auf Datei- und nicht auf Block-Ebene. Daher sind sie für die Datenübertragung übers Netz bei Performance-kritischen Anwendungen wie der Virtualisierung von Servern nur in seltenen Fällen geeignet. Dies gilt auch für das weit verbreitete Network File System (NFS), welches in virtualisierten Umgebungen meist nur für Testzwecke eingesetzt wird.

Erst mittels SAN-Technik lassen sich die zentralen Versprechen der Server-Virtualisierung wie Hochverfügbarkeit, Failover und Automatismen wie Live Migration virtueller Maschinen (VMs) von Rechner A auf Rechner B einlösen.

Was SANs für virtuelle Server leisten

In der Regel liegt eine VM als eine oder mehrere Dateien vor. Erst wenn diese in einem zentralen, für alle beteiligten Rechner erreichbaren Speicher residieren, kann eine virtuelle Maschine beispielsweise im laufenden Betrieb von einem Rechner zu einem anderen verschoben werden. Dabei wird der aktuelle Arbeitsspeicherinhalt samt IP-Adresse über das Netz verschoben - der neue Host hat dann sowohl Arbeitsspeicher als auch die Image-Datei unter seiner Kontrolle.

Virtualisierte Systeme bringen weitere besondere Anforderungen mit sich, die sich vor allem aus der Administration ergeben, und welche nur mittels SAN-Technologie umgesetzt werden können:

Mit Server-Virtualisierung und SAN-Technik wird die gesamte IT-Infrastruktur durch die weitgehende Ablösung von der zugrunde liegenden Hardware zu einem ganzen Pool von flexiblen einzelnen Ressourcen, welche sich vielfältig und einfach verwenden und manipulieren lassen. Eine konsequente Konsolidierung von Storage mittels SANs kann zudem helfen, langfristig Hardware- sowie Betriebskosten zu sparen (Energie, Kühlung).

Allerdings machen IT-Verantwortliche bislang die Erfahrung, dass SAN-Lösungen für virtualisierte Umgebungen zu einer Zunahme des benötigten Speicherplatzes führen. Während eigentlich eine Verringerung zu erwarten wäre, dürfte dieses Phänomen damit zusammenhängen, dass viel zusätzlicher Speicherplatz für Clones und Testmaschinen in Anspruch genommen wird.

Welche Komponenten werden benötigt?

Beim Einsatz von Netzspeichern werden die virtuellen Maschinen in eigenen Partitionen oder als Image-Datei in den virtuellen Festplatten gespeichert. Je nach Architektur der Umgebung wird dabei auch die Auslagerungsdatei beziehungsweise die Swap-Partition ebenfalls im SAN abgelegt. Zudem gibt es auch Konfigurationen, bei denen die Rechner vollständig ohne Platte auskommen und die Maschine samt Hypervisor ebenfalls aus dem Netzwerk startet (das ist etwa mit openQRM realisierbar). Somit reduziert sich der physische Server auf die Basishardware und kann im Notfall einfach ersetzt werden.

Für eine angemessene Infrastruktur zur Server-Virtualisierung werden in Verbindung mit einem Speichernetzwerk folgende Komponenten benötigt:

Günstige Open-Source-Alternativen

Für Storage können versierte IT-Abteilungen alternativ zu fertigen Lösungen auf Basis von Standard-Servern mithilfe von Open-Source-Produkten kostengünstige und leistungsfähige Umgebungen aufbauen. Dafür eignet sich etwa die Kombination von Linux, DRBD, OCFS2 und Logical Volume Manager (LVM) sowie Heartbeat und einem Cluster-Manager. Open Solaris in Verbindung mit ZFS stellt ebenfalls eine sehr leistungsfähige Storage-Option dar, Nexenta bietet auf Basis von ZFS eine günstige kommerzielle Lösung. 10 GB-LAN-Komponenten sind inzwischen verfügbar und werden in absehbarer Zeit für die meisten Umgebungen eine ausreichende Bandbreite zu geringen Kosten ermöglichen.

Moderne Virtualisierungslösungen wie "Citrix XenServer Enterprise" oder "VMware Infrastructure" bringen zudem umfassende Funktionen für das Kontinuitätsmanagement mit, wobei in jedem Fall ein SAN Voraussetzung ist. Aktuelle Virtualisierungssoftware unterstützt Failover und High Availibility, inklusive aussagekräftigem Monitoring und Warnmechanismen (auch per E-Mail). Effektive Backup-Lösungen inklusive Snapshotting sind ebenfalls schon mit an Bord.

Performance gewährleisten

Der Datendurchsatz ist entscheidend, damit das Gesamtsystem die nötige Geschwindigkeit beim Lesen und Schreiben von Daten liefert. Aufgrund der Weiterentwicklung der Technik trifft die pauschale Einteilung Fibre Channel = schnell und iSCSI = langsam nicht mehr zu. Letztlich entscheiden mehrere Komponenten und Faktoren über die Performance:

Für unternehmenskritische Anwendungen mit hohen Anforderungen für I/O- und Verfügbarkeit bietet Fibre Channel unter Umständen höhere Leistung. Momentan empfiehlt sich iSCSI vor allem als sinnvolle Lösung, wenn eine kostengünstige Speicherung von Datenbanksystemen sowie virtueller Maschinen im Netzwerk gefragt ist.

Dabei kann auf eine Vielzahl günstiger Standardkomponenten zurückgegriffen werden kann, um eine passende Lösung zu realisieren. Aufgrund des kommenden 10-Gigabit-Standards rechnen jedoch Experten damit, dass iSCSI mittelfristig aufgrund der dann sehr hohen und billigen Bandbreite durch Fibre Channel over Ethernet (FCoE) verdrängt wird. Netzwerkkarten mit entsprechender Unterstützung für diesen Standard sind bereits verfügbar.

Wahl des Dateisystems

Der Anspruch an ein Dateisystem für die Server-Virtualisierung ist vielfältig: Es muss Clustering-fähig sein und mit konkurrierenden Zugriffe auf denselben Speicherbereich zurechtkommen. Außerdem soll es virtualisiert sein, damit es beispielsweise beliebig vergrößert oder mehrfach zugeteilt werden kann. Zudem muss es zu den vielfältigen Hardware-Systemen vieler unterschiedlicher Hersteller passen.

Die Hersteller verfolgen bei der Integration von SANs in virtuelle Umgebungen verschiedene Strategien.

VMware hat hierfür ein eigenes Dateisystem namens VMFS geschaffen, welches Locking implementiert, um Konflikte bei rivalisierenden Zugriffen zu vermeiden. Es ermöglicht Snapshots und nahtlose Vergrößerung. Von vielen Speicherherstellern wird es kritisch gesehen, weil moderne iSCSI- und FC-Speichersysteme vieler dieser Features selbst mitbringen, darunter Cloning virtueller Maschinen oder Snapshot-Backups. Allerdings bietet VMFS den Vorteil, dass es diese fortgeschrittenen Funktionen auch für relativ "dumme" Speichersysteme zur Verfügung stellen kann. Dafür sind allerdings zwingend VMware-eigene Tools nötig. Zudem beherrscht VMFS derzeit Thin Provisioning nicht.

Citrix hat hier einen konträren Ansatz gewählt: statt ein proprietäres Dateisystem zu implementieren, unterstützt es die gängigen Speicherarchitekturen direkt. Darauf richtet XenServer dann Logical Volumes mittels LVM ein. Ist Clustering gefordert, hat der Administrator die Wahl zwischen handelsüblichen Systemen wie OCFS2 oder GFS.

Über ein API können darüber hinaus die Storage-Systeme direkt mit XenServer integriert werden, so dass Operationen wie Cloning, Snapshotting und Provisioning vom Storagesystem selbst und nicht vom Hypervisor beziehungsweise dem Cluster-Dateisystem und dessen Tools übernommen werden. Dies führt zu schlankeren Systemen, zu einer geringeren Belastung der Host-Rechner und des Netzwerks, da weit weniger Daten über das LAN geschickt werden müssen, weil die Operationen quasi lokal auf den zentralen Daten ausgeführt werden.

Microsoft Hyper-V hat derzeit mit NTFS hier noch einige Einschränkungen aufzuweisen, so kann ein sicherer SAN-Betrieb derzeit nur gewährleistet werden, wenn je VM eine eigene LUN bereitgestellt wird, was den Administrationsaufwand erhöht und die Flexibilität einschränkt. Mit den Cluster Shared Volumes (CSV), welche Windows 2008 R2 bringen wird, kommt echtes Laufwerks-Clustering; mehrere VHD-Images können dann auf einem virtuellen Laufwerk abgelegt werden, auf Basis dieser Speichertechnik wird Hyper-V dann auch Live Migration beherrschen.

Fazit

Speichernetzwerke sind eine zentrale Komponente in virtualisierten Umgebungen. Eine virtualisierte Infrastruktur zwischen Servern und Storage erhöht die Auslastung, die Performance und die Verfügbarkeit der Systeme. Damit leistet sie einen entscheidenden Beitrag zur Business Continuity. Zudem ist zentralisierter Speicher die Basis für sinnvolle Konsolidierungs- und Virtualisierungsvorhaben.

Insgesamt wird die IT-Welt durch Virtualisierung plus Netzwerkstorage nicht weniger komplex, eher passiert das Gegenteil. Faktoren sind dabei die Herausforderung, die physische und die virtuelle Umgebung durchgängig zu administrieren, Fehler identifizieren und isolieren zu können, Performance-Management zu betreiben, Kapazitäten zu planen und im weitesten Sinne den Schutz der Daten im Blick zu haben. All dies bedarf neuer Werkzeuge und ebensolcher Fähigkeiten; alte Management-Tools greifen hier oft zu kurz. Der Lohn ist eine ungleich flexiblere und schneller reagierende IT-Infrastruktur.