Grundlagen

Virtualisierung im x86-Rechenzentrum

31.01.2008
Von Dennis Zimmer
Für immer mehr Firmen wird die Rechenzentrumsvirtualisierung zum Thema. Wer in dem Produktdschungel den Überblick bewahren will, sollte sich mit den Grundlagen und den einzelnen Techniken auseinandersetzen.

Es gibt heute kaum ein Unternehmen, das noch nicht über Virtualisierung im Rechenzentrum nachgedacht hat. In vielen Firmen ist die Server-Virtualisierung, die anfangs wegen der hohen Kosten primär größeren Organisationen vorbehalten war, sogar fester Bestandteil der IT-Strategie geworden. Aufgrund des enormen Marktpotenzials ist mit der Konkurrenz inzwischen auch das Produktangebot deutlich gewachsen: Big Player in nahezu allen Hard- und Softwarebereichen werben mit eigenen Virtualisierungslösungen oder bieten ergänzende Produkte an.

Virtualisierung als neue Infrastruktur?

Werden nur ein oder zwei Systeme in der Infrastruktur betrieben, ist die Konsolidierung von Servern und deren Peripherie - einer der Hauptgründe für Virtualisierung - nicht besonders interessant. Werden hingegen Dutzende oder Hunderte Server betrieben, lassen sich je nach der Virtualisierungslösung durch realistische Konsolidierungsraten von eins zu fünf bis eins zu hundert enorme Einsparungen erzielen. Dadurch sinken die Betriebskosten (Energie, Platz, Klimatisierung) sowie Wartungs- und Administrationskosten der Hardware erheblich. Die hohen Konsolidierungsraten sind auf die geringe durchschnittliche Auslastung physikalischer Server zurückzuführen, die mit nur einem Betriebssystem und meist nur einer oder sehr wenigen Applikationen betrieben werden.

Die Virtualisierungsprodukte unterstützen dies durch die clevere Verwaltung bestehender Hardwareressourcen. Mit Hilfe so genannter Resource-Manager können sowohl virtuelle Maschinen (VM) gegenüber anderen VMs priorisiert als auch die physikalische Hardware nach vielen verschiedenen Kriterien partitioniert werden. Manche Produkte erlauben es sogar, VMs - abhängig von der Last des physikalischen Basissystems (Host) - im aktiven Zustand auf andere, weniger belastete Systeme zu verschieben. Durch intelligente Ressourcenverwaltung lässt sich demnach eine Symbiose zwischen Ressourcenkonsolidierung und gleichzeitiger Leistungsoptimierung der Anwendungen erreichen.

Aus Sicherheitsgründen ist die Virtualisierung allerdings nur dort sinnvoll, wo VMs gegeneinander und gegenüber dem Host-System isoliert sind, also ein ungewollter Datenzugriff verhindert wird und Fehler oder der Absturz eines Gasts nicht zum Ausfall anderer Gäste führen.

Die Vorzüge der Hardwareunabhängigkeit

Architekturvergleich zwischen Hosted-Produkten wie VMware Server und Baremetal-	(Hypervisor-) Produkten am Beispiel von VMware ESX: Der wesentliche Unterschied liegt in der Nutzung eines Betriebssystems durch die Virtualisierungsschicht, statt diese direkt auf der Hardware aufsetzen zu lassen.
Architekturvergleich zwischen Hosted-Produkten wie VMware Server und Baremetal- (Hypervisor-) Produkten am Beispiel von VMware ESX: Der wesentliche Unterschied liegt in der Nutzung eines Betriebssystems durch die Virtualisierungsschicht, statt diese direkt auf der Hardware aufsetzen zu lassen.
Foto: Dennis Zimmer

Ein weiteres Plus ist die durch Einführung einer Virtualisierungsschicht zwischen physikalischer Hardware und den logischen Teilen (Gast-Betriebssystem und Applikation) erzielte Hardwareunabhängigkeit. Sie eröffnet neue Sicherungsmöglichkeiten und vereinfacht die Wiederherstellung der Gäste erheblich. Letztere ist räumlich nicht beschränkt, so dass virtuelle Systeme auch über das Internet verteilt (Virtual Machine Marketplace) werden können.

Die Nutzung von Templates beziehungsweise das schnelle Klonen oder Erstellen von VMs ist ein wichtiger Vorteil virtueller Umgebungen, führt ohne entsprechendes Regelwerk oder Lifecycle-Management allerdings schnell zum Wildwuchs.

Durch Verwendung von "Snapshots" ist es zudem möglich, Systemstände innerhalb weniger Sekunden einzufrieren, um sie zu sichern oder wieder zu ihnen zurückzukehren. Wird etwa eine wichtige Aktualisierung der Gastanwendung vorgenommen, lässt sich anhand eines zuvor angelegten Snapshots das Gastsystem jederzeit auf den Ursprungszustand zurücksetzen.

Mit der Hardwareunabhängigkeit fließen bisher eher aus Highend-Umgebungen oder Cluster-Systemen bekannte Funktionen in die Basisfähigkeiten virtueller Systeme ein und ermöglichen es zum Beispiel, kostengünstig hochverfügbare Server einzurichten. Dank der vom Host-System unabhängigen, immer gleichen Hardware virtueller Systeme lassen sich bestehende physikalische einfach in virtuelle Server (P2V, physical-to-virtual) umwandeln. Daher fällt die Entscheidung häufig zugunsten von P2V gegen einen Neuinstallation.

Eine wesentliche, sowohl die Organisation als auch Administration betreffende Eigenschaft von VMs ist ihre hohe lineare Skalierbarkeit, wodurch sie auf veränderte Anforderungen reagieren können. Konkret: Droht eine Komplettauslastung der Host-Systeme durch die VMs, lassen sich neue physikalische Server ohne Störung der bestehenden Systeme in die virtuelle Infrastruktur integrieren. Das gewährt Planungssicherheit im Hinblick auf die Anforderungen an die Server-Systeme.

Derzeit zeichnet sich ein weiterer Trend ab, der das Überspringen der Server- auf die Client-Virtualisierung beschreibt: "Virtual Desktop Infrastructure". Dieser als Konzept erstmals durch VMware geprägte Begriff bezeichnet den Betrieb von Desktop-Betriebssystemen wie Windows XP oder Vista in einer VM als Ersatz für den Desktop des Benutzers. Der Zugriff auf die VMs erfolgt über Software-Broker und Thin Clients.