Viele Server bilden ein abstraktes Großsystem

24.01.2005

Die grundlegende Technik der Server-Virtualisierung kommt von Mainframes: Die Partitionierung begann mit der Möglichkeit, den Anwendungen Prozessoren, Memory und I/O-Kanäle zuzuordnen. Der nächste Schritt war die Allokation von Rechenkernen der Multi-Core-Prozessoren. Es folgte die noch flexiblere logische - also nicht mehr physikalische - Partitionierung, die CPU-Power, Speicher und I/O-Bandbreite softwaretechnisch zuteilt. Kurz: Aus einem physikalischen Server werden viele logische.

Doch Virtualisierung kann auch etwas anderes bedeuten: Viele physikalische werden zu einem logischen Server. Im Prinzip geht es darum, Server eng miteinander zu vernetzen, ohne dass sie sich räumlich nahe sein müssen. Die am weitesten reichende Server-Virtualisierung sind Grids. Der Knackpunkt besteht darin, die Server systemübergreifend - "aus der Vogelperspektive" - zu administrieren, um Prozessoren oder deren logische Teile, Arbeitsspeicher, Systembusse, interne Festplatten und I/O-Kanäle zu Pools zusammenzuführen und wieder umzugruppieren.

Rechenpower nach Bedarf

Die Zuordnung der Ressourcen kann zeitlich vorbestimmt sein, um beispielsweise den höheren Mail-Traffic bei Arbeitsbeginn zu unterstützen. Oder sie erfolgt Event-gesteuert nach bestimmten Regeln, so genannten Policies: Sobald etwa die Antwortzeiten einer Applikation einen vordefinierten Schwellwert erreichen, wird ihr aus dem Server-Pool eine weitere CPU zur Verfügung gestellt. Der Start dieses Zusatzsystems und der Anwendung auf ihm erfolgt automatisch - ebenso wie umgekehrt seine Stilllegung, wenn die Applikation nicht mehr so viel Power braucht.

Die Anforderung des automatisierten System-Managements ist von zentraler Bedeutung. Denn in einer virtuell unter einen Hut gepackten Systemlandschaft ändert sich die physikalische Belegung der Server mit Prozessen ständig. Hinzu kommen unvorhergesehene Ereignisse wie die Überhitzung oder der Ausfall von Komponenten oder ganzen Servern.

Administrations-Tools sollen jedoch mehr können, als automatisch Prozesse anzustoßen und Server zu switchen. Gleichzeitig müssen sie vor sich anbahnenden Problemen warnen. Und sie müssen den Administratoren Mittel an die Hand geben, sich bis zu den detaillierten Ursachen einzelner Probleme durchzuarbeiten. Die Komplexität des Gesamtsystems, die Menge der anfallenden Informationen und die Vielfältigkeit der Maßnahmen erfordern grafisch unterstützte Tools.

Grenzen der Freiheit

Solche Virtualisierungsmethoden funktionieren - leider in der Regel nur innerhalb einer Server-Klasse der einzelnen Hersteller. Hewlett-Packard nennt auf seinen Websites ausschließlich HP-Systeme als virtualisierbar. Big Blue erklärt in diversen Whitepapers immerhin, dass Virtualisierung im Grunde systemübergreifend und Betriebssystem-unabhängig angelegt sein muss.

Ein Sonderfall sind dabei die inzwischen weit verbreiteten Intel-basierenden 32-Bit-Server. Deren Prozessoren sind von Haus aus nicht partitionierbar, eine wichtige Eigenschaft für die Virtualisierung und ihr Ziel einer optimierten Server-Auslastung. Immerhin gibt es diverse Ansätze, dieses Defizit softwaretechnisch aufzuheben.

Microsoft hat im vergangenen Jahr den "Virtual Server" aufgelegt. Verbreiteter sind die Virtualisierungsprodukte "ESX-" und "GSX-Server" von VMware. Diese richten einen Layer zwischen der Hardware und dem Betriebssystem ein, wobei es sich um Windows, Linux oder Netware handeln kann. Die Hardware unterhalb des Layers lässt sich jederzeit ändern oder zu neuen Pools gruppieren. Die Applikationen nutzen die Gesamtressourcen nach Bedarf und nach Policies. Am konsequentesten und einfachsten lässt sich das mit Blade-Servern realisieren. Für sie gibt es auch die flexibelsten Administrations-Tools. (ls)