Virtualisierung: Rechenleistung aus dem großen Topf

27.01.2005
Von 
Ludger Schmitz war freiberuflicher IT-Journalist in Kelheim. Er ist spezialisiert auf Open Source und neue Open-Initiativen.
Virtualisierung ist einer der derzeit beliebtesten Begriffe der IT-Anbieter. Obwohl von Marketing-Strategen nach Belieben verwendet, verbirgt sich dahinter eine durchaus sinnvolle Kombination alter und neuer Techniken.

Hier lesen Sie …

  • was Virtualisierung jenseits der Marketing-Parolen bedeutet;

  • welche Auswirkungen sie für die IT-Strukturen hat;

  • welche Bedingungen erfüllt sein müssen;

  • wie sie sich bei Servern, Speichern, Netzwerken und Anwendungen niederschlägt.

Von Hewlett-Packard stammt die präziseste Definition: "Virtualisierung ist eine Herangehensweise in der IT, die Ressourcen so zusammenfasst und verteilt, dass ihre Auslastung optimiert wird und automatisch Anforderungen zur Verfügung steht."

Am Anfang steht ein Overhead, der in Zeiten knapper IT-Budgets anachronistisch ist: Unix-Umgebungen sind höchstens zu 25 Prozent ausgelastet; bei Intel-x86-basierenden Servern sind es gar nur fünf bis 15 Prozent. Die Ursache dafür liegt darin, dass Server, Speicher und Netze quasi fest verdrahtet bestimmten Anwendungen zugeordnet sind. Um jederzeit, wenn auch vielleicht nur wenige Stunden pro Monat, den geforderten Durchsatz leisten zu können, sind die Systeme durchweg überdimensioniert.

Das treibt zum einen die Kosten für Lizenzen in die Höhe, wenn diese sich an der Leistung von Systemen orientieren. Noch teurer aber ist, dass die unnötig hohe Zahl der Systeme den Personalaufwand und die Kosten für ihre Administration explodieren lassen. Die Aufrechterhaltung des Systembetriebs beansprucht heute rund drei Viertel der Arbeitszeit der Mitarbeiter in den Rechenzentren. Wartung und Betrieb verschlingen bis zu 80 Prozent der IT-Budgets.

Virtualisierung soll das ändern. Der Lösungsansatz besteht in der Verknüpfung von Servern, Speichern und Netzen zu Pools, aus deren Leistung sich die Anwendungen nach ihrem aktuellen Bedarf bedienen. Eine systemorientierte IT weicht einer softwareorientierten Architektur. Der Ansatz verlangt nicht nur nach einer engen Verknüpfung der Systeme. Darüber hinaus muss das Management des so entstehenden abstrakten Großsystems automatisiert werden. Entsprechend sind Virtualisierung, Integration und Automatisierung die drei Imperative eines Prinzips.