Vier Modelle

Virtualisierung bringt dynamische Prozesse

Dipl. Inform. Johann Baumeister blickt auf über 25 Jahre Erfahrung im Bereich Softwareentwicklung sowie Rollout und Management von Softwaresystemen zurück und ist als Autor für zahlreiche IT-Publikationen tätig. Sie erreichen ihn unter jb@JB4IT.de
Anzeige  Die Virtualisierung hat sich einen festen Platz in den IT-Szenarien erobert. Sie wird von Anwendern und Anbieter gleichermaßen geschätzt und vorangetrieben. Für die kommenden Jahre erwarten daher die Marktauguren ein beständiges und starkes Wachstum. Doch die Techniken der Virtualisierung sind so unterschiedlich wie ihre Einsatzgebiete. Im Allgemeinen unterscheidet man heute die vier unten genannten Modelle der Virtualisierung:
  • Die Virtualisierung der Server: sie dient heute vor allem der Konsolidierung und steht im Mittelpunkt dieser Untersuchung.

  • Die Virtualisierung der Präsentationsschicht: diese Variante ist die älteste Form der Virtualisierung. Sie wurde ursprünglich als Terminal Server Emulation bekannt und erst im Zuge des Virtualisierungs-Hypes umbenannt.

  • Die Virtualisierung der Applikation: Sie bildet eine Laufzeitumgebung für Applikationen auf dem Clientgerät. Die Techniken und Werkzeuge sind vorhanden, die Verbreitung ist noch gering.

  • Die Virtualisierung der Benutzerdesktops: diese Variante ist die neueste Form der Virtualisierung und daher noch im Experimentierstadium. Bei diesem Verfahren wird das Benutzergerät virtuell nachgebildet.

Allen Arten der Virtualisierung gemeinsam ist die Tatsache, dass durch eine Emulationsschicht eine IT-Komponente, die real nicht existiert, virtuell nachgebildet wird. Trotz der heute bekannten vier Varianten der Virtualisierung beziehen viele Anwender den Begriff meist allein auf die Servervirtualisierung. Dies soll auch in den folgenden Erläuterungen gelten.

Konsolidierung durch Virtualisierung

Der ursprüngliche Zweck der Servervirtualisierung diente vor allem der Konsolidierung der Rechner. Dabei werden mehrere Server zu einem zusammengefasst. Dies passiert durch die virtuelle Nachbildung eines Servers durch eine Emulationsschicht. Hierbei lassen sich mehrere ehemals physisch eigenständige Server in ein einziges System zusammenfassen. Der Vorteil des Verfahrens ist eindeutig: Es wird Hardware gespart. Wie viele der Rechner sich so zusammenfassen lassen, hängt im Wesentlichen von zwei Faktoren ab: der Leistungsfähigkeit der verwendeten Hardware die zum Träger aller virtuellen Maschinen wird und dem Lastbedarf der darauf eingerichteten virtualisierten Server.

Ist beispielsweise die Auslastung eines physischen Servers vor der Virtualisierung lediglich zehn Prozent, so können, in einem vereinfachten Modell, zehn dieser Rechner parallel betrieben werden. Davon abzuziehen wäre aber korrekterweise der Verwaltungs-Overhead des Virtualisierers, so dass die tatsächliche Leistung kleiner als der Faktor zehn sein wird. Dies ist allerdings ein stark vereinfachtes Modell. Es geht von der Annahme aus, dass die abgeforderte Leistung gleichbleibend ist oder sich die Leistungsspitzen der zehn virtualisierten Server gegenseitig aufheben. Wenn die virtuellen Geräte allerdings nahezu zum gleichen Zeitpunkt Leitungsspitzen von beispielsweise 30 Prozent aufweisen, so können eben zu diesem Zeitpunkt nur drei Geräte parallel betrieben werden oder es treten Engpässe auf. Hinzu kommt, dass in vielen dieser Modelle meist nur von der CPU-Auslastung gesprochen wird. Der Arbeitsspeicher, die Anbindung an das Netzwerk oder die Speichersysteme werden häufig nicht explizit erwähnt. Diese sind für den Durchsatz aber ebenso entscheidend. Wenn nun, wie im Beispiel gewählt, die zehn virtualisierten Server über eine zu geringe Netzwerkbandbreite verfügen, so nützen freie CPU-Zyklen wenig, denn die Applikationen werden dann durch das Netzwerk ausgebremst. Gleiches gilt für die Anbindung an die Massenspeicher oder den Arbeitsspeicher. Aus diesem Grund müssen Server, die als Arbeitspferde (Host) für die Virtualisierung herangezogen werden immer ein ausgewogenes Verhältnis aller Rechnerressourcen, also der CPU, des Arbeitsspeicher, der Netzwerkanbindung und der Speicheranbindung aufweisen.

Einen bestehenden Server, der bis dato nur zu zehn Prozent ausgelastet ist, kurzerhand in einen Host für die Virtualisierung zu machen, wird folglich kaum die gewünschten Ergebnisse liefern. Dies bedeutet aber, dass bei der Virtualisierung von Systemen meist ohnehin neue Geräte zu beschaffen sind. Auch dieser Aspekt fällt mitunter unter den Tisch.