Strategie, Administration, Kalkulation

Sieben Tipps für die erfolgreiche Virtualisierung

29.10.2008 von Wolfgang Sommergut
Die Virtualisierung von Servern ist in vielen Firmen schon über die Evaluierungsphase hinaus gediehen. Die dafür nötigen Technologien erlangen zunehmend strategischen Charakter und erfordern daher entsprechende Aufmerksamkeit des IT-Managements.

Einer Prognose von Gartner zufolge werden bis 2009 zirka vier Millionen virtuelle Maschinen auf x86-Servern installiert. Die Zahl der virtuellen Desktops soll von derzeit weniger als fünf Millionen auf bis zu 660 Millionen im Jahr 2011 steigen. Im Zuge dieser Entwicklung werden IT-Verantwortliche die Modernisierung von ohnehin schon virtualisierten Netzwerken und Speichern erwägen.

Die Auswirkungen von Virtualisierung gehen mit zunehmend strategischer Bedeutung über rein technische Änderungen hinaus und wälzen den RZ-Betrieb um. IT-Manager müssen die auf eine rein physikalische Welt abgestimmten Prozesse virtuelle Umgebungen anpassen. Denise Dubie von der CW-Schwesterpublikation "Network World" hat sieben Ratschläge zusammengestellt, die beim Umstellungsprozess helfen können.

Virtualisierung ganzheitlich angehen

Unternehmen, die sich einen Fahrplan für die Virtualisierung von x86-Servern zurechtlegen, sollten darüber nachdenken, dass zukünftig auch Desktop-, Applikations-, Speicher- und Netzwerkvirtualisierung in dieses Konzept passen sollten.

In der IT herrscht bis heute oft eine Silo-Mentalität, bei der spezifische Technikexpertise in kleinen Einheiten ankapselt wird. Die verschiedenen Zuständigkeiten für Server, Netrzwerk, Speicher, Sicherheit und Anwendungen und der daraus resultierende Mangel an Kommunikation könnten den Wandel zu einem virtualisierten Rechenzentrum erschweren.

Die Virtualisierung von Servern dient anfangs nur einen wenigen Zielen wie etwa der Konsolidierung, aber mit einer strategischen Ausrichtung sollte ein übergreifender Nutzen erreicht werden, der sich über mehrere IT-Bereiche erstreckt.

Neben einer regelmäßigen Diskussion zwischen den verschiedenen Zuständigkeitsbereichen sollten Hersteller auf die umfassenden Anforderungen und längerfristige Ziele angesprochen werden. Anbieter mit einem breiteren Portfolio, das neben Servern etwa auch Desktops einschließt, könnten IT-Verantwortliche besser bei der Realisierung einer Virtualisierungsstrategie helfen.

Virtuelle Ressourcen inventarisieren

Damit IT-Verantwortliche zu jedem Zeitpunkt einen Überblick über verfügbare virtuelle Ressourcen haben, ist striktes Life-Cycle-Management erforderlich, das jede virtuelle Maschine (VM) von ihrer Erstellung bis zu ihrer Ausmusterung verfolgt. Dabei sollte ersichtlich sein, welche Änderungen an einer VM vorgenommen und welche Patches eingespielt wurden. Daraus resultieren Vorteile für Performance und Sicherheit, weil sich problematische VMs leicht ausmustern und bewährte Images erkennen ließen.

Die Verfolgung von virtuellen Ressourcen erfordert ein länger gültiges Benennungsschema als in der physikalischen Welt, weil die virtuellen Umgebungen viel flexibler sind. VMs können mit Hilfe von Migrationstechniken wie VMwares "VMotion" an allen möglichen Orten auftauchen. Wenn virtuelle Rechner in einer bestimmten Umgebung unbekannt sind, dann sollten etwa strengere Zugriffsregeln für das Netzwerk greifen.

Die manuelle Verwaltung könnte bald nicht mehr mit der steigenden Zahl an VMs Schritt halten, so dass einschlägige Tools vonnöten sind. Dazu zählen unter anderem BMC Topology Discovery, EMC Application Discovery Manager oder mValent's Integrity.

Verbindliche Kapazitätsplanung

Virtuelle Maschinen lassen sich schneller und leichter in Betrieb nehmen als physikalische. Das verführt zum ad-hoc-Erstellen von VMs und kann in unkontrollierter Vermehrung von virtuellen Servern enden. Dies führt nicht nur zu Unübersichtlichkeit, sondern unter Umständen zu Lizenzproblemen und erhöhtem Energieverbrauch.

Tools wie VKernel Capacity Analyzer machen auf alle VMs in einer bestimmten Umgebung aufmerksam. Damit lassen sich beispielsweise Zombie-VMs entdecken, die vermeintlich gelöscht wurden und dabei munter weiterlaufen. Das trifft gerne auf VMs zu, die nur für Testzwecke angelegt wurden und dann länger leben als geplant.

Als gute Praxis hat sich dabei erwiesen, dass eine neue VMs gleich bei der Erstellung mit einem Ablaufdatum versehen wird, zu dem sie entfernt werden muss. Als Faustregel hat sich bewährt, eine VM für drei Monate zu parken. Wenn sie über diesen Zeitraum nicht mehr benötigt wird, kann sie ganz aus dem Verkehr gezogen werden. Notfalls lässt sie sich später wieder aus dem Archiv holen.

Virtuelle und physikalische Welten vereinen

Nur die wenigsten IT-Services werden auf absehbare Zeit ausschließlich auf einer virtuellen Infrastruktur beruhen. IT-Abteilungen müssen zumindest während einer Übergangszeit beide Varianten messen, etwa hinsichtlich der Performance. Dazu bedarf es Tools, die beide Betriebsarten überblicken und Vergleichsdaten liefern können.

Idealerweise können solche Report-Werkzeuge nicht nur zeigen, was in der virtuellen Umgebung passiert, sondern auch die Auswirkungen auf die physikalische Basis darstellen. Detaillierte Ansichten beider Systemtypen sollten zusammengeführt werden, um Korrelationen aufzuzeigen. Wenn beispielsweise die Auslastung einer physikalischen Maschine um 10 Prozent fällt, dann wäre es nützlich zu erfahren, dass zum Beispiel VMwares "Distributed Resource Scheduler" gerade eine oder mehrere VMs auf eine neue Hardware verschoben hat. Außerdem lässt sich auf diese Weise verfolgen, wenn problematische VMs bei ihrer Wanderung von Server zu Server immer wieder die gleichen Schwierigkeiten verursachen.

Virtuellen Traffic messen

Es gang und gäbe, den Verkehr in physikalischen Netzwerken zu überwachen. Für den virtuellen Traffic ist das aber nicht so selbstverständlich, obwohl ohne entsprechende Daten die Suche nach Ursachen für Performance-Probleme schwierig werden kann.

Besonders wenn die Zahl der VMs jene der physikalischen Server um ein Vielfaches übersteigen kann, gewinnt die Kommunikation zwischen virtuellen Maschinen an Bedeutung.

Tools wie Altor's Virtual Network Security Analyzer (VNSA) betrachten das Netzwerk nicht nur auf Switch-Ebene, sondern berücksichtigen auch die Inter-VM-Kommunikation oder den Traffic zwischen virtuellen Desktops. Dabei lassen sich etwa auch die Anwendungen ermitteln, die für die größte Netzlast verantwortlich sind oder die meistgenutzten Protokolle aufspüren.

Fachabteilungen sollen von Einsparungen profitieren

Unternehmen mit einem Rückvergütungssystem sollten dieses auch auf die Sphäre der Virtualisierung ausdehnen. Firmen ohne eine solche Einrichtung wäre zu empfehlen, über die Einführung eines Chargeback nachzudenken. Für IT-Abteilungen ist die Konsolidierung von Servern nämlich nahe liegend, weil sie damit Kosten sparen können. Fachabteilungen hingegen befürchten häufig, dass der Umzug ihrer Anwendungen von einem physikalischen zu auf einen virtuellen Server negative Auswirkungen auf die Performance haben könnte. Wenn sie hingegen an den wirtschaftlichen Vorteilen der Virtualisierung beteiligt werden, dann könnten sie derartigen Veränderungen leichter zustimmen.

Außerdem sollten die IT-Verantwortlichen anderen Abteilungen transparent machen, welchen Nutzen sie aus der Virtualisierung ziehen können. Dazu zählen neben ökonomischen Faktoren eine höhere Verfügbarkeit und schnellere Auslieferung neuer Server. Während es durchschnittlich sechs Wochen dauert, bis ein physikalischer Server einsatzbereit ist, kann eine virtuelle Maschine innerhalb weniger Stunden in Betrieb gehen.

Nutzen Sie internes Know-how

IT-Abteilungen müssen ihre Mitarbeiter für die Virtualisierung weiterbilden, etwa durch Zertifizierungsprogramme wie "VMware Certified Professional" (VCP) und Microsofts "Windows Server Virtualization". Aufgrund der hohen Kosten für diese Ausbildungen empfiehlt Gartner, einige ausgewählte Mitarbeiter zu den Schulungen zu schicken. Diese sollen dann ihr Wissen an ihre Kollegen weitergeben, indem sie auf Arbeitsgruppen verteilt werden.

Derzeit sehen sich viele IT-Manager nicht in der Lage, mit dem vorhandenen Personal eine Virtualisierungsstrategie umzusetzen. Die Weitergabe von Wissen innerhalb der IT-Abteilungen würde ein Unternehmen unabhängiger und die Implementierungen besser machen.

Bei Mangel an Virtualisierungskenntnissen kann Linux-Kompetenz helfen, weil gerade die Verwaltung von VMware-Infrastrukturen eng an das Open-Source-System angelehnt ist. (ws)