Hindernisse und Fallen auf dem Weg

04.07.2006
Von Bettina Kapp, Philipp Radulescu 
Damit Virtualisierung am Ende auch die erhofften Verbesserungen bringt, muss ein Unternehmen solch ein Vorhaben systematisch angehen.

Auf ihrem Frühjahrssymposium ITxpo Ende Mai dieses Jahres in San Francisco bewerteten die Analysten von Gartner die Virtualisierung als eines von vier Trendthemen, das IT-Organisationen in der Zukunft stark beeinflussen wird. Bevor das Konzept Virtualisierung jedoch greift, bedarf es einer genauen Analyse der zu nutzenden Infrastruktur und einer exakten Definition der Projektziele.

Hier lesen Sie …

Was bringt Virtualisierung?

Kostenreduktion:

- Virtualisierung kann durch Server-Konsolidierung und vereinfachtes Server-Management Kosten reduzieren. -

- Berücksichtigt werden müssen dabei aber weitere Kosten wie für den Dualbetrieb, Hardwareanpassungen, Schulungen und Lizenzen.

Kostentransparenz:

- Virtualisierung kann für nutzungsabhängige Abrechnung verwendet werden.

Höhere Server-Auslastung:

- Mit Hilfe von Virtualisierung lässt sich die Auslastung erhöhen.

Höhere Verfügbarkeit:

- Virtualisierung kann eine Alternative zu Cluster-Lösungen sein;

- Virtualisierung kann für Disaster-Recovery-Lösungen genutzt werden.

Höhere Skalierbarkeit:

- Flexiblere und schnellere Reaktion auf veränderte Anforderungen;

- vereinfachte Server-Umzüge;

Höhere Flexibilität:

- Vereinfachte Server-Umzüge;

- einfacherer Austausch von Hardware.

Lösung von Platzproblemen:

- Server-Konsolidierung im Rahmen der Virtualisierung schafft Platz.

Meist wird das Thema Virtualisierung nämlich allein unter dem Aspekt der Kostenreduzierung betrachtet. Unternehmen vergessen dabei oft, dass Virtualisierung darüber hinaus eine höhere Flexibilität und Skalierbarkeit der Systeme und eine verbrauchsorientierte Abrechnung von IT-Services ermöglicht. Auch zur Verfügbarkeit kann sich Virtualisierung lohnen: Ausfälle lassen sich auf ein Minimum reduzieren, indem innerhalb von Minuten ein und derselbe virtuelle Server in einer anderen Lokation gestartet wird. Für Unternehmen in sicherheitsrelevanten Branchen wie der Finanzindustrie ist das ein entscheidendes Argument.

Fremde Konzepte nicht kopieren

Zu beachten ist auch, dass sich ein erfolgreiches Virtualisierungskonzept nicht eins zu eins auf eine andere Umgebung übertragen lässt. Es ist genauso individuell wie die Geschäftsstrategie und muss auf die Anforderungen des jeweiligen Anwenders zugeschnitten werden. Unternehmen sollten also als Erstes analysieren, welche Geschäftsziele sie mit dem Projekt verfolgen und welche Applikationen die virtualisierte Landschaft überhaupt nutzen sollen. Erst im nächsten Schritt sollte die geeignete Virtualisierungslösung ausgewählt werden.

Man unterscheidet generell zwischen Software- und Hardwarevirtualisierung. Bei der Softwarevirtualisierung teilen sich mit Hilfe der Virtualisierungssoftware unterschiedliche virtuelle Server, so genannte Gastsysteme, einen physischen Server mit Betriebssystem. Zu den bekanntesten Lösungen gehören VMware Workstation, VMware GSX-Server sowie von Microsoft Virtual Server und Virtual PC.

Mit Ressourcen knausern

Bei der Hardwarevirtualisierung teilen sich verschiedene Gastsysteme durch eine dazwischen liegende Virtualisierungsschicht einen physischen Server (ohne einen dazwischen liegenden Betriebssystem-Layer) und können diesen je nach Bedarf nutzen. Hierbei werden die vorhandenen physischen Hardwareressourcen logisch geteilt. Dabei ist die Nutzung nicht auf ein einzelnes physisches System beschränkt, sondern kann über mehrere Systeme verteilt werden. Zu den bekanntesten Systemen gehören VMware ESX Server und Topspin von Cisco. Die Hardwarevirtualisierung bietet sich meistens bei homogenen Umgebungen an, bei denen die Ressourcen für die Virtualisierungsschicht gering gehalten werden sollen.

Alle Vorteile ausschöpfen

Allgemein empfiehlt sich Virtualisierung immer dann, wenn man dem drohenden Platzmangel in den Server-Räumen entgegenwirken will. Hierbei ergeben sich durch die Verteilung der Gastsysteme über viele Server hinweg bei flexibler Zuteilung der Systemressourcen auf die einzelnen Gastsysteme gleich zwei Vorteile: Zum einen können die vorhandenen Server besser ausgelastet werden. Alternativ lassen sich mehr Applikationen auf der gleichen Server-Anzahl betreiben. Auch die Verschiebung aller oder einzelner Gastsysteme auf andere Systeme im laufenden Betrieb ist möglich. Nicht zuletzt ist die flexible Ressourcenzuteilung für eine schnelle Leistungssteigerung geeignet, beispielsweise um kurzzeitige Lastspitzen in der Buchhaltung zum Jahresabschluss ohne großen Kostenaufwand zu bewältigen.

Für welchen Ansatz sich der Anwender auch immer entscheidet, wichtig ist ein ganzheitliches Vorgehen, bei dem neben Betriebssystemen und Hardware auch Speicher, Applikationen, Netzwerk und Datenbanken einbezogen werden. Bei der Suche nach der passenden Virtualisierungslösung darf zudem nicht übersehen werden, dass bestimmte Produkte spezifizierte Hardware voraussetzen oder nur gewisse Gast-Betriebssysteme zulassen. Außerdem kann das Zusammenspiel mit entsprechenden Tools limitiert sein.

Von Zielen zu Lösungen

Was die einzelnen Angebote leisten müssen, hängt von den Zielen des Anwenders ab. Beispielsweise offeriert Cisco mit Topspin (VFrame) eine Virtualisierungslösung für größere Server-Umgebungen unter Einbeziehung von Speicher und Netzwerk. Das Produkt bietet einen einheitlichen Pool von Servern ohne Betriebssystem, deren Ressourcen nach Bedarf verteilt werden können, und ermöglicht die Konsolidierung von Netzwerk, SAN-Netzwerkkarten und Ports, da diese virtuell zur Verfügung gestellt werden.

Sun Solaris Container setzen Hardware des Herstellers voraus, zeichnen sich aber durch geringe Betriebssystem-Kosten aus, da hier das Betriebssystem virtuell aufgeteilt wird. Mehrere virtuelle Maschinen (Container) teilen sich hierbei eine Betriebssystem-Installation. Den Markt dominieren VMware und Microsoft mit ihren Virtualisierungslösungen.

Die Frage nach der Wirtschaftlichkeit von Virtualisierungsprojekten wird meist mit den zu erzielenden Einsparungen beantwortet. Dabei bleibt jedoch eine Vielzahl an Kostenverursachern unberücksichtigt. Unternehmen mit einem Virtualisierungsvorhaben stellen allzu oft erst nachträglich fest, entweder das falsche Produkt gewählt oder die durch den Betrieb der virtuellen Umgebung anfallenden Kosten falsch kalkuliert zu haben. Vernachlässigt werden insbesondere die Faktoren Hardware und Lizenzen.

Die Folgen im Auge haben

Für den Betrieb einer virtuellen Umgebung wird oftmals nur ein einzelner leistungsfähiger Rechner ausgewählt. Dies ist nur für unkritische Systeme oder Testumgebungen ratsam. Denn bei einem Ausfall des physischen Servers stehen alle darauf betriebenen virtuellen Systeme nicht mehr zur Verfügung. Dieser Gefahr kann man mit mehreren physischen Systemen entgegenwirken. Fällt ein Server aus, übernimmt ein anderer die entsprechenden Aufgaben. Für die Virtualisierungssoftware fallen dann aber zusätzliche Lizenzkosten an, die proportional mit der Prozessorzahl steigen.

Vielen Unternehmen fehlt das nötige Know-how, um die passende Lösung für die eigenen Anforderungen zu definieren. Um die richtige Lösung zu konzipieren, zu implementieren und zu betreiben, bedarf es ausreichender Projekterfahrung und entsprechender personeller Unterstützung. Denn eigenes Personal muss erst für die Virtualisierungslösung geschult werden und steht in dieser Zeit für den alltäglichen Betrieb nicht zur Verfügung. Auch Tests, Migration und schließlich der Betrieb der virtuellen Plattform brauchen Zeit. Da liegt es nahe, einen externen Berater zu Rate zu ziehen oder Services auszulagern. Ein erfahrener Consultant kann die Produkte identifizieren, deren Zusammenspiel die optimale Lösung bildet. (ls)