Best Practices

Gartner: Sechs Tipps zur Server-Virtualisierung

24.04.2008 von Thomas Cloer
Gartner lässt die Allgemeinheit an seinen Erfahrungen aus Kundenprojekten zur Server-Virtualisierung teilhaben. Sechs Best Practices sollen Firmen dabei helfen, ihre Server richtig zu "verhackstücken".

Aus Sicht des Beratungs- und Marktforschungsunternehmens Gartner ist Virtualisierung bis zum Jahr 2010 bei Servern der wichtigste Trend. Der Return on Investment (RoI) der Virtualisierung sei zwar an sich verführerisch, doch lasse sich die Technik auch in puncto Kosten, Management-Strategie, Herangehensweise, Architektur und Software schlecht implementieren. Viele dieser Probleme, so Gartner, lassen sich aber vermeiden, wenn Anwender im Vorfeld die richtigen Beurteilungen vornehmen, bevor sie ihre Systeme virtualisieren.

"In den nächsten fünf Jahren wird der noch unreife Mark für Server-Virtualisierung ausreifen, weil Wettbewerb entsteht und die Preise drückt", sagt Phil Dawson, Research Vice President bei Gartner. "So lange können die meisten Firmen aber nicht warten - Probleme mit Server-Wildwuchs, Raumnot im Rechenzentrum und Stromversorgung gibt es jetzt. Anwender, die mindestens 50 virtuelle Maschinen im Jahr aufsetzen, können schon jetzt einen Business Case mit schnellen RoI erzielen."

Mit dem richtigen Ansatz und der richtigen Strategie für Virtualisierung und einem langfristigen Plan für die nötigen Änderungen bei Prozessen und Werkzeugen für die Server-Verwaltung können Unternehmen laut Dawson Virtualisierung schon jetzt effektiv nutzen und ihre Server zu einem effizienteren, fließenden Pool dynamischer Kapazität umbauen. "Damit werden nicht nur die Platz- und Energieprobleme zumindest vorübergehend gelöst, sondern die IT wird gleichzeitig für ihre Kunden ein deutlich effizienterer und flexiblerer Anbieter von Server-Kapazität", so der Gartner-Mann.

Gartner empfiehlt dazu konkret sechs Best Practices. Diese lauten wie folgt:

Klein anfangen, groß denken

Auch wenn die Hersteller und Consultants Server-Virtualisierung im großen Maßstab empfehlen, rät Gartner aus Kosten-, Management- und kultureller Sicht dazu, erst einmal klein anzufangen. Es gebe zwei sehr unterschiedliche Phasen beim Deployment von Server-Virtualisierung. Die erste fokussiere auf Server-Konsolidierung, Kostensenkung und besserer Hardware-Ausnutzung. Die zweite Phase sei strategisch wichtiger, komplexer zu implementieren und bringe dem Kunden erheblich mehr Mehrwert. In dieser Phase ändere sich der Fokus darauf, neue Services bereitzustellen oder die Qualität und Geschwindigkeit von Services zu verbessern.

Raschen RoI fordern

Weil sich der Markt (und damit die Preise) schnell entwickle, müssen Anwender laut Gartner einen Business Case mit raschem Return on Investment aufsetzen. Die Experten empfehlen, dass ein Business Case für Server-Virtualisierung einen vollen Return on Investment in sechs Monaten oder weniger zeige. Generell sollten Unternehmen unterm Strich erfolgreich sein, wenn sie per annum 50 vrituelle Maschinen oder darüber aufsetzten.

Die richtigen Anwendungen virtualisieren

Nicht jede Applikation eignet sich laut Gartner gleich gut für die Virtualisierung. Speziell Anwendungen mit hohen Input/Output-Anforderungen können auf virtuellen Maschinen ineffizient arbeiten; Applikationen, die vorhandene Hardware effektiv auslasten, bringen wiederum virtualisiert keine Kostenersparnis. Am besten fokussiere man sich, so die Experten, auf ältere und kleinere Packaged Applications. Die meisten virtuellen Maschinen würden dieser Tage in Produktionsfunktionen aufgesetzt, üblicherweise noch weniger kritische Server, aber zunehmend auch in geschäftskritischen Rollen.

Die Storage-Strategie festklopfen

Wie viel Agilität eine Firma mit virtualisierten Deployments gewinnt, hängt laut Gartner entscheidend davon ab, wie und wo virtuelle Images und Anwendungsdaten gespeichert werden. Wenn ein Anwender virtuelle Images beispielsweise auf Direct-attached Storage unterbringe, beschränke sie damit die Möglichkeiten zu Replikation oder Wiederherstellung dieser Images etwa im Fall eines Fehlers. Wer seine Images hingegen auf einem zentralen Storage-System ablege, der habe die Flexibilität, von jedem angeschlossenen Server darauf zuzugreifen.

Software-Probleme verstehen

Virtualisierung als Markttrend ist laut Gartner so plötzlich aufgekommen, dass sich die Software-Hersteller hinsichtlich ihrer Preise, Lizenzen und Support-Bedinungen für virtualisierte Umgebungen noch im reinen Reaktions-Modus befänden. Die Experten erwarten, dass Preise und Lizenzen für die nähere Zukunft weiterhin ein Problem bleiben. Bis neue Preismodelle entstehen, sollten Nutzer sich bemühen, die Konditionen der ISVs (Independent Software Vendors) so detailliert wie möglich zu verstehen und akzeptieren, dass solange die ISV-Probleme nicht aus der Welt sind, kleinere Server die Norm bleiben werden.

Virtuelle Maschinen effektiv kombinieren

Viel wichtiger als ein perfektes statisches Konsolisierungs-Mapping ist laut Gartner die Entwicklung eines flexiblen Prozesses für die dynamische Relokation von Server-Kapazität. Workloads verändern sich, und mit diesen Veränderungen dynamisch umgehen zu können ist ein Kernziel, insbesondere in frühen Stadien der Virtualisierung.

Ausführlichere Informationen zum Thema finden sich in dem kostenpflichtigen Gartner-Report "Best Practices Before You Virtualize Your Servers". (tc)