Ratgeber RoI

Rechnet sich Server-Virtualisierung?

08.02.2011 von Ariane Rüdiger
Lesen Sie, welche versteckten Zusatzkosten die Anbieter von Produkten zu Server-Virtualisierung gerne verschweigen.
„90 Prozent der Projekte zur Server-Virtualisierung verfehlen ihre Ziele.“ Chris Wolf, Burton Group / Gartner

„90 Prozent der Projekte zur Server-Virtualisierung verfehlen ihre Ziele“, sagt Chris Wolf, Virtualisierungsspezialist bei der von Gartner übernommenen Burton Group. Das klingt ernüchternd. Fragt man Wolf, was an dieser eher niedrigen Zielerreichungsquote schuld ist, zögert er nicht lange: Die Werkzeuge der Anbieter zur Berechnung des Return on Investment (RoI) schlössen immer nur das ein, was Unternehmen unabdingbar zum Core-Management bräuchten. Nicht weniger, aber erst recht nicht mehr. Kämen später Aufgaben wie Lifecycle-, Change- oder Capacity-Management dazu, dann werde guter Rat sehr rasch teuer. Dieser Punkt sei in vielen Projekten schon einige Monate nach der Implementierung erreicht. Die Zusatzkosten für diese Aufgaben, auf deren Lösung naturgemäß niemand gern verzichtet, könnten durchaus 20 Prozent der ursprünglich veranschlagten Projektsumme ausmachen.

„Kunden machen oft nur ungenaue Angaben zu Kalkulationsgrundlagen“ Erwin Breneis, Lead Systems Engineer, VMware

Was die Kernaufgaben angeht, sind die Anbieter aber durchaus realistisch. Der TCO-Kalkulator, den VMware auf seiner Website registrierten Anwendern offeriert, schließt neben Auswirkungen der Server-Virtualisierung auf Speicher und Netze auch die Kosten des Infrastrukturmanagements und der Migration in seine Berechnungen ein. Ungenaue Berechnungen können aber auch die Folge ungenauer Vorinformationen sein. „Wir benötigen für unsere Kalkulationen des RoI immer eine Menge Daten vom Kunden. Die sind oft nicht vorhanden und werden dann grob geschätzt“, berichtet Erwin Breneis, Lead Systems Engineer beim Virtualisierungs-Marktführer VMware. Beispielsweise verfüge kaum ein Unternehmen über exakte Daten darüber, wie viel Energie seine Server verbrauchen. Dabei bildet der niedrigere Energieverbrauch meist schon aufgrund der geringeren Serverzahl einen wesentlichen Bestandteil der Kostenvorteile, die sich Virtualisierungskunden erhoffen.

Weitere Kostenersparnisse erwarten die Unternehmen laut Breneis beim Platzbedarf, der Kühlung und beim Monitoring der Server. Doch auch in letzterem Bereich, der schon ins IT-Management gehört, fehlen oft die nötigen Informationen, um genaue Daten zu ermitteln. Nur wenige CIOs wissen nämlich, so der VMware-Experte, genau, mit welchen Aufgaben ihre Teams wie viele Stunden verbringen. Also werden häufig „Über-den-Daumen-Kalkulationen“ zugrunde gelegt, und die sind naturgemäß nicht immer richtig.

Teaserbild: Fotolia, M. Richter

Weiterentwicklung kostet Geld

Ungeplante Mehrkosten in Projekten zur Server-Virtualisierung ergeben sich laut Breneis trotz sauberer Kalkulation, wenn sich kleine Einstiegsprojekte weiter entwickeln: „Viele CIOs entscheiden sich, die Vorteile der Hardware-Virtualisierung auch für die Steuerung und Verwaltung der Software zu nutzen und investieren dann gegebenenfalls in weitere Managementlösungen.“ Das mag sinnvoll sein, doch fragt man sich schon, ob und warum die Softwareanbieter ihre Kunden nicht von Anfang an auf diese Möglichkeiten hinweisen und dann auch entsprechende Kalkulationen für weitergehende Lösungen vorlegen. Zumal sich in diesen ja die bereits vorhandenen Erfahrungen durchaus kostensparend auswirken können, wie Breneis erläutert, zum Beispiel weil einige Komponenten schon im Haus sind oder kein Schulungsbedarf mehr besteht.

„Wenn Unternehmen die Server-Virtualisierung nicht regelrecht planen, werden sie vielleicht sogar neue Mitarbeiter dafür brauchen.“ Giorgio Nebuloni, Serveranalyst Westeuropa, IDC (Bild:

Doch wer weiß, vielleicht kann man so viel Voraussicht auch nicht verlangen bei einer Technologie, die zwar inzwischen weithin anerkannt, aber dennoch in der breiten Anwendung für viele noch immer neu ist. Denn so viel ist sicher: Längst nicht alle Server werden heute virtualisiert eingesetzt. Georgio Nebuloni, Server-Analyst Westeuropa bei IDC, schätzt den Anteil neuer Server, die schon beim Verkauf mit einem Hypervisor ausgerüstet werden, lediglich auf ein Fünftel. „Großbanken oder sehr fortschrittliche Rechenzentren virtualisieren allerdings stärker“, beobachtet er. Tatsächlich schrecken wohl auch heute viele Unternehmen davor zurück, ausgerechnet ihre wichtigste Datenbank auf einem virtualisierten Server zu fahren. „Alle Anwendungen, die eine schwer prognostizierbare I/O- und CPU-Belastung erzeugen, eignen sich weniger gut für die Virtualisierung“, sagt Wolfgang Schwab, Senior Advisor und Program Manager beim Beratungsunternehmen Experton.

10 Schritte zum Erfassen von Virtualisierungs-Kosten

  1. Hardware analysieren: Wie viele Server mit welcher Ausstattung sind installiert? Wie hoch ist der Stromverbrauch? Wie viel Strom verbraucht die Kühlung? Welche Fläche nehmen die Server ein?

  2. Software analysieren: Welche Applikationen laufen wo? Wie viele Ressourcen verbrauchen sie wann? Welche Applikationen sind eventuell obsolet? Welche Lizenzschemata haben die Applikationen in virtualisierten Umgebungen?

  3. Virtualisierungsplattform auswählen: Wer vor allem Microsoft-Applikationen nutzt, braucht andere Virtualisierungslösungen als ein Unternehmen mit einer heterogenen Anwendungsumfeld.

  4. Server-Bedarf kalkulieren: Wie viele Programme passen auf wie viele Maschinen? Wie viel Arbeitsspeicher ist angemessen? Welche Prozessorausstattung ist sinnvoll? Sind Spezialeigenschaften gefragt, zum Beispiel Echtzeitfähigkeit oder Eignung für Transaktionsanwendungen?

  5. Speicherbedarf kalkulieren: Wie groß ist der Datenbestand? Wie groß ist die Wachstumsrate? Wie schnell müssen die Daten verfügbar sein? Ist eine Fibre-Channel-Infrastruktur nötig oder reicht für den gemeinsamen Zugriff auch das langsamere iSCSI?

  6. Netzwerkelemente einrechnen: Sind neue Switches nötig? Wie viele? Mit wie viel Ports und in welcher Geschwindigkeit?

  7. Lizenzkosten kalkulieren: Auf Basis der unter 2 angestellten Recherchen die Lizenzkosten für alle Software in der neuen, virtualisierten Umgebung berechnen. Diese können unter Umständen erheblich von denen in einer nicht virtualisierten Umgebung abweichen!

  8. Change Management: Wie viele Mitarbeiter werden geschult? Wie lange? Werden Support-Mitarbeiter für andere Aufgaben frei? Müssen interne Prozesse verändert werden, um optimalen Nutzen aus der virtualisierten Umgebung zu ziehen?

  9. Beratung: Reichen die internen Kapazitäten, um die oben angeprochenen Analysen durchzuführen? Wofür ist externe Beratung nötig? Wie viele Beratungstage sind erforderlich?

  10. Managementsoftware: Welche Managementsoftware ist erforderlich, wenn weitergehende Ziele (zum Beispiel automatisiertes Provisioning etc.) erreicht werden sollen? Bietet die gewählte Plattform eine entsprechende Auswahl? Ist „Handarbeit“ oder Drittsoftware nötig, um Lücken zu schließen? Wie viel Aufwand ist bei Eigenprogrammierung zu veranschlagen? Sind die nötigen Kräfte im Haus oder ist hier externe Beratungsleistung erforderlich?

Wie kalkuliert man Virtualisierungs-Projekte?

Wie aber kalkuliert man ein Virtualisierungs-Projekt am besten? Die Arbeit beginnt mit einer gründlichen Analyse: Welche Applikationen laufen im Unternehmen auf welchen Servern? Welche davon sollen weiter genutzt werden, welche sind möglicherweise überflüssig? Lohnt es sich eventuell, vor der Server-Virtualisierung zuerst einmal die Anwendungen zu konsolidieren, zum Beispiel aus mehreren E-Mail-Systemen eines zu machen oder weitgehend ungenutzte oder redundante Anwendungsleichen schlicht zu entfernen?

Mit der gleichen Gründlichkeit gilt es, sich den Server-Bestand und die angeschlossene Peripherie anzusehen. Server-Typen, Alter, Leistungsfähigkeit, Stromverbrauch, Kühl- und Platzbedarf, aber auch die Ausstattung mit schnellen Ports sind hier wichtige Parameter. Am Ende dieser Phase sollte das Virtualisierungsteam einen genauen Überblick über die vorhandenen Server und Applikationen haben, die später auf den virtualisierten Servern laufen sollen. Dazu gehört auch, den Ressourcenbedarf der Applikationen und deren Nutzungscharakteristik zu kennen. Zwar gibt zum Beispiel VMware in seinem TCO-Kalkulator eine Default-Konsolidierungsrate von 1:12 an. „Es gibt auch Systeme, auf denen 20 oder 50 Anwendungen laufen“, sagt Schwab, allerdings sei das die Ausnahme. Entscheidend sei aber, wann die Anwendungen wie viele Ressourcen brauchen. Laufen drei Programme gleichzeitig am Monatsende auf Hochtouren, könnten sie allein schon die maximale Leistung eines Systems überschreiten. „Hier wird man um Messungen nicht herumkommen“, so Schwab. Ungeschickte Konfigurationen führten statt zu Leistungsverbesserungen zu Verzögerungen oder gar Downtime; folgerichtig gehörten Systeme mit gleichlaufenden Leistungsspitzen nicht auf einen Server. Sein Rat: „Am besten mischt man einige Anwendungen, die die CPU stärker belasten, mit solchen, die eher Ein-/Ausgabe-intensiv sind.“

In der Regel sind neue Server nötig

Im nächsten Schritt müssen Projektverantwortliche auch eine Entscheidung über die benötigte Server-Hardware treffen. Nur gelegentlich dürften dabei bereits vorhandene Server als Plattform taugen – meist ist eine Neuinvestition fällig. Denn schließlich leisten Server neueren Datums durch Multicore- und Multiprozessor-Architekturen mehr, ohne im Betrieb auch erheblich mehr zu kosten. Dazu kommen die schon erwähnten Einsparungen bezüglich Platz und Kühlung. Neue x86-2-Sockel Server für virtualisierte Umgebungen kosten etwa ab 3000 Euro; Server, die auch für Datenbankanwendungen tauglich sind, natürlich erheblich mehr. „Je mehr Sockets, desto mehr VMs auf der Hardware“, erklärt IDC-Experte Nebuloni dazu.

Zu virtualisierten Servern gehört eine Shared-Storage-Umgebung auf Fibre-Channel- oder NAS-Basis, sofern diese nicht schon vorhanden ist. In mittelständischen Firmen wird man aus Preisgründen eher auf iSCSI zurückgreifen. Direkt an den Server angebundene Speicher haben in virtualisierten Umgebungen eigentlich nichts mehr zu suchen. Dazu kommt gegebenenfalls die nötige Kommunikationstechnik. Bei den Speichern werden mögliche Einsparungen durch gemeinsame Nutzung oft wegen des Datenwachstums schnell wieder aufgezehrt. Deshalb sind hier mögliche Einsparungen auch schwerer kalkulierbar.

Als nächstes gilt es, die Softwarekosten neu zu berechnen, und zwar für Virtualisierungs-Software und Anwendungen. Zwar kommen viele Hypervisoren mit Grundfunktionalität heute kostenlos, doch alles, was darüber hinaus geht, muss bezahlt werden. Die Kosten für Anwendungen in virtualisierten Umgebungen richtig zu berechnen, ist schwierig. Denn nahezu jeder Anbieter hat eigene Modelle der Lizenzkalkulation. Hier hilft nur genaues Recherchieren und Rechnen, will man unangenehme Überraschungen vermeiden.

Schulung, Beratung und Support nicht vergessen

Besonders aufmerksam sollte IT-Manager hinsichtlich der Kosten für das Management sein: Viele segensreiche Wirkungen der Virtualisierung dürften sich nämlich nur dann in vollem Umfang einstellen, wenn hier über den Grundumfang hinaus investiert wird. Kluge CIOs haben diese Perspektive von Anfang an im Blick – auch wenn sie vielleicht am Anfang erst einmal einen kleinen Bereich virtualisieren.

Auch das grundlegende IT-Management verändert sich. „Die Administratoren müssen jetzt logische Maschinen statt Hardware verwalten, das ist eine Umstellung“, betont Nebuloni. „Wenn Unternehmen das nicht regelrecht planen, werden sie vielleicht sogar neue Mitarbeiter dafür brauchen.“ Den Schulungsbedarf pro Administrator schätzt VMware-Mann Breneis auf vier bis fünf Tage für Einsteiger und weitere zwei bis drei Tage für Fortgeschrittene. Pro Schulungstag und Person sollte man je nach Anbieter mit 400 bis 700 Euro Kosten rechnen. Brauchen Unternehmen zusätzliche Beratung, etwa für die Analyse der Hard- und Softwarebestände oder die Konfiguration einer vernünftigen Lösung, ist mit einem Preis von 800 Euro pro Manntag zu rechnen. Mehr als 20 bis 30 Prozent vom Projektvolumen sollten für Dienstleistung aber nicht veranschlagt werden.

Hinzu kommt unter Umständen Programmierleistung. Will man zum Beispiel ein automatisiertes Provisioning von Software im virtualisierten Bereich realisieren, müssen eventuell Teile von Hand erstellt werden. Das sei etwa nötig, wenn Microsofts SQL-Server-Stack auf virtuellen Maschinen laufen soll, berichtet Gartner-Experte Wolf: „Hier müssen spezielle Informationen an den Server übergeben werden, wofür keine vorgefertigte Routine existiert.“

Die Gegenrechnung umfasst neben den eingesparten Strommengen und Flächen, die noch relativ einfach zu kalkulieren sind, vor allem die niedrigeren Managementkosten. Denn gerade große Unternehmen werden nach Projekten zur Server-Virtualisierung weniger Mitarbeiter im Support benötigen. Einsparungen von 20 bis 30 Prozent im Betrieb hält Experton-Analyst Schwab für realistisch, wobei 15 Prozent auf das Personal entfallen. Es könne aber auch einmal mehr sein. Auch Wolf ist sich sicher: „Gespart wird mit Server-Virtualisierung auf jeden Fall. Nur dauert die Amortisation vielleicht nicht sechs Monate wie vorgesehen, sondern 13 bis 14 Monate.“ (wh)