Die Konsolidierung von Rechenzentren bietet enorme Vorteile. So können Kosten gesenkt und die Effizienz gesteigert werden. Auf dem Weg dorthin lauert jedoch so mancher Fallstrick. In einer aktuellen Untersuchung haben die Analysten von Gartner die acht häufigsten Fehler bei der Server-Konsolidierung im Data Center ermittelt.
Irrtum1: Am Ende sollten möglichst wenige und möglichst große Server im Data Center stehen
Viele IT-Verantwortliche versuchen bei der Konsolidierung ihrer Serverlandschaft möglichst viel Platz im Rechenzentrum einzusparen und die Anzahl der physischen Server soweit wie irgend möglich zu reduzieren. Wie Gartner jetzt ermittelt hat, erweist sich ein solches Vorgehen im schlimmsten Fall sogar als kontraproduktiv.
So vergessen viele RZ-Manager schlicht die Frage der Skalierbarkeit. Ist ein Rechenzentrum erst einmal auf das absolute Minimum eingedampft, bleibt häufig kein Spielraum für späteres Wachstum. Ist ein Engpass erreicht, müssen möglichst schnell neue Server beschafft werden. Kosteneinsparungen durch die vorangegangene Server-Konsolidierung werden so schnell wieder marginalisiert.
Zum zweiten muss die Frage der Software-Lizensierung in die Überlegungen mit einfließen. Obwohl in diesem Bereich Kosten eingespart werden können, kann im schlimmsten Fall auch das Gegenteil eintreten. So kann es beispielsweise vorkommen, dass ein Kunde einen virtualisierten Server auf zwei von acht Prozessoren betreibt, während der Softwarehersteller zur Berechnung der Lizenzkosten die nominelle Hardwareleistung von acht CPUs heranzieht.
Irrtum 2: Je mehr Server man konsolidiert, umso besser
Irgendwann ist bei jedem Projekt zur Server-Virtualisierung der Punkt erreicht, an dem es genug ist. Will man das absolute Maximum an Einsparpotential erreichen, muss man auf den letzten Metern unverhältnismäßig viel Arbeitskraft und Geld investieren. Viele werden in dieser Phase betriebsblind und übersehen, dass der ROI (Return on Invest) für immer weiter vorangetriebene Konsolidierung irgendwann immer kleiner wird.
So kann es beispielsweise nötig werden, in unverhältnismäßig teure neue Server zu investieren. Darüber hinaus können, wie schon erwähnt, zusätzliche Kosten für Softwarelizenzen die Folge sein. Zudem müssen neue Data Center häufig über neue und teure High-Speed-Netzwerke angebunden werden.
Irrtum 3: Server-Konsolidierung bedeutet, auf einen einzigen Hersteller zu setzen
Manchmal ergibt es Sinn, im Zuge der Konsolidierung der eigenen Serverlandschaft auf Geräte eines einzigen Herstellers zurückzugreifen. So bieten viele Hersteller Kampfpreise, wenn man bei einem Konsolidierungs-Projekt exklusiv auf ihre Geräte zurückgreift.
In den meisten Fällen bietet es sich jedoch an, auf zwei Hersteller zu setzen. Auf diese Weise vermeidet man eine Abhängigkeit von einem einzigen Anbieter. Gerade Verzögerungen bei der Produktentwicklung und Auslieferung neuer Server können so reduziert werden. Zudem stärkt ein solches Vorgehen die Verhandlungsposition gegenüber den einzelnen Herstellern.
Irrtum 4: Alle Workloads lassen sich gleichermaßen virtualisieren
Virtualisierungs-Technologien haben sich in den letzten Jahren enorm weiterentwickelt. Längst geht es nicht mehr nur um die Virtualisierung von Test- und Entwicklungs-Servern. Nichtsdestotrotz ist bisher noch nicht der Punkt erreicht, an dem man Performance-Aspekte außer Acht lassen könnte. So benötigen manche Anwendungen physische Hardware-Ereignisse, um zuverlässig zu funktionieren. Zum Teil werden auch spezifische Time Stamps benötigt. Hypervisoren und Virtualisierungstechnologien können bisher noch nicht sicherstellen, dass diese Trigger und Zeitstempelgesetzt werden. Dies kann negative Auswirkungen auf die Genauigkeit der Messung und Berechnung von Ressourcen haben. Die Notwendigkeit exakt terminierter Aktionen verbietet es daher bestimmte Anwendungen, etwas zur Prozess-Kontrolle zu virtualisieren.
Eine andere Gruppe von Anwendungen, bei der Anwender mit der Virtualisierung vorsichtig sein sollten, sind Input/Output (I/O)-intensive Prozesse. Während der IBM-Mainframe das Problem hardwareseitig gelöst hat, tun sich andere Server-Plattformen hier nach wie vor schwer.
Irrtum 5: Server-Konsolidierung reduziert die Total Costs of Ownership (TCO) drastisch
Wer mit einer drastischen Reduzierung der TCO mittels Server-Virtualisierung rechnet, muss sich auf eine Enttäuschung gefasst machen. Ein gut strukturiertes Konsolidierungs-Projekt kann zwar zu einer verbesserten Kostenstruktur führen. Es gibt jedoch keine Garantie, dass dies automatisch auch die günstigste Alternative ist, insbesondere dann, wenn man die Gesamtkosten des Konsolidierungs-Projekts inklusive Arbeitskosten mit einbezieht.
Irrtum 6: Konsolidierte und virtualisierte Server arbeiten genauso wie vorher, nur eben auf weniger physischen Rechnern
Server-Konsolidierung hat einen enormen Einfluss auf den Betrieb von Data Centern. Daher empfehlen die Analysten von Gartner, immer eine Impact-Analyse durchzuführen, um sich gegen die häufigsten Probleme zu wappnen. Zu diesen zählen beispielsweise:
-
Veränderungen in der Speichermenge, auf die ein Server zugreift
-
Veränderungen bei den Speichermedien, auf die ein Server zugreift
-
Auf Grund der zusätzlichen Anwendungen auf einem Server benötigen Backups mehr Zeit
-
Änderungen in Business-Continuity-Plänen, Notwendigkeit neuer Pläne und Bewertungen
-
Veränderungen in Arbeitsabläufen, bedingt durch eine neue Kombination der Anwendungen
Irrtum 7: Hat man die Server konsolidiert, ist die Arbeit getan
Entgegen der verbreiteten Meinung, endet die Arbeit nicht mit dem Ende eines Konsolidierungs-Projekts. Für die meisten Firmen bedeutet die Konsoliderung der Server zuallererst einmal ein Aufräumen mit dem Wildwuchs im Data Center. Dementsprechend spricht man hier auch von „Backward Consolidation“. Viele vergessen jedoch nach der Konsolidierung, mittels „Forward Consolidation“ einem erneuten Wildwuchs vorzubeugen. Letztere führt langfristig zu einem größeren ROI.