Ratgeber Server-Konsolidierung

So vermeiden Sie die häufigsten Irrtümer

15.12.2011 von Alexander Dreyßig
Lesen Sie, welches die acht häufigsten Irrtümer bei der Server-Konsolidierung sind und wie sie diese vermeiden können.

Die Konsolidierung von Rechenzentren bietet enorme Vorteile. So können Kosten gesenkt und die Effizienz gesteigert werden. Auf dem Weg dorthin lauert jedoch so mancher Fallstrick. In einer aktuellen Untersuchung haben die Analysten von Gartner die acht häufigsten Fehler bei der Server-Konsolidierung im Data Center ermittelt.

Die größten Irrtümer bei der Server-Konsolidierung
Irrtum1:
Am Ende sollten möglichst wenige und möglichst große Server im Data Center stehen
Irrtum 3:
Server-Konsolidierung bedeutet, auf einen einzigen Hersteller zu setzen
Irrtum 4:
Alle Workloads lassen sich gleichermaßen virtualisieren
Irrtum 5:
Server-Konsolidierung reduziert die Total Costs of Ownership (TCO) drastisch
Irrtum 6:
Konsolidierte und virtualisierte Server arbeiten genauso wie vorher, nur eben auf weniger physischen Rechnern
Irrtum 7:
Hat man die Server konsolidiert, ist die Arbeit getan<br /><br />Bild: Mareen Friedrich/Fotolia.com

Irrtum1: Am Ende sollten möglichst wenige und möglichst große Server im Data Center stehen

Viele IT-Verantwortliche versuchen bei der Konsolidierung ihrer Serverlandschaft möglichst viel Platz im Rechenzentrum einzusparen und die Anzahl der physischen Server soweit wie irgend möglich zu reduzieren. Wie Gartner jetzt ermittelt hat, erweist sich ein solches Vorgehen im schlimmsten Fall sogar als kontraproduktiv.

So vergessen viele RZ-Manager schlicht die Frage der Skalierbarkeit. Ist ein Rechenzentrum erst einmal auf das absolute Minimum eingedampft, bleibt häufig kein Spielraum für späteres Wachstum. Ist ein Engpass erreicht, müssen möglichst schnell neue Server beschafft werden. Kosteneinsparungen durch die vorangegangene Server-Konsolidierung werden so schnell wieder marginalisiert.

Zum zweiten muss die Frage der Software-Lizensierung in die Überlegungen mit einfließen. Obwohl in diesem Bereich Kosten eingespart werden können, kann im schlimmsten Fall auch das Gegenteil eintreten. So kann es beispielsweise vorkommen, dass ein Kunde einen virtualisierten Server auf zwei von acht Prozessoren betreibt, während der Softwarehersteller zur Berechnung der Lizenzkosten die nominelle Hardwareleistung von acht CPUs heranzieht.

Irrtum 2: Je mehr Server man konsolidiert, umso besser

Wie bei jedem anderen Thema auch, sollte man bei der Server-Konsolidierung wissen wann Schluss ist. Bild: Fotolia, Bozworthington
Foto: Fotolia, Bozworthington

Irgendwann ist bei jedem Projekt zur Server-Virtualisierung der Punkt erreicht, an dem es genug ist. Will man das absolute Maximum an Einsparpotential erreichen, muss man auf den letzten Metern unverhältnismäßig viel Arbeitskraft und Geld investieren. Viele werden in dieser Phase betriebsblind und übersehen, dass der ROI (Return on Invest) für immer weiter vorangetriebene Konsolidierung irgendwann immer kleiner wird.

So kann es beispielsweise nötig werden, in unverhältnismäßig teure neue Server zu investieren. Darüber hinaus können, wie schon erwähnt, zusätzliche Kosten für Softwarelizenzen die Folge sein. Zudem müssen neue Data Center häufig über neue und teure High-Speed-Netzwerke angebunden werden.

Irrtum 3: Server-Konsolidierung bedeutet, auf einen einzigen Hersteller zu setzen

Wer auf einen einzigen Hersteller setzt begibt sich schnell in eine gefährliche Abhängigkeit.
Foto: Shutterstock, Andresr

Manchmal ergibt es Sinn, im Zuge der Konsolidierung der eigenen Serverlandschaft auf Geräte eines einzigen Herstellers zurückzugreifen. So bieten viele Hersteller Kampfpreise, wenn man bei einem Konsolidierungs-Projekt exklusiv auf ihre Geräte zurückgreift.

In den meisten Fällen bietet es sich jedoch an, auf zwei Hersteller zu setzen. Auf diese Weise vermeidet man eine Abhängigkeit von einem einzigen Anbieter. Gerade Verzögerungen bei der Produktentwicklung und Auslieferung neuer Server können so reduziert werden. Zudem stärkt ein solches Vorgehen die Verhandlungsposition gegenüber den einzelnen Herstellern.

Irrtum 4: Alle Workloads lassen sich gleichermaßen virtualisieren

Manche Workloads lassen sich nicht ohne Performance-Einbußen virtualisieren.
Foto: stock.xchng/brcwcs

Virtualisierungs-Technologien haben sich in den letzten Jahren enorm weiterentwickelt. Längst geht es nicht mehr nur um die Virtualisierung von Test- und Entwicklungs-Servern. Nichtsdestotrotz ist bisher noch nicht der Punkt erreicht, an dem man Performance-Aspekte außer Acht lassen könnte. So benötigen manche Anwendungen physische Hardware-Ereignisse, um zuverlässig zu funktionieren. Zum Teil werden auch spezifische Time Stamps benötigt. Hypervisoren und Virtualisierungstechnologien können bisher noch nicht sicherstellen, dass diese Trigger und Zeitstempelgesetzt werden. Dies kann negative Auswirkungen auf die Genauigkeit der Messung und Berechnung von Ressourcen haben. Die Notwendigkeit exakt terminierter Aktionen verbietet es daher bestimmte Anwendungen, etwas zur Prozess-Kontrolle zu virtualisieren.

Eine andere Gruppe von Anwendungen, bei der Anwender mit der Virtualisierung vorsichtig sein sollten, sind Input/Output (I/O)-intensive Prozesse. Während der IBM-Mainframe das Problem hardwareseitig gelöst hat, tun sich andere Server-Plattformen hier nach wie vor schwer.

Irrtum 5: Server-Konsolidierung reduziert die Total Costs of Ownership (TCO) drastisch

Server-Konsolidierung ist nicht immer die günstigste Alternative Bild: Fotolia, K.-U. Häßler
Foto: K.-U. Häßler - Fotolia.com

Wer mit einer drastischen Reduzierung der TCO mittels Server-Virtualisierung rechnet, muss sich auf eine Enttäuschung gefasst machen. Ein gut strukturiertes Konsolidierungs-Projekt kann zwar zu einer verbesserten Kostenstruktur führen. Es gibt jedoch keine Garantie, dass dies automatisch auch die günstigste Alternative ist, insbesondere dann, wenn man die Gesamtkosten des Konsolidierungs-Projekts inklusive Arbeitskosten mit einbezieht.

Irrtum 6: Konsolidierte und virtualisierte Server arbeiten genauso wie vorher, nur eben auf weniger physischen Rechnern

Server-Konsolidierung hat einen enormen Einfluss auf den Betrieb von Data Centern. Daher empfehlen die Analysten von Gartner, immer eine Impact-Analyse durchzuführen, um sich gegen die häufigsten Probleme zu wappnen. Zu diesen zählen beispielsweise:

Irrtum 7: Hat man die Server konsolidiert, ist die Arbeit getan

Für den größten ROI ist kontinuierliches Arbeiten gefragt. Bild: Mareen Friedrich/Fotolia.com
Foto: Mareen Friedrich - Fotolia.com

Entgegen der verbreiteten Meinung, endet die Arbeit nicht mit dem Ende eines Konsolidierungs-Projekts. Für die meisten Firmen bedeutet die Konsoliderung der Server zuallererst einmal ein Aufräumen mit dem Wildwuchs im Data Center. Dementsprechend spricht man hier auch von „Backward Consolidation“. Viele vergessen jedoch nach der Konsolidierung, mittels „Forward Consolidation“ einem erneuten Wildwuchs vorzubeugen. Letztere führt langfristig zu einem größeren ROI.