Ratgeber Data Center

Server-Kosten in den Griff bekommen

31.05.2010 von Klaus Hauptfleisch
Mehr Server-Leistung im Data Center bei insgesamt niedrigeren Kosten - das wünschen sich IT-Manager. Die Zauberworte heißen Standardisierung, Konsolidierung und Virtualisierung.

"Irgendwann führt kein Weg daran vorbei, die eigene Server-Landschaft zu modernisieren", sagt Armin Bergbauer, CIO beim Münchener Broadline-Distributor Ingram Micro Deutschland. "Das hat auch mit auslaufenden Wartungsverpflichtungen der Hersteller zu tun. Nach sechs oder sieben Jahren ist meist endgültig Schluss."

Auf Rechenzentren (RZ) entfallen laut Marktforscher Gartner rund 21 Prozent aller IT-Ausgaben. Die größten Einsparpotenziale versprechen dabei die physikalische Konsolidierung oder gar Virtualisierung der Server-Landschaft. Solche Vorhaben sind laut der Anwenderstudie "IT-Kompass 2010" von COMPUTERWOCHE und IDC für die meisten deutschen CIOs immer noch Topthemen im Hardwarebereich. In Sachen Software rücken dagegen Migrationen auf Windows 7 und neue Business-Applikationen (ERP, CRM, BI) in den Vordergrund.

Bevor an Konsolidierung oder Virtualisierung gedacht werden kann, sollten die Unternehmen Gartner zufolge erstmal eine Bestandsaufnahme vornehmen, sprich alle Hard- und Softwaresysteme lückenlos erfassen. In einem konsequent eingeführten und durchgesetzten Software-Portfolio-Management sieht Bergbauer zunächst die größten Potenziale, wenn es darum geht, dem in vielen Jahren entstandenen Wildwuchs von Anwendungen auf Basis unterschiedlicher Betriebssysteme und Plattformen beizukommen. Das Stichwort heißt Standardisierung.

Die besten Tools für Server
Software und Utilities für Server
Mit großem Zeitaufwand müssen Unternehmen für einen reibungslosen Betrieb der Server-Systeme sorgen. Mit den richtigen Tools können sie die Server-Verwaltung vereinfachen und zusätzliche Funktionen nutzen.
Disk2vhd
Mit dem kostenlosen Tool Disk2vhd aus den Microsoft Sysinternals können Sie über eine grafische Oberfläche per Mausklick ein Image von physischen Festplatten erstellen.
EventLog Inspector
Der EventLog Inspector erleichtert Administratoren den Umgang mit dem Ereignisprotokoll von Windows. Aufgelaufene Systemmeldungen der Clients lassen sich damit an zentraler Stelle sammeln und auswerten.
HWiNFO32
Das Tool informiert den Anwender detailliert über seine installierte Hardware und stellt sogar Benchmarks für Prozessor, Speicher und Festplatten zur Verfügung.
PowerGUI
Die Freeware PowerGUI von Quest ermöglicht das Zusammenstellen von PowerShell-Befehlen in einer übersichtlichen grafischen Oberfläche. Mit dem mitgelieferten Editor lassen sich darüber hinaus sehr effizient neue Skripts erstellen.
Prime95
Das kostenlose Stresstest-Tool Prime95 setzt die CPU und den Arbeitsspeicher in einem PC-System unter Volllast. Damit lassen sich Server, PCs und Notebooks sehr gut auf Dauerstabilität, ausreichende Kühlmaßnahmen und optimale BIOS-Einstellungen überprüfen.
ServerSentinel
Mit ServerSentinel lassen sich Server und andere Netzwerkressourcen automatisch und zuverlässig von zentraler Stelle aus überwachen. Treten Fehler oder Auffälligkeiten auf, informiert das kostenpflichtige Tool den Administrator zeitnah und erhöht so die Verfügbarkeit der IT-Infrastruktur.
WhoCrashed
Wenn Windows mit einem Bluescreen stehenbleibt, sind die Fehlermeldungen in der Regel nichtssagend - oder so kryptisch, dass die Ursache im Dunkeln bleibt. Deutlich bessere Chancen, das zugrunde liegende Problem zu lösen, bietet das in der Home Edition kostenlose Programm WhoCrashed.
WSUS Offline Update
WSUS Offline Update lädt alle vom Hersteller bereitgestellten Aktualisierungen für die Offline-Installation herunter und läuft auch unter Linux.
Cloudability
Bei Cloudability handelt es sich um einen Service, der Firmen adressiert, die die Kosten von Cloud-Diensten analysieren und stets im Blick behalten möchten.
Pingdom
Pingdom ist ein einfach gehaltenes, aber sehr nützliches Online-Tool für Web-Administratoren, die ihre Server und Websites professionell überwachen möchten. Es bietet neben den nötigen Features auch ein hohes Mass an Usability und Flexibilität. Dies macht das Tool sowohl für Einsteiger als auch für Profis attraktiv.
Chef
Chef zählt neben Puppet, Ansible und SaltStack zu den führenden IT-Automation-Systemen, die derzeit auf dem Markt verfügbar sind. Davon können vor allem größere IT-Organisationen profitieren, die die Verwaltung komplexer Systemlandschaften ohne Automatisierungstools kaum bewältigen könnten.

Anwendungs- und Datenkonsolidierung

Gartner geht davon aus, dass Unternehmen durch Standardisierung bei den Anwendungen die IT-Kosten um mehr als 25 Prozent senken können. Es genügt eben nicht, die alten Silos durch leistungsfähigere Systeme zu ersetzen. Denn eigentliche "Wurzel des Übels" ist der von den diversen Abteilungen aufgebaute Wust von Daten, Anwendungen und kleineren Softwareanpassungen. Teilweise redundant oder fehlerhaft sowie auf verschiedenen Technologieplattformen verteilt, haben diese Systeme zu der Server-Vielfalt in den Rechenzentren geführt. Entsprechend groß sind hier die Einsparpotenziale durch Standardisierung, Zentralisierung, Deduplizierung und Konsolidierung auf weniger Komponenten und Storage-Bereiche.

Im Data Center gehören neben den Servern auch viele weitere Komponenten wie Speicher, USV und Kühlung zu den großen Stromfressern.

Durch konsequente Standardisierung und Einführung aktueller Software könnten Unternehmen die Hälfte ihrer Server über Bord werfen. Auch wenn x86- oder Intel-basierende Systeme sich immer mehr durchsetzen, haben die vermeintlichen Standard-Server aufgrund günstiger Anschaffungskosten viel dazu beigetragen, dass jede größere Anwendung praktisch auf einem eigenen Server läuft. Das ist alles andere als wirtschaftlich, zumal die Server-Vielfalt meist mit hohen Administrations- und Lizenzkosten verbunden ist. Bergbauer zufolge hat Ingram Micro durch die europaweite Einführung der Virtualisierung in der Wintel-Welt viele kleine Applikationen im Verhältnis 10:1 zusammengeführt. Der Stromverbrauch soll sich auch dank neuer Prozessortechnologie und optimaler Auslastung der Kapazitäten in etwa halbiert haben. Hinzu komme ein geringerer Aufwand für die Klimatisierung. Insgesamt habe der Distributor somit 7.000 kWh eingespart und die Umwelt um vier Tonnen CO2 pro Jahr entlastet.

Konsolidieren mit Blades

Server-Konsolidierung und -Virtualisierung werden oft in einem Atemzug genannt. Sie sind für viele IT-Manager in letzter Konsequenz auch nicht trennbar. Da die Virtualisierung trotz aller Vorteile nicht trivial ist und teilweise hohe Anfangskosten mit sich bringen kann, entscheiden sich gerade kleinere und mittelständische Unternehmen (KMUs) zunächst für die "einfache" Server-Konsolidierung. Gemeint ist das Zusammenlegen mehrerer kleiner Data Center zu einem großen bei gleichzeitiger Verringerung der Serverzahl, was an sich schon eine bessere Auslastung und höhere Gesamteffizienz bei geringeren Betriebs- und Wartungskosten verspricht. Gartner-Kunden berichten, dass sie durch Konsolidierungsprojekte einschließlich Storage und Netzwerke mehr als 20 Prozent der Kosten eingespart haben.

Blade-Server sind laut Jens Tintrup, Geschäftsführer der Tintrup GmbH in Lüdinghausen, neben der Virtualisierung eine Möglichkeit der Konsolidierung der Rechenleistung. Dabei schließen sich Blade-Systeme und Virtualisierung beileibe nicht aus. Im Gegenteil gelten Blades als ideale Plattform für die Virtualisierung, worauf die Hersteller, allen voran Hewlett Packard (HP) und IBM, immer wieder hinweisen. Wie eine neue IDC-Umfrage zeigt, ist der Virtualisierungsgrad bei vielen Unternehmen umso höher, je mehr Blade-Systeme im Einsatz sind.

Blades gelten nicht nur als besonders skalierbar und platzsparend, sie sollen auch 40 bis 50 Prozent weniger Energie verbrauchen als vergleichbare Systeme. Ein weiterer Vorteil von Blade-Servern ist laut Tintrup, dass die Last durch Load Balancing auf mehrere Server im Netzwerk verteilt werden kann. Bei einem kleinen Blade-System mit sechs Servern und jeweils zwei Festplatten lässt sich die Serverleistung auf die zwölf Platten beliebig verteilen und dynamisch zuordnen.

Königsweg Virtualisierung

Egal ob es darum geht, Rechenleistung oder Speicherplatz zu konsolidieren, gilt die Virtualisierung als Königsweg der Konsolidierung, auch und gerade, um einer weiteren Zunahme der physischen Server entgegenzuwirken. Ein wesentlicher Vorteil der Virtualisierung ist die bedarfsgerechte Zuteilung von Ressourcen, was eine deutlich höhere Auslastung der physischen Server verspricht.

Gartner-Analyst Andrew Butler plädiert für eine konsequente Server-Virtualisierung.
Foto: Gartner

Gartner-Analyst Andrew Butler lobt die Virtualisierung als eine der wichtigsten Komponenten, wenn es darum geht, "die Leistungsdichte zu erhöhen und die Data Center vertikal zu skalieren". Richtig verstanden, lasse sich durch Virtualisierung die Server-Auslastung von mageren sieben bis zwölf Prozent auf 40, 50 oder noch mehr Prozent steigen. "Hinzu kommen andere Vorteile wie weniger Platzbedarf, eine hohe Energieersparnis und Beweglichkeit, etwa durch schnellere Bereitstellungszeiten", so der Analyst. Er merkt jedoch an, dass die Virtualisierung am besten mit neuer Technologie vorgenommen werden sollte.

Hohe Einsparpotenziale mit Virtualisierung

Wie Gartner in einer Green-IT-TCO-Studie darlegt, lassen sich durch die Virtualisierung Auslastungsraten von maximal 70 Prozent erreichen. Effektiv genutzt, sollen Platz- und Energiebedarf um jeweils über 80 Prozent schrumpfen. Die dadurch erzielte Ersparnis wird durch die höheren Anschaffungskosten für leistungsstärkere Server sowie durch die Lizenz- und Wartungsgebühren für die virtuellen Maschinen (VM) zwar zum Teil wieder gemindert, ist aber immer noch immens. Unter der Annahme, dass vier Jahre nach Einführung der Virtualisierung elf Racks mit 273 physischen Servern im Verhältnis 7:1 genauso viel leisten wie 74 traditionelle Racks mit 1.911 physischen Servern, kommt das Marktforschungsinstitut trotz der genannten Installations- und VM-Kosten auf eine Ersparnis von knapp 3,1 Millionen Dollar über den gesamten 4-Jahreszeitraum.

Wo ist der virtuelle Haken?

Doch warum scheuen gerade viele kleinere Unternehmen noch den Schritt? Neben den hohen Anfangskosten, welche die Umstellung mit sich bringt, fehlt es oft auch an qualifiziertem Personal. IDC-Analyst Thomas Meyer empfiehlt daher, mit kleinen Projekten zu beginnen und die Virtualisierung im Rahmen der Konsolidierung Schritt für Schritt einzuführen.

Beim Kauf neuer Lösungen sollte allerdings darauf geachtet werden, dass die Applikationen und die Systemsoftware auch für die Virtualisierung freigegeben sind. Die Virtualisierungssoftware selbst kann zusätzliche Kosten verursachen, muss es aber nicht, denn Citrix bietet beispielsweise den XenServer seit einem Jahr kostenlos an. Entsprechend stark steigt der Marktanteil solcher Systeme, obwohl kostenpflichtige Virtualisierungsplattformen, allen voran VMware mit dem ESX-Flaggschiff, laut IDC mit 72 Prozent Anteil immer noch weit vorn liegen. Virtualisierung bringt aber noch weitere Zusatzkosten mit, denn sie erfordert besondere Anstrengungen bezüglich Disaster Recovery, Backup und Spiegelung (Mirroring). Werden sie unterlassen, können schnell wichtige Daten verloren gehen. Gespiegelt wird meist in Echtzeit, was wiederum besondere Anforderungen an die Bandbreite stellt.

Butler zufolge wirft die Konsolidierung beziehungsweise Virtualisierung mit Multi-Core- und Multi-Threading-Lösungen außerdem Lizenzfragen auf. Teilweise wird heute schon nicht mehr einfach nach einzelnen Systemen oder Prozessoren, sondern nach Zahl der Prozessorkerne abgerechnet, was sich bei dem Trend von derzeit vier bis acht Kernen oder gar 16 in zwei Jahren laut Butler noch verstärken könnte.

Storage-Konsolidierung

Angesichts des rasant wachsenden Datenaufkommens gewinnt neben der Auslagerung gewisser Anwendungen und Daten in der viel zitierten Cloud auch die Storage-Konsolidierung zunehmend an Bedeutung. Dabei bietet die Virtualisierung auch hier wieder die größeren Potenziale. Doch wie verschiedene Herstellervertreter auf einem TecChannel-Roundtable Anfang 2010 einräumten, werden diese Potenziale von den meisten KMUs noch viel zu wenig erkannt, geschweige denn genutzt. Von einer zentralisierten Single-Storage-Infrastruktur sind viele Unternehmen noch weit entfernt. Typischerweise werden für die Speicherkonsolidierung NAS- oder SAN-Lösungen eingesetzt, wobei Fibre-Channel-SAN laut Netzwerkspezialist Tintrup zwar viel effizienter und flexibler, dafür aber auch doppelt so teuer ist wie iSCSI-SAN.

Bei Investitionen die TCO im Auge haben

Ob Konsolidierung oder Virtualisierung - Unternehmen, die sich heute für eine Investition entscheiden, achten viel mehr auf die Gesamtkosten über den Betriebszeitraum (Total Cost of Ownership, kurz TCO) als auf die einmaligen Anschaffungskosten, betont Gartner-Analyst Butler. Administration, Wartung, Stromkosten und Softwarelizenzen sind ihm zufolge immense Kostenblöcke, welche im Laufe der Betriebsdauer den einmaligen Anschaffungspreis für die Hardware mitunter bei weitem übertreffen. Allein die Stromkosten zum Beispiel schon nach weniger als drei Jahren.

Die jährlichen Wartungsgebühren sollten laut Butler nicht höher als 10 Prozent des Kaufpreises sein, Einzel-Server vorausgesetzt. Unternehmensweite Wartungsverträge seien meist günstiger. Wenn es um Rabattverhandlungen für Wartung, Software und Support geht, sollten Kunden idealerweise dieselben Nachlässe bekommen wie auf die Hardware, was Butler aber angesichts der Rabattschlachten um die Hardware für nicht mehr realistisch hält.

Wartungsverträge: Rezession nutzen

Butler zufolge hat sich in der Krise das Verhalten der Anbieter bezüglich der Gewährung von Rabatten komplett gewandelt. Wurde früher in der Regel mit hohen Hardware-Rabatten gelockt, um dann bei Wartung und Support zu geizen, sind die Hersteller heute meist so klamm, dass sie den Kunden lieber günstige Pauschalen für mehrjährige Wartung verkaufen als im Preis nachzugeben. Sollten die Wartungskosten konstant bleiben oder steigen, könne sich das durchaus lohnen. "Die Kunden können jetzt die Rezession in ihren Vorteil verwandeln. Vergessen Sie nicht, dass sie ein langfristiges Commitment eingehen, wenn sie einen Unix-Server kaufen. Der hockt schließlich vier oder fünf Jahre, wenn nicht noch länger im Rechenzentrum", so der Gartner-Analyst. Falls die Entwicklung der Wartungskosten unklar ist oder neue Technologiestandards winken, sollten sich die Kunden andererseits hüten, sich auf längere Wartungsverträge einzulassen und eventuell auf eine jährliche oder zweijährige Anpassung beharren, rät Butler.

Fazit

Man muss kein Herkules sein, um den Server-Stall im Data Center auszumisten. Die nötigen Investitionen halten sich meist in den Grenzen. Die Vorteile wie mehr Leistung auf engerem Raum bei geringerem Energieverbrauch und sinkenden Gesamtkosten (TCO) liegen auf der Hand. Wer heute noch nicht über Konsolidierung und Virtualisierung nachgedacht hat, sollte es bald tun und nicht erst warten, bis der Herstellersupport für die alten Systeme ausläuft. (wh)