Ratgeber Data Center Kosten

Auf die richtige RZ-Größe kommt es an

07.03.2011 von Dirk  Schiller
Wer die Kosten im Rechenzentrum im Griff behalten will, muss überdimensionierte IT-Infrastrukturen vermeiden.

Eine wesentliche Stellschraube zum Kostensenken im Rechenzentrum ist das sogenannte Rightsizing der vorhandenen Infrastruktur beziehungsweise IT-Services. Die Frage, die sich IT-Verantwortliche und Fachabteilungen heute stellen müssen, lautet: Wie viel IT und welche Servicequalität wird tatsächlich für die Geschäftsanforderungen benötigt? Traditionell sind viele Infrastrukturen nicht an den tatsächlichen Bedarf angepasst und tendenziell überdimensioniert. Hohe Kosten entstehen unter anderem durch wenig oder gar nicht genutzte Software und schlecht ausgelastete Hardware, die Strom, Kühlung und Fläche verbraucht.

Im Zeitalter des Cloud Computing empfiehlt sich beispielsweise folgende Rightsizing-Strategie: Das eigene Data Center wird für eine durchschnittliche jährliche Auslastung dimensioniert. Bedarfsspitzen für Applikationen, die dies heute schon technologisch und unter Compliance-Aspekten erlauben, lassen sich über eine Public Cloud oder Virtual Private Cloud abdecken. Zusätzlich können Unternehmen Kapazitäts- und Performance-Management-Systeme einführen, die die kontinuierliche Steuerung optimieren. Beispiele sind Verfahren zur Komplettabschaltung von Geräten oder das Ressourcenmanagement für eine effiziente Server-Auslastung.

Best of Open Source 2011 - Data Center- und Cloud-
Best of Open Source 2011 - Data Center- und Cloud-Software
Eucalyptus und OpenStack
Eucalyptus und OpenStack bringen die Vorteile der Public Cloud ins unternehmenseigene Rechenzentrum.
Gluster
Gluster punktet als dezentralen, verteiltes Dateisystem.
Talend Open Studio
Talend Open Studio ist der unangefochtene Open Source-Spitzenreiter im Bereich Daten-Mangement und Daten-Integration.
Vyatta
Vyatta kann als Open Source Netzwerk-OS insbesondere durch seine Security-Features überzeugen.
Xen
Dank der Integration in Linux hat es Xen dieses Jahr unter die Besten geschafft.
WSO2
WSO2 hat sich dieses Jahr dank verbesserter ESB und Governance Registry-Komponenten einen Platz in der Riege der besten Open Source Software verdient.

Für den Betrieb eines Rechenzentrums müssen IT-Leiter vier Hauptkostenblöcke einkalkulieren: Personal, Energie, Hardware und Software. Die Aufwendungen für Software ergeben sich allerdings meist durch Anforderungen der Fachabteilungen und zählen in der Regel nicht zu den direkt beeinflussbaren Kosten im Data Center. Bevor die Kosten allerdings nachhaltig gesenkt werden können, sollten Unternehmen ihre individuellen Ausgaben nach Art und Höhe genau analysieren. Nur so lässt sich feststellen, mit welcher Maßnahme - vom neuen Management-Framework über die Optimierung der Klimatechnik bis hin zur Server-Virtualisierung - am effizientesten gespart werden kann.

Vier Trends im Bereich Rechenzentrum

Folgende Entwicklungen werden nach Einschätzung von Emerson Network Power, einem Hersteller von Komponenten für Rechenzentren, die Entwicklung im Data-Center in den kommenden Jahren prägen:
Eine deutliche höhere Dichte von Systemen:
Die Wärmeleistung pro Rack steigt demnach im Schnitt von etwa 11 Kilowatt im laufenden Jahr und bis auf 17 kW im Jahr 2019. Durch die höhere Packungsdichte benötigen solche Rechenzentren etwa 35 Prozent weniger Energie. Hinzu kommen Einsparungen durch den geringeren Platzbedarf. Ein Data Center mit etwa 800 Quadratmetern und einer Wärmeleistung von 20 kW pro Rack wird in wenigen Jahren dieselben Leistungswerte erreichen wie heute ein Rechenzentrum mit 3000 Quadratmetern. Die Einsparungen, bezogen auf die Baukosten, betragen in diesem Fall etwa zwischen 700.000 Euro und rund 2 Millionen Euro. <br /><br /> Allerdings erfordert die wachsende Rechenleistung pro Rack spezielle Kühlungs- und Stromversorgungssysteme. Notwendig ist eine Kombination von Kalt-/Warmgang-Konzepten in Verbindung mit Wasserkühlung und mit modularen "Power Distribution Units" (PDUs) im Rack. Dadurch lässt sich der Energiebedarf der Systeme pro Rack um etwa ein Drittel senken.
Verfügbarkeit gewinnt an Bedeutung:
Die Anforderungen an die Verfügbarkeit von Rechenzentren und den IT-Services, die über sie bereitgestellt werden, nimmt drastisch zu. Amazon beispielsweise garantiert für seinen Cloud-Computing-Service "Elastic Compute Cloud" (EC2) eine Verfügbarkeit von 99,95 Prozent. Das heißt, die Ausfallzeit pro Jahr darf 4,5 Stunden nicht überschreiten. <br /><br /> Ein Großteil der Systemausfälle in Data Centern geht laut Emerson Network Power auf Ausfälle der Stromversorgung oder Probleme mit der Kühlung zurück. Deshalb gewinnen unterbrechungsfreie Stromversorgungen an Bedeutung – auch deshalb, weil sie Spannungsspitzen ausfiltern und von Servern, Switches und Storage-Systemen fernhalten. <br /><br /> Ein weiterer Faktor, der die Anfälligkeit von Rechenzentren senkt, ist eine Verringerung der Zahl aktiver Komponenten in Kühlsystemen. Dies lässt sich beispielsweise durch eine verstärkte Kühlung mithilfe von Außenluft erzielen. Sie macht zumindest einen Teil der Lüfter, Gebläse und Pumpen innerhalb eines Data-Centers überflüssig.
Flexibilität ist ein zentraler Faktor:
Rechenzentren müssen stärker denn je mit Lastspitzen zurechtkommen. Auch diese Entwicklung wird durch Cloud-Computing forciert: Handelshäuser werden beispielsweise in der Vorweihnachtszeit Rechenkapazitäten hinzubuchen, in den Sommermonaten dagegen die Nachfrage reduzieren. Das heißt für Server, Stromversorgungssysteme und Klimaanlagen: Sie müssen ihre Leistung an die Nachfrage anpassen. Das war bislang nicht der Fall, speziell bei der Kühlung und Stromversorgung. Diese Systeme laufen in vielen Rechenzentren stets unter Volllast, was sich negativ auf die Kosten auswirkt. Modulare Stromversorgungen und Kühlsysteme, die sich automatisch an Veränderungen der Umgebungstemperatur anpassen, können dieses Problem lösen.
Managebarkeit gewinnt an Bedeutung:
Die Komplexität von Rechenzentren nimmt weiter zu, bedingt durch Virtualisierung, immer leistungsfähigere Server mit Mehrkernprozessoren und die angesprochene höhere Systemdichte. Die Konsequenz: IT-Verwalter benötigen Management-Tools, mit denen sie die Komponenten überwachen und steuern können. Das gilt nicht nur für aktive Komponenten, sondern auch für die Verkabelung und die Akkus von unterbrechungsfreien Stromversorgungen. Ein Infrastruktur-Management-System muss in Echtzeit Statusmeldungen übermitteln und dem Systemverwalter dabei helfen, bereits im Vorfeld Ausfälle von Geräten zu erkennen. <br /><br /> Ein weiterer Punkt, der häufig übersehen wird: Management heißt im Data Center auch das Verwalten des Raums, der für Racks und andere Komponenten zur Verfügung steht. Planungstools wie etwa Nlyte 6.0 von Nlyte helfen dabei, das Platzangebot optimal auszuschöpfen.

Was kostet mein RZ-Personal?

Beispielhafte Verteilung der IT-Kosten im produzierenden Gewerbe
Foto: Computacenter

Die Ausgaben für qualifizierte IT-Mitarbeiter machen momentan bis zur Hälfte der Gesamtkosten im Data Center aus. (siehe Grafik: Beispielhafte Verteilung der IT-Kosten im produzierenden Gewerbe) Der Anteil der Personalkosten variiert allerdings je nach Branche und Stellenwert der IT-Services im Unternehmen. Bei Finanzdienstleistern, die sich zu 100 Prozent auf die Verfügbarkeit ihrer Rechenzentren verlassen müssen, sind die IT-Ausgaben natürlich anders verteilt als bei Firmen, die IT nur als unterstützendes Werkzeug nutzen. Der Fachkräftemangel erschwert zusätzlich die Suche nach geeigneten Experten und treibt die Verdienste nach oben. 2011 werden CIOs zehn Prozent mehr Geld für Fachleute ausgeben müssen, erwarten die Marktforscher von IDC. Das liegt unter anderem an der komplizierteren Verwaltung von virtualisierten Umgebungen, für die erst 14 Prozent der befragten Unternehmen Management-Tools zu Hilfe nehmen. Hinzu kommt, dass zwei Drittel der IT-Manager die Kostenkontrolle im Data Center nicht priorisieren und daher gar nicht genau wissen, in welchen Bereichen ihr IT-Budget in welcher Höhe verbraucht wird.

Um ihre Mitarbeiter nachhaltig zu entlasten, sollten CIOs zunächst analysieren, welcher Personalaufwand für die einzelnen Services des Rechenzentrums entsteht. Weiter gilt es, sich den Ist-Zustand des Personalkostenblocks genau anzusehen. Hilfreich sind hier eigene Benchmarks, die zum Beispiel definieren, wie viele Server, Terabyte im SAN (Storage Area Network) oder Betriebssysteminstanzen ein Administrator verwaltet. Diese Kennziffern helfen, optimierungswürdige Bereiche zu identifizieren. Zu den personalentlastenden Maßnahmen gehört das Einführen von umfassenden Management-Frameworks mit einer einheitlichen Bedienoberfläche für virtuelle und physische Systeme, die komplette IT-Services automatisiert bereit stellen. Denn gerade in komplexen virtualisierten Umgebungen ist die manuelle Verwaltung von Servern und Speichern sehr fehleranfällig und aufwändig zu dokumentieren. Zentrale Verwaltungslösungen verteilen die Last automatisch und intelligent, so dass die Gesamtkapazität des Rechenzentrums reduziert wird. So gewinnen Mitarbeiter mehr Zeit für strategische Projekte wie den Aufbau eigener Cloud-Computing-Angebote.

RZs erreichen den Stromverbrauch einer Kleinstadt

Neben den Ausgaben für Personal bilden jene für Energie in vielen Rechenzentren einen entscheidenden Kostenblock. Sehr große Data Center können dabei leicht den Energieverbrauch einer Kleinstadt erreichen. Die Analysten von Gartner haben errechnet, dass die Energiekosten zwölf Prozent der gesamten IT-Kosten ausmachen, Tendenz steigend. Zudem gehen die Prognosen davon aus, dass sich die bereits teilweise existierenden Engpässe in puncto Kühlung und Stromversorgung weiter verschärfen werden. Die Anzahl der Server im Rechenzentrum wächst ebenfalls kontinuierlich. Auf jeden in Server investierten Euro kommen bereits heute mehr als 50 Cent Energiekosten. Die Rechner verbrauchen rund 30 Prozent des Stroms und sind oft nur zu 20 Prozent ausgelastet. Bei der heute üblichen Praxis, Server länger als drei Jahre zu nutzen, entpuppen sich unter anderem die veralteten Netzteile als wahre Energiefresser: Damit bieten sie ebenfalls ein interessantes Einsparpotenzial.

Bevor einzelne IT-Komponenten im Hinblick auf eine höhere Energieeffizienz optimiert werden können, sollten die realen Energieverbräuche erfasst werden. Empfehlenswert sind dafür temporäre und periodische Stromverbrauchsmessungen in verschiedenen Betriebsmodi (Stand-By-, Idle-, Full-Power- und Sleep-Modus) für Server, Storage und Netzwerkkomponenten. Die gewonnenen Messdaten und deren Vergleich mit marktüblichen Kennzahlen geben schnell Aufschluss über den Effizienzgrad. Die Energieeffizienz einer IT-Infrastruktur lässt sich anschließend an verschiedenen Stellen regulieren. Am Anfang steht energiesparende Hardware, die mit modernen Mehrkernprozessoren eine automatisierte Abschaltung bestimmter Funktionen ermöglicht. Power-Management-Werkzeuge können Geräte zusätzlich automatisiert in beliebige Energiesparmodi versetzen. Langfristige Effizienzsteigerungen lassen sich durch ein Warenkorbmanagement für den gesamten Lebenszyklus von RZ-Komponenten unter Energiegesichtspunkten realisieren. Dazu gehört auch die Rücknahme, Entsorgung und Wiedervermarktung von Altgeräten.

Prima Klima im Rechenzentrum

Anteiliger Stromverbrauch im RZ
Foto: Computacenter

Auf einem Quadratmeter Fläche im Rechenzentrum werden heute rund 4.000 Watt Energie umgewandelt. In den vergangenen zehn Jahren hat sich diese Energiedichte durch immer raumsparendere Server-Technologien (Blades) mehr als verzehnfacht, und ein Ende dieser Entwicklung ist nicht abzusehen (Grafik 2: Anteile am RZ-Stromverbrauch). Die meisten Rechenzentren können diese Wärmebelastung mit der klassischen Umluftkühlung nicht effizient kompensieren. Der Blick in ein 15 Jahre altes Rechenzentrum offenbart vielfach einige Server-Racks umgeben von leerem Raum, der zudem oft unnötig mit Luft gekühlt wird. Diese klassische Kühlung kann mit relativ einfachen Maßnahmen an heutige Verhältnisse angepasst werden. Grundsätzlich muss kein Server-Raum auf 18 Grad herunter temperiert werden: Der Branchenverband Bitkom empfiehlt eine Ansaugtemperatur zwischen 20 und 25 Grad in Rechenzentren. Stehen nur vereinzelte Racks im Raum, ist eine lokale Kühlung effizienter. Kostendämpfend wirkt sich auch die separate Rückführung der warmen Abluft in einer abgehängten Decke aus, die dann beispielsweise Büroräume heizen kann. Im Winter eignet sich die kühle Außenluft für die kostenlose Klimatisierung der Systeme. In bestehenden RZs lohnen sich Nachrüstungen hierfür allerdings nicht immer.

Vereinzelt setzen gerade die Betreiber großer Rechenzentren bereits auf erneuerbare Energien zur Versorgung ihrer Infrastrukturen. Biogas und Solarenergie zur Stromerzeugung für Data Center werten, richtig kommuniziert, sicher das Unternehmensimage auf. Für die Mehrzahl der Organisationen mit durchschnittlich dimensionierten Anlagen rechnen sich die relativ hohen Investitionen in grüne Energien wohl eher nicht. Es ist allerdings durchaus sinnvoll, über eine eigene Versorgung für die Standardtechnologien nachzudenken. Blockheizkraftwerke, die Strom und Wärme erzeugen, sind an dieser Stelle als effiziente Energielieferanten mit geringen Übertragungsverlusten interessant.

Kostenkontrolle als erster Schritt zum Sparen

Den steigenden Kosten für den Betrieb von Rechenzentren stehen interessante Einsparpotenziale gegenüber: Wenn es die Anforderungen erlauben, kann das automatische Abschalten inaktiver Server die Stromkosten zwischen 50 und 90 Prozent senken. Für Projekte zur Server-Virtualisierung lässt sich über die Senkung des Stromverbrauchs bereits nach 18 bis 24 Monaten ein Return-On-Investment erreichen. Wer sparen möchte, muss allerdings die Kostenstruktur im eigenen IT-Bereich genau analysieren und sich nicht scheuen, im Dialog mit den Fachabteilungen die Dimensionierung und die Services des Rechenzentrums anzupassen. (wh)