Green IT

Es wird eng im Rechenzentrum

13.12.2007 | von Christian Egle
Immer mehr Server mit immer mehr Rechenleistung bringen viele Rechenzentren an ihre Kapazitätsgrenzen. Jetzt sind intelligente Lösungen gefragt, um dem drohenden Kollaps zu entgehen.

Die Zahlen sind alles andere als rosig. Fast jedes zweite Unternehmen (48 Prozent) erwartet, dass die Kapazitäten seiner Rechenzentren in den kommenden sechs bis zwölf Monaten nicht mehr ausreichen werden. Diese Daten entstammen einer aktuellen Umfrage des Speicherherstellers Onstor bei 440 europäischen Unternehmen. 58 Prozent der Teilnehmer gaben sogar an, dass in ihren Schaltzentralen bereits Speicher-, Platz-, Strom- und Kühlprobleme ohne Vorwarnung aufgetreten sind.

Freikühler am Dach des Rechenzentrums nutzen kalte Luft zur Kühlung der Server.
Freikühler am Dach des Rechenzentrums nutzen kalte Luft zur Kühlung der Server.

"Erst der Strom, dann die Klimatechnik und dann der Platz", beschreibt Peter Dümig von Dell die Reihenfolge der Engpässe in deutschen Rechenzentren aus seiner Beraterpraxis. Sein erster Rat an die Anwender ist stets die Aufforderung, den Applikationsbestand kritisch zu durchforsten und sich von der einen oder anderen "Altlast" beizeiten zu trennen. Nicht selten werde "ein Drittel aller Anwendungen nicht mehr benötigt, aber immer noch gepflegt und am Leben gehalten", so Dümig.

Bessere Auslastung mit Virtualisierung

Die Hosting-Anbieter, technologisch sicher die Speerspitze der deutschen Rechenzentrumsbetreiber, singen gerne das Hohelied der Virtualisierung, wenn es darum geht, die Leistungsdichte und Hardwareauslastung in ihren Server-Racks zu steigern. Denn sie wissen, dass ohne Virtualisierung die meisten Server im Durchschnitt kaum zu mehr als zehn Prozent ausgelastet sind. Web-Hoster, die eine Vielzahl gleicher Anwendungen betreiben, schwören dabei auf Betriebssystem-Virtualisierung mit "Swsoft Virtuozzo" oder auf "Sun Solaris Containers". Die genannten Produkte virtualisieren den Zugriff auf das Host-Betriebssystem und bieten den Anwendern garantierte Ressourcen – auch Container genannt - innerhalb ihrer virtuellen Umgebungen.

Freikühler sind außen angebracht. Bei 1&1 kühlen sie über 30 000 Server.
Freikühler sind außen angebracht. Bei 1&1 kühlen sie über 30 000 Server.

Einen anderen Weg beschreiten "VMware ESX", "Microsoft Virtual Server" und "Xen", die den Zugriff auf die Hardware virtualisieren. Dabei arbeitet sowohl der Host als auch jeder Gast mit einem eigenen, unabhängigen Betriebssystem. Wird jeweils nur ein einziges Betriebssystem – Windows oder Linux – auf einem physikalischen Server benötigt, so ist die Betriebssystem-Virtualisierung klar im Vorteil, da sie im Vergleich zur Hardwarevirtualisierung weitaus weniger Ressourcen "frisst". Siehe auch unseren Beitrag zu "Xen Enterprise 4.0".

Dell-Manager Dümig weiß, dass sich Virtualisierung "eigentlich in fast allen Bereichen einsetzen lässt, am einfachsten ist es aber bei all den Infrastrukturaufgaben, wie DHCP, DNS, Active Directory, System Management und Virenschutz-Servern." Bei einer Server-Konsolidierung sollten jedoch zwingend auch das Patch- und System-Management sowie das Backup angepasst werden, erklärt der Praktiker. "Mit Virtualisierung können wir die Auslastung unserer Server von 15 bis 20 Prozent auf rund 60 bis 70 Prozent erhöhen - bei gleich bleibender Performance für den Nutzer der Applikation", beschreibt Patrick Pulvermüller, verantwortlicher Geschäftsführer für den Rechenzentrumsbetrieb bei Host Europe die Vorteile.

Aus alt mach neu

Laut den Marktforschern von IDC verschlingt ein Durchschnitts-Server heute 400 Watt - viermal so viel wie noch vor zehn Jahren. Gleichzeitig hat sich die Server-Dichte von sieben auf 14 Server pro Rack verdoppelt. Keine Frage: Neue Server sind deutlich leistungsfähiger und gerade im Zusammenspiel mit Virtualisierung können mit neuer Hardware deutlich mehr virtuelle Maschinen oder Container auf weniger Rechnern betrieben werden. Dadurch bieten neue Server nicht nur eine leichtere Verwaltbarkeit und höhere Zuverlässigkeit, sondern eben auch mehr Performance pro Watt. "Neue Hardware gibt nur Sinn in Kombination mit Virtualisierung, dann aber lohnt sie sich richtig", glaubt Pulvermüller.

Es gehört zu den Binsenweisheiten im Rechenzentrumsbetrieb: Jedes Kilowatt Strom, das die Server und Netzteile verbrauchen und in Wärme umwandeln, muss auch wieder teuer und energieintensiv über die Klimaanlage abtransportiert werden. Daher lohnen sich Investitionen in energiesparende Server, die ihrerseits wiederum energieoptimierte Prozessoren, Netzteile, Festplatten und Lüfter enthalten, besonders. Die Hardwareanbieter ihrerseits haben die Not der Rechenzentrumsbetreiber erkannt und setzen stark auf die Marketing-Karte "Green IT" – wohl wissend, dass der Verbraucher gerne geneigt ist, in mehr Leistung pro Watt zu investieren, wenn dadurch nur ein aufwändiger Ausbau der Stromversorgung und der Klimaanage hinausgeschoben oder gar vermieden werden kann. Effiziente Hardware, sparsamer Code

Die aktuellen Core-2-Duo-Prozessoren von Intel nehemen laut Hersteller rund 40 Prozent weniger Strom als die Vorgänger. Die neuen Hi-K-Metal-Gate-Prozessoren mit 45 Nanometer breiten Leiterbahnen, die zum Jahresende auf den Markt kommen, sollen "etwa 30 Prozent weniger Schaltstrom benötigen, eine mehr als 20 Prozent höhere Schaltgeschwindigkeit erlauben oder fünfmal weniger Leckströme verursachen", verspricht Intel.

IBM preist seine Blade-Server nicht nur wegen der kompakten Bauweise, sondern auch wegen des optimierten Stromverbrauchs. Wenn der Energieverbrauch bei maximaler Auslastung als Vergleichsbasis herangezogen wird, liegen die Einsparungen gegenüber traditionellen Architekturen bei bis zu 18 Prozent für Blade-Server mit AMD-"Opteron" und bis zu 13 Prozent bei den auf Intel-"Xeon" basierenden Systemen. Wichtige Neuerungen in der Blade-Architektur sind die gemeinsam genutzte Stromversorgung mit energieeffizienten Netzteilen, um Spitzenleistung auch unter Niedrigstrombedingungen zu erzielen.

Vor allem in größeren Rechenzentren gewinnen Blade-Server aber keine Freunde: Zu hoch ist die punktuell entstehende Abwärme, die sich nur mit erhöhtem Aufwand bei der Klimatisierung abführen lässt. Der größte deutsche Webhoster 1&1 setzt schon seit mehreren Jahren ausschließlich kostensparende AMD-Prozessoren und besonders effiziente 80+-Netzteile ein. Die Shared-Hosting-Plattform hat der Karlsruher Internet-Dienstleister in Eigenregie entwickelt. "Wir haben ein Debian Linux so modifiziert, dass wir auf einem Server im Extremfall über 10 000 Kunden unterbringen können", erklärt Achim Weiss, Vorstand Technik und Entwicklung bei 1&1: "Das schafft kein herkömmliches Betriebssystem, und das spart natürlich immens Strom." Auch normale Schwankungen des Energiebedarfs der Server von rund fünf Prozent im Tagesverlauf nutzt 1&1. So werden Systemprozesse wie Backups verstärkt in den lastschwachen Nachtstunden betrieben.

Checkliste für wachsende Rechenzentren

  1. Entsorgen von Altlasten: Rund ein Drittel der Anwendungen wird künstlich am Leben gehalten.

  2. Virtualisieren: Konsolidierung des Server- und Applikations-Wirrwars über Betriebssystem- und Hardwarevirtualisierung.

  3. Neue Hardware: Sparsame Server mit energieffizienten Prozessoren und dazu sparsame Netzteile, die auf Virtualisierung ausgelegt sind.

  4. Stromzufuhr erweitern: Neue Kabel legen, bevor die Versorgung zusammenbricht.

  5. Klimaanlage optimieren: Die Klimatisierung birgt nach der Virtualisierung das größte Potenzial.

  6. Effizienz der USV-Anlage verbessern.

Newsletter 'Server+Storage' bestellen!