Server-Virtualisierung

Höhere Rechnerauslastung spart Strom

22.01.2008
Von 
Vice President Software & SaaS Markets PAC Germany
Durch Virtualisierung von Servern lassen sich Rechnerfarmen verkleinern und Stromkosten senken. Virtualisierte Systeme haben sich in vielen Rechenzentren von IT-Dienstleistern schon durchgesetzt. Auch Unternehmen nutzen vermehrt diese Technik. Die Energiekosten dürften dem weiter Vorschub leisten.

Bisher sehen IT-Experten in der Virtualisierung von Servern vor allem einen Weg, Hardware besser auszulasten und die Systemverwaltung zu vereinfachen. Statt vieler Rechner betreiben Firmen wenige große Computersysteme. Ein noch nicht so bekannter Nebeneffekt dabei: Weniger Server-Hardware bedeutet einen geringeren Stromverbrauch, was zusätzlich hilft, die Betriebskosten in der IT zu senken.

Was ist Server-Virtualisierung?

Virtualisierung kann im Rechenzentrum zu einer höheren Auslastung der Server führen. Auf diese Weise lässt sich die Anzahl der Systeme reduzieren und somit auch der Bedarf an Kühlung. Alles zusammen hilft, den Strombedarf deutlich zu senken.
Virtualisierung kann im Rechenzentrum zu einer höheren Auslastung der Server führen. Auf diese Weise lässt sich die Anzahl der Systeme reduzieren und somit auch der Bedarf an Kühlung. Alles zusammen hilft, den Strombedarf deutlich zu senken.

Virtualisierungstechnik erlaubt es, Prozessoren, Festplatten und Arbeitsspeicher eines Computers mehreren virtuellen Computern zur Verfügung zu stellen. In den virtuellen Maschinen lassen sich voneinander unabhängige Softwarekonfigurationen einrichten, die sich eine physikalische Hardware teilen. Neu ist diese Idee keineswegs: Erste Virtualisierungsansätze hatte IBM bereits um 1970 für seine Großrechner entwickelt. Mittlerweile sind solche Verfahren für eine Reihe von Rechnerplattformen verfügbar. Sie lassen sich entweder auf Grundlage eines vorhandenen Betriebssystems wie etwa Linux oder Windows installieren oder direkt auf der Hardware des Computers, wobei dann die Virtualisierungssoftware ein eigenes Betriebssystem beinhaltet.

Einsparungen von 50 bis 80 Prozent

Laut einer Studie mit dem Titel "Energy efficient servers in Europe" beeinflussen Server und die dazugehörige Infrastruktur maßgeblich den Stromverbrauch in Büros und Rechenzentren, und zwar durch die erforderliche Energie für die Stromversorgung und Kühlung der Komponenten. Verfasser sind die österreichische und die französische Energieagentur, die IT-Hersteller Sun und IBM sowie die Universität Karlsruhe.

Vom gesamten Stromverbrauch innerhalb der EU entfallen demnach 1,5 Prozent auf Server-Hardware und Infrastruktur, was Kosten von etwa sechs Milliarden Euro entspricht. Nach Überzeugung der Fachleute lassen sich durch die Virtualisierung von Servern 50 bis 80 Prozent Stromkosten einsparen. Als weitere Möglichkeiten nennen die Experten nennen darüber hinaus energieeffizientere CPUs und Festplatten sowie eine gemeinsame Stromversorgung statt Netzteilen für jedes einzelne Gerät.

Das Einsparpotenzial ergibt sich unter anderem, weil sich durch Virtualisierung die Rechnerhardware besser auslasten lässt: In der Regel werden nur zehn bis 30 Prozent der verfügbaren Rechenleistung von Servern genutzt, trotzdem verbrauchen die Systeme meist etwa so viel Strom wie unter Volllast. Gelingt es, beispielsweise zehn solche Computer per Virtualisierung durch zwei leistungsfähigere Rechner zu ersetzen, die dann deutlich besser ausgelastet sind, fällt die Stromrechnung automatisch niedriger aus. Zudem benötigen zwei Komponenten weniger Platz und Kühlung, was sich ebenfalls positiv auf den Energieverbrauch auswirkt.

Doch nicht nur die geringere Anzahl der Server hilft, Strom zu sparen: Der verfügbare Arbeitsspeicher lässt sich ebenfalls in einer virtuellen Umgebung besser auslasten als bei einem einzelnen Computer. Auch der Hauptspeicher benötigt Strom, und da der Memory von Jahr zu Jahr größer wird, nimmt auch sein Energiehunger zu.