Energieverbrauch weiter senken

Rechenzentren effizienter machen

01.04.2009 von Johann Baumeister
Die Kosten für Energie und Kühlung rücken mit zunehmender Serverdichte immer mehr in den Vordergrund. Durch die Ausweitung des IT-Einsatzes und immer höheren Energiepreisen steigen sie überproportional an. Daher kommt der Reduzierung des Energieverbrauchs in Zukunft eine Schlüsselrolle zu.
Circa 60 Prozent des durchschnittlichen Energieverbrauchs eines Data Centers wird für die Kühlung der Systeme benötigt.

Der Energieverbrauch der IT-Infrastruktur wurde lange Zeit nicht beachtet. Im Zuge der steigenden Energiekosten rücken diese aber immer mehr ins Bewusstsein. Der Druck auf den Energieverbrauch wird dabei von mehreren Kriterien bestimmt. Parallel zu den steigenden Energiepreisen erhöht sich auch die Nutzung der IT im Generellen. Mehr Server und schnellere Netze aber verlangen ihrerseits ein Mehr an Energie zu deren Betrieb. Beide Faktoren zusammen führen letztendlich zu immer höheren Energiekosten. Diese übersteigen bereits in vielen Fällen die Anschaffungskosten für die Hardware. Gleichzeitig geraten immer mehr Rechenzentren an die Grenzen ihres Leistungsvolumens. Sie sind schon in wenigen Jahren nicht mehr in der Lage, den steigenden Anforderungen nach einer Ausweitung der IT-Dienste nach zukommen. Nach einer Untersuchung der Markforscher der Gartner Group erreichen bereits in den kommenden zwei Jahren 50 Prozent der Rechenzentren die Grenzen ihrer Leistungsfähigkeit.

Kühlungsbedarf nicht unterschätzen

Diese Grenzen sind im Wesentlichen durch drei Faktoren bestimmt: der Stellfläche für weitere Serversysteme, Netzwerkbaugruppen und deren Verkabelung, der Energieversorgung dieser Systeme und der Kühlung der Baugruppen. Hinzu kommt, dass sich all diese Faktoren meist gegenseitig verstärken. Eine Erhöhung der Rechnerzahl zieht in der Regel eine Ausweitung des primären Energiebedarfs für den Betrieb der Server nach sich. Aber nicht nur das. Parallel dazu erhöhen sich auch die Anforderungen an die Kühlleistung, was erneut den Energiebedarf nach oben treibt. Bereits heute wird der Großteil der zugeführten Energie nicht für den Betrieb der IT-Baugruppen, sondern für deren Kühlung aufgewandt.

Blade-Rechner erhöhen Durchsatz

Geht man vom primären Wunsche nach einer Erhöhung der Rechenleistung aus, so ermöglicht der Einsatz von Blade-Rechner eine Erhöhung der Rechenleistung pro Volumeneinheit.

Doch das treibt unter Umständen den Bedarf für die Energieversorgung und Kühlung in die Höhe. Wenn das Rechenzentrum in dieser Hinsicht bereits an seinen Grenzen operiert, so muss die Auswahl des hinzukommenden Blades mit Blick auf den Energieverbrauch erfolgen. Um durch den Einsatz von Blades nicht gleichzeitig an die Grenzen der Energiezufuhr zu stoßen, dürfen diese nicht mehr an Strom benötigen, als die vorherigen Systeme. Dies lässt sich allerdings durch die Konsolidierung der Server wieder wettmachen.

Um den Energieverbauch zu drosseln, muss an allen Stellen angesetzt werden: Ausgehend vom Chip- und Rechnerdesign bis hin zum Aufbau des Rechenzentrums.

Die Strommenge wiederum kann nicht so einfach und linear angepasst werden. Sie muss in Einklang mit der gesamten Infrastruktur der Energieversorgung, wie etwa der Dimension der Stromkabel und dessen Absicherung, stehen. Im Extremfall lässt sich diesen Anforderungen nur mit einer zusätzlichen oder stärkeren Infrastruktur für Energie beikommen. Doch auch das gilt nur dann, wenn der örtliche Energieversorger dazu auch in der Lage ist. Häufig wird man jedoch an einer Erweiterung des Rechenzentrums mitsamt seiner Infrastruktur nicht vorbei kommen. Dies erfordert immer eine langfristige Einsatzplanung und Abschreibung der Einrichtungen und ist kaum als laufender Unterhalt zu verbuchen. Gerade in diesen Zeiten sind aber langwierige Projekte mit einem, erst über die Jahre erzielbaren Nutzen (ROI), wohl nur schwer durchzusetzen.

Ohne Gesamtkonzeption keine Energieeinsparung

Durch die gegenseitigen Wechselwirkungen der Faktoren hilft das Drehen an einzelnen Stellschrauben kaum um der Misere Herr zu werden. Um die Kosten für Energie dennoch im Zaume zu halten, müssen die Hebel dazu an mehreren Stellen angesetzt werden. Sie müssen sich über die gesamte Breite der IT-Nutzung erstrecken. Dies beginnt beim Design und der Auswahl der elementaren Baugruppen, wie etwa eines stromsparenden Chipdesign oder Speicher mit niedrigem Strombedarf, zieht sich fort in der Auswahl der Rechnerkomponenten und dem Aufbau des Data Centers und endet schließlich bei den Konzepten der Virtualisierung und der IT-Betriebsabläufe sowie der Nutzung der IT-Dienste durch die Fachbereiche.

Die Top-Einsparbereiche

Ordnet man diese Möglichkeiten in Gruppen, so zeigen sich im Wesentlichen die folgenden Bereich der Energieoptimierung:

- Auswahl und Einsatz von stromsparenden Rechnerbaugruppen. Dies umfasst Aspekte wie das Chipdesign, das Rechnerdesign und die Rechnerkomponenten

- Reduzierung der Serversysteme durch die Konsolidierung und der Technik der Virtualisierung

- Optimierung des Rechenzentrums hinsichtlich der Energienutzung für den Betrieb und die Kühlung der Baugruppen

- Verzicht auf brachliegende Leistungsreserven zugunsten von dynamisch adaptierbaren Systemen, die sich am tatsächlichen Bedarf und deren Bedeutung für die Geschäftsprozesse orientieren

All diese Maßnahmen haben unterschiedliche Anforderungen und eben solchen Wirkungsgrad. Die Konsolidierung durch Virtualisierung beispielsweise ist mit relativen einfachen Mitteln umzusetzen. Das Re-Design eines Rechenzentrums wiederum ist eher ein aufwändiger Prozess.

Falls dabei auch noch Umbaumaßnahmen notwendig werden und langfristige Abschreibungen darauf die Folge sind, so wird dieser Schritt wohl nur nach eine umfangreichen Kosten/Nutzen-Analyse durchzusetzen sein. Serversystem hingegen wird man nach deren buchhalterischer Abschreibung von einigen Jahren ohnehin ersetzen. Für Gebäude und Infrastrukturmaßnahmen aber sind die Nutzungs- und Abschreibungsfristen um ein Vielfaches größer. Hier sind Änderungen also nicht so ohne Weiteres machbar. Gleichzeitig wird damit aber der Grundstein für langfristige Optimierungen gelegt. Hinsichtlich der Auswahl stromsparenden Rechnerbaugruppen wiederum haben die Unternehmen aber nur begrenzten Einfluss. Diese Möglichkeiten werden vor allem durch technische Weiterentwicklung der Hardware und Rechensystem bestimmt. Möglichkeiten zur kurz und mittelfristigen Anpassung der Kostenstrukturen bieten daher vor allem die kurz- und mittelfristigen Wirtschaftsgüter, wie die Server und Speichersysteme.

Energieeffizient durch stromsparendes Rechnerdesign

Die Ausrichtung an der Energieeffizienz muss bereits bei Design des Rechners beginnen. Dies macht es notwendig, dass sich alle Komponenten der Serverarchitektur an den Konzepten und Anforderungen der Energieeffizienz orientieren. Das beginnt bei der Auswahl der Rechnerbaugruppen, wie etwa der Speicherbausteine, der Speichermedien, der Bussysteme und jeglicher Erweiterungskarten zum Anschluss der peripheren Baugruppen. Ferner müssen auch die Festplatten und die Netzwerkverbindungen in diese Überlegungen einbezogen werden. Ein zentraler Baustein dabei ist das Netzteil, das all diese Baugruppen mit der notwendigen Energie versorgt. Eine Stufe höher steht die Auswahl und Nutzung der Serversysteme und Netzwerkbaugruppen. Hier hat sich bereits in der Vergangenheit gezeigt, dass alleine durch die Virtualisierung von Servern eine Vielzahl an Geräten einzusparen ist.

Unterlegt durch intelligente Provisionierungstechniken zur dynamischen Bereitstellung der Rechenleistung lässt sich dabei der Servicegrad für die IT-Dienste gegenüber den statisch fest zugewiesenen Rechnersystemen sogar erhöhen. Zieht man den Betrachtungswinkel noch weiter auf und blickt auf das Rechenzentrum mit seiner Infrastruktur, so zeigen sich auch hier diverse Optimierungsmöglichkeiten. Die letzte und oberste Stufe schließlich bilden die IT-Dienste. Durch temporäres Outsourcing, partielles Outtasking oder auch der aufkeimenden SaaS- und Cloud-Angebote lassen sich dabei Spitzen abfedern oder generell IT-Dienste von außen beziehen.

Die zentrale Rolle der CPU

Um diese unterschiedlichen Optimierungspotentiale bestmöglich auszuschöpfen bietet HP ein ebenso breites Portfolio an unterschiedlichen Diensten an. Dies beginnt, aus der Sicht von HP mit den Serversystemen. Dazu hat HP seine Server-Reihe, wie etwa die der Integrity-Modelle, konsequent auf energiesparenden Betrieb ausgelegt. Analog zu den hier gemachten Forderungen beginnt dies bereits beim Design der Rechner. Eine zentrale Rolle spielen dabei die Prozessoren. Hierbei setzt man konsequent auf die Itanium-Modelle von Intel.

Ausgerüstet mit mehreren Kernen auf einem Chip reduzieren diese den Stromverbrauch bereits durch das Prozessordesign. Gleichzeitig wird dabei die Taktfrequenz gesenkt. Je niedriger die Taktung der Systeme, umso geringer ist der Energieverbrauch. Dies wirkt sich erneut positiv auf die benötigte Energie aus.So senkte Intel beispielsweise den Energieverbrauch des Dual Core-Itanium auf 104 Watt. Gegenüber dem Single Core-Modell mit 130 Watt entspricht dies einer Reduzierung des Stromverbrauchs um nahezu 30 Prozent, bei einer gleichzeitigen Verdopplung der Rechenleistung auf zwei Cores. Aus der Kombination mehrere Kerne bei sinkenden Taktraten ergeben sich somit eine höhere Leistung bei niedrigerem Energieverbrauch.

Multicore-CPUs bieten mehr Leistung bei weniger Energie

Multicore-CPUs haben gegenüber den Modellen mir einem Kern erhebliche Vorteile. Jahrelang wurde der Weg beschritten, die Leistung der CPUs durch schnellere Taktung zu erhöhen. Der höhere Takt führt zwar auch zu einer schnelleren Abarbeitung der Programme, zieht allerdings auch einen höheren Strombedarf nach sich. Mehr Stromfluss wiederum erzeugt mehr Wärme, was dann wieder zu höherem Kühlbedarf führt. Mit Multicore-Prozessoren erhöht man nun den Gesamtdurchsatz der Systeme durch die Parallelverarbeitung der Applikationen in mehreren Kernen, ohne den Takt erhöhen zu müssen. Daher liegt die Zukunft eindeutig in Multicore-Systemen. Die Zuweisung der Kerne an die Rechenlast erfolgt durch das Betriebssystem. Es sorgt für eine Verteilung der anstehenden Prozesse auf die Kerne der CPU. Eine Anpassung der Taktrate erfolgt auch durch das Demand based Switching. Diese sorgt für eine Anpassung der Taktrate in Abhängigkeit von der Last. Dies darf natürlich nicht auf Kosten der Leistung für die Applikationen geschehen, sondern immer im Einklang mit der abgeforderten Last stehen. Daher müssen all diese Maßnahmen zur Energieeinsparung immer in Abstimmung mit dem Anwendungssystemen und dem Betriebssystemen erfolgen. Hierbei leisten die Monitoring-Module des Virtual Server Environment eine wertvolle Unterstützungsarbeit.

Fazit

Die Anforderungen an die Rechenzentren steigen kontinuierlich an. Wenn nicht gegengesteuert wird, führt dies zu immer höheren Energiekosten. Diese machen bereits heute einen erheblichen Anteil der gesamten Kosten aus. Um den Energieverbrauch und damit die Kosten zu senken, muss bereits beim Rechnerdesign auf den Aspekt des Stromverbrauchs geachtet werden. Da der Bedarf der Serversysteme wiederum den Großteil der Energie eines Data Center ausmacht, ist hier der Hebel zur Einsparung auch am größten.