Best Practices gegen hohe Stromkosten

So wird Ihr Rechenzentrum energieeffizient

25.11.2022
Von 


Uwe Müller ist Data Center-Lead und Evangelist bei Cisco Deutschland.
Explodierende Stromkosten zwingen Unternehmen dazu, den Energieverbrauch ihrer Rechenzentren zu senken. Lesen Sie, wo die größten Hebel für einen schnellen Erfolg liegen.
  • Ermitteln Sie Ihre größten Energiefresser
  • Stimmen Standort, Betriebstemperatur und Produktauswahl?
  • Mit intelligenter Software lassen sich Workloads optimieren
In Zeiten explodierender Strompreise und steigenden Drucks in Sachen Nachhaltigkeit wird Energieeffizienz im Rechenzentrum wieder zu einem Thema mit hoher Priorität.
In Zeiten explodierender Strompreise und steigenden Drucks in Sachen Nachhaltigkeit wird Energieeffizienz im Rechenzentrum wieder zu einem Thema mit hoher Priorität.
Foto: Frame Stock Footage - shutterstock.com

Bislang war der Strombedarf im Rechenzentrum (RZ) und im Enterprise Network kein großes Thema für Unternehmen. Deutlich höhere Priorität hatten Verfügbarkeit, Performance und Sicherheit. Doch das hat sich nun aufgrund der dramatisch gestiegenen Energiekosten geändert. Weitere Motive, den Strombedarf zu senken, sind der Wunsch Kohlenstoff-Neutralität zu erlangen und Net-Zero-Strategien umzusetzen.

Data Center müssen in Zukunft mehr Leistung bei geringerem Energieverbrauch bringen und gleichzeitig die steigenden Anforderungen an Ausfallsicherheit, Geschwindigkeit und Cybersecurity erfüllen. Daher ist ein einfaches Abschalten von Servern, Netzwerk-Switches und -Routern oder Anwendungen keine Option. CIOs brauchen intelligente Lösungen, um alle Herausforderungen zu bewältigen, ohne dabei gefährliche Kompromisse zu schließen. Cisco hat hier auf Basis zahlreicher Kunden- und Partnerprojekte Best Practices entwickelt, die im Folgenden beschrieben werden.

Lesen Sie auch: Diese kostenintensiven Herausforderungen kommen auf RZ-Betreiber zu

Die größten Energiefresser im Rechenzentrum

Im ersten Schritt sollten Unternehmen ermitteln, welche Bereiche im Data Center die meiste Energie verbrauchen. In einem typischen Rechenzentrum benötigen Kühlung und Rack-Betrieb rund die Hälfte des Stroms. Etwa ein Viertel geht auf das Konto der eigentlichen Datenverarbeitung und -speicherung bei Server und Storage. Jeweils zirka zehn Prozent tragen unnötige Energieverluste und der Netzwerkbetrieb bei. Den Rest, mit unter fünf Prozent, benötigt die Beleuchtung.

Die meiste Energie geht für Kühlung und den Betrieb der Server-Racks drauf.
Die meiste Energie geht für Kühlung und den Betrieb der Server-Racks drauf.
Foto: Cisco Deutschland

Das bedeutet: Jedes Watt, das die IT-Infrastruktur benötigt, erzeugt einen zusätzlichen Lastfaktor von 1,8 bis 2,5 für den Verbrauch durch Kühlung, unnötige Energieverluste und Beleuchtung. Dieser Faktor ist als PUE (Power Usage Effectiveness) definiert. Darunter versteht man das Verhältnis zwischen dem Energieverbrauch, der von der eigentlichen IT-Ausstattung verursacht wird, und dem Energiebedarf der restlichen Bestandteile eines Data Center.

Diese klassische PUE-Berechnung hat allerdings auch ihre Schwächen. Zum Beispiel benötigt ein Rechenzentrum in Norwegen aufgrund der niedrigen Außentemperaturen deutlich weniger Kühlung als in Italien. Daher kann ein italienisches Data Center trotz einer höheren PUE unterm Strich effizienter sein als das in Norwegen. Zudem erhöht eine intensive Server-Nutzung ebenfalls die PUE. Daher ist dieser Wert immer im Kontext zu betrachten.

Die wichtigsten Einflussfaktoren für den RZ-Energieverbrauch

Entsprechend sollten Unternehmen die Rahmenbedingungen für ihre Data Center prüfen. Wie gesagt: Der Ort stellt ein wichtiges Kriterium dar. Je kühler die Umgebung, desto weniger Strom verbraucht das Rechenzentrum. Wer ortsgebunden ist, sollte daher den Server-Raum möglichst im Keller platzieren oder das RZ in einem dafür reservierten, alleinstehenden Gebäude einrichten. Angrenzende Büros oder Wohnungen erzeugen meist zusätzliche Heizwärme - trotz der aktuell allgegenwärtigen Sparmaßnahmen.

Ein weiteres Thema ist die zulässige Betriebstemperatur der Komponenten. Ist die erlaubte Temperatur hoch, lässt sich der Kühlbedarf reduzieren. Allerdings kann die Betriebsdauer der Komponenten darunter leiden, so dass sie früher ausfallen. Ähnliche Überlegungen gelten für die Auslastung: Leerlauf verbraucht unnötig Strom. Eine Überlastung ist dagegen energieeffizient, verkürzt aber die Lebensdauer. Hier muss der verantwortliche Betreiber einen Kompromiss finden.

Ein zentraler Faktor ist auch die Produktauswahl. Neuere Server-Hardware, Router und Switches sowie virtuelle Lösungen sind in der Regel effizienter als ältere und dedizierte Systeme. Außerdem reduziert eine Konsolidierung und Integration der Systeme den Ressourcenbedarf. Zum Beispiel können Unternehmen ihre Flexibilität und Energieeffizienz durch aktuelle Switches-Serien erhöhen, da sie integrierte Netzwerkdienste nach Bedarf bereitstellen. Auch eine aktuelle Chip-Architektur benötigt meist weniger Strom. Automatisierung, Konsolidierung in zentrale Rechenzentren und die Wahl des richtigen Standorts für die Dienste sind weitere Hebel für eine höhere Effizienz.

Abschied vom klassischen Data-Center-Ansatz

Die Möglichkeiten zur Verbesserung lassen sich am besten verstehen, wenn man sich den bisherigen klassischen Architekturansatz für Data Center vor Augen führt. Dieser legt für eine optimale Applikations-Performance die Dimensionierung der Hardware auf Spitzenzeiten aus, eine spätere Anpassung an die reale Auslastung bleibt dann aus. Auch erfordert der Einsatz vieler einzelner Rack-Server statt weniger modularer Blade-Systeme einen hohen Bedarf an Platz, Strom und Kühlung. Der Verkabelungsaufwand ist ebenfalls größer.

Beim klassischen Architekturansatz für Data Center ist die Hardware für Spitzenlast dimensioniert. Statt modularer Blade-Systeme kommen viele einzelne Rack-Server zum Einsatz.
Beim klassischen Architekturansatz für Data Center ist die Hardware für Spitzenlast dimensioniert. Statt modularer Blade-Systeme kommen viele einzelne Rack-Server zum Einsatz.
Foto: Cisco Deutschland

Im Netzwerk stellt jeder Switch einen eigenen Managementpunkt dar. Die Segmentierung erfolgt in der Regel per VLAN, wobei die Port-Auslastung nicht immer optimal ist. Zur Datenspeicherung kommen dedizierte Storage-Systeme zum Einsatz, mit jeweils eigener Verkabelung, Stromversorgung und Kühlung sowie einem zusätzlichen Storage-Netz. Die Nutzung von Standardkomponenten und Systemen ohne Ressourcenmanagement führt dabei zu einem relativ hohen Energieverbrauch.

Automatisierung bestimmt den modernen RZ-Ansatz

Auch bei der Architektur moderner Rechenzentren steht die Applikations-Performance im Vordergrund. Doch die Dimensionierung der Hardware erfolgt hier anhand ständiger Messungen der realen Anforderungen. Weitgehend automatisierte Lösungen passen die Umgebung im laufenden Betrieb an, um Engpässe und Ressourcenverschwendung zu vermeiden. Das Steuern und Überwachen der RZ-Umgebung übernimmt intelligente Software. Zudem ist nach Bedarf eine schnelle Integration verschiedener Cloud-Anbieter über geeignete Schnittstellen und Lösungen möglich. So lassen sich Lastspitzen reibungslos abfangen.

In einer modernen RZ-Welt kommen effiziente, vorzugsweise modulare Server-Systeme zum Einsatz. Zum Vergleich: Racks besitzen jeweils zwei Netzteile (Power Supply Units = PSUs), eingebaute Zusatzmodule, zwei eigene Kabel sowie eine fest installierte Kühlungs- und Stromversorgung. Modulare Systeme nutzen dagegen sechs PSUs für acht Server. Adaptive Luftstromrichtlinien, Leistungsbegrenzung, Kabel für einen integrierten Daten-, Storage- und Managementverkehr sowie überbuchbare Mehrfachnutzung von zentralen und nicht dedizierten Ressourcen erhöhen die Energieeffizienz weiter. Einheitliche, flexible Komponenten weisen dabei eine lange Laufzeit auf. Virtualisierte NICs (Network Interface Cards) und HBA (Host Bus Adapter) reduzieren den Verkabelungsaufwand. Die Steuerung der Ressourcen erfolgt beispielsweise durch Power Capping und Kühlungsregeln, die den Energiebedarf reduzieren.

Im Netzwerk ermöglichen neuere Switch-Systeme die Steuerung der Umgebung und Ressourcenplanung mithilfe intelligenter Software-Lösungen. Durch höhere Bandbreite und bessere Auslastung sind weniger Netzwerk-Ports nötig, während Mandantenfähigkeit bei gleichzeitig hoher Sicherheit Hardware-Silos vermeidet.

Aktuelle Storage-Systeme kombinieren integrierten und externen Speicher für moderne Applikationen. Unternehmen nutzen dabei hochperformanten, effizienten Flash-Storage sowie flexible, konvergente Systeme aus Hardware und Software, die Netzwerk, Server und Storage in einem Paket konsolidieren. Dazu gehören auch integrierte Lösungen für den Container-Betrieb. Der Einsatz von hocheffizienten Systemen und Komponenten, etwa auf Basis von Mikrochips auf Basis einer Nanometer-Architektur, ermöglicht einen höheren Datendurchsatz pro Watt. Unternehmen können den Stromverbrauch zusätzlich mit Hilfe von zonenbasierter Kühlung und Komponenten mit höherem Temperaturbereich senken.

Software birgt große Chancen für Rechenzentren

Neben der Hardware kann auch die Software für eine Verringerung des Energieverbrauchs sorgen. Durch intelligente Überwachung und ständiges Verbessern unterstützen Workload- Optimierer das Einsparen von Ressourcen. Laut der von Cisco in Auftrag gegebenen Studie "The Forrester Total Economic Impact" haben Kunden auf diese Weise ihren Ressourcenverbrauch für Prozessoren und Speicher um 20 Prozent reduziert - bei gleichbleibender oder sogar verbesserterLeistung.

Das kann sogar so weit gehen, dass sich ganze Server abschalten lassen, ohne dass im RZ auch nur ansatzweise eine Überlastsituation entsteht. Sollte dennoch aufgrund steigenden Ressourcenbedarfs eine kritische Schwelle überschritten werden, gibt es Möglichkeiten, Hardware hinzuzuschalten oder Workloads automatisiert neu zu verteilen. Die dafür benötigte Software muss nicht im eigenen Rechenzentrum laufen, sie kann auch in mandantenfähig und sicher in der Cloud oder - bei besonders hohen Sicherheitsanforderungen - in der Private Cloud bereitstehen.

Nicht nur die IT-Infrastruktur, auch die Kühlsysteme in den Rechenzentren können überdimensioniert sein. Anhand von Industriestandards lassen sich angemessene Temperatur- und Feuchtigkeitsbedingungen gewährleisten.

7 Tipps, um Energie im Rechenzentrum zu sparen

Zu den rein technischen Lösungen sollten Unternehmen noch folgende begleitenden Maßnahmen durchführen, um die Energieeffizienz im Data Center zu verbessern:

  • Regelmäßige Nutzungsprüfungen: Eine manuelle oder idealerweise automatisierte Analyse zeigt die Auslastung von Servern, Speichern, Netzwerken und Gebäudeeinrichtungen. So können Unternehmen Stellen mit niedrigen Effizienzraten erkennen und optimieren.

  • Organisatorische Umgestaltung: Sollen IT und Gebäudemanagement enger zusammenarbeiten, ist es sinnvoll, Fachleute aus dem Bereich Facilities Management in IT-Entscheidungsprozesse einzubeziehen. Unternehmen sollten versuchen, das Beste aus beiden Welten zusammenzuführen und zu nutzen.

  • Messen, überwachen und verwalten: Diese Anforderung umfasst das Standardisieren von Metriken und Management-Anwendungen, inklusive dem Implementieren einer netzwerkbasierten Verwaltung von IT- und Nicht-IT-Anlagen. Unternehmen sollten dabei das Netzwerkmanagement mit Server-, Speicher- und Facility-Management-Anwendungen integrieren.

  • Analyse des Leistungsprofils: Leistungsprofile von Komponenten, Systemen und Diensten zeigen deren Eigenschaften in einer bestehenden Infrastruktur. Dazu gehört das Benchmarking der Leistungsmerkmale und das Anwenden von Standards für neue Dienste und Infrastrukturen.

  • Speicherkonsolidierung: Die Implementierung von Director-Class-Switching, Common Fabric, Servicemodulen und Sprachdialogsystemen (IVR) erhöht die Nutzung von Speicherressourcen um bis zu 70 Prozent.

  • Optimierte Anwendungsbereitstellung: Neuere Ansätze stellen Sicherheits-, SSL-Offload- und Load-Balancing-Services über eine Service-Modul-Architektur bereit, im Gegensatz zu einer Appliance-basierten Architektur.

  • Erweiterte Dienste: Professionelle Services von Dienstleistern und Partnern unterstützen IT-Experten beim Planen, Gestalten, Prüfen und Bewerten von Gebäudeeinrichtungen und Infrastruktur.

Innovative Hardwarelösungen reduzieren den Stromverbrauch im Data Center bei höherer Leistung und geringerer Abwärme. Gleichzeitig spart eine Konsolidierung der Services und Applikationen nachhaltig CO2. Den optimalen Grad an Energieeffizienz können Unternehmen durch eine ständige Überwachung und Optimierung erreichen, wofür sich der Einsatz intelligenter Softwaresysteme anbietet. (hv)