Sparsam, sicher und flexibel

Das perfekte Data Center

28.06.2011 von Bernd Reder
Wie sieht das ideale Rechenzentrum aus? Sicher soll es sein, energieeffizient und sehr flexibel. Keine leichte Aufgabe für IT-Manager.

Die Liste der Anforderungen, die ein modernes Rechenzentrum erfüllen soll, wird immer länger: Es soll weniger Energie verbrauchen und sich kostengünstiger betreiben lassen, das jedoch möglichst ohne Abstriche in Bezug auf die Leistungsfähigkeit. Es soll sich problemlos an geänderte Anforderungen anpassen lassen, ein hohes Maß an Sicherheit für Anwendungen und Daten bieten, jedoch offen für Cloud-Computing-Services sein.

Kein Wunder, dass sich ein modernes Data Center kaum noch mit einem typischen "Glashaus" vergleichen lässt, wie es vor zehn oder fünfzehn Jahren errichtet wurde. Heute sind Faktoren gefragt wie hohe Modularität, eine möglichst effiziente Nutzung der Energie und die Möglichkeit, unterschiedliche Datenverkehrsarten über eine einheitliche Infrastruktur zu transportieren, Stichwort Konvergenz.

Konventionell, modular oder im Container: Die Struktur eines Data-Centers

Vor allem in US-amerikanischen Rechenzentren taucht immer häufiger der "Pod" auf. Statt nach bewährtem Muster Racks mit Servern sowie Speicher- und Netzwerksystemen in einem Data Center zu platzieren, greifen immer mehr Unternehmen zum "Data Center im Container". Anbieter solche Systeme sind unter anderem Cisco Systems, Hewlett-Packard, i/o Data-Centers und Oracle/Sun. Solche "Pods" sind komplette Data-Center, inklusive IT-Ausrüstung, Kühlung und Stromversorgung. Der größte Vorteil des Konzepts: Wer mehr Rechenleistung benötigt, kann weitere Container ordern und damit das "Rechenzentrum" erweitern. Microsoft setzt in seinem Data-Center in Dublin (Irland) auf ein solches "Pod"-Konzept, in Verbindung mit der Kühlung durch Außenluft. Container wie der ecoPod von HP haben Platz für 44 Rack sund bis zu 4400 (virtualisierte) Server. Die Energieeffizienz (PUE, Power Usage Effectiveness) liegt bei 1,05. Zum Vergleich: Standard-Data-Center kommen auf 1,7 bis 2,0 PUE.

Vier Trends im Bereich Rechenzentrum

Folgende Entwicklungen werden nach Einschätzung von Emerson Network Power, einem Hersteller von Komponenten für Rechenzentren, die Entwicklung im Data-Center in den kommenden Jahren prägen:
Eine deutliche höhere Dichte von Systemen:
Die Wärmeleistung pro Rack steigt demnach im Schnitt von etwa 11 Kilowatt im laufenden Jahr und bis auf 17 kW im Jahr 2019. Durch die höhere Packungsdichte benötigen solche Rechenzentren etwa 35 Prozent weniger Energie. Hinzu kommen Einsparungen durch den geringeren Platzbedarf. Ein Data Center mit etwa 800 Quadratmetern und einer Wärmeleistung von 20 kW pro Rack wird in wenigen Jahren dieselben Leistungswerte erreichen wie heute ein Rechenzentrum mit 3000 Quadratmetern. Die Einsparungen, bezogen auf die Baukosten, betragen in diesem Fall etwa zwischen 700.000 Euro und rund 2 Millionen Euro. <br /><br /> Allerdings erfordert die wachsende Rechenleistung pro Rack spezielle Kühlungs- und Stromversorgungssysteme. Notwendig ist eine Kombination von Kalt-/Warmgang-Konzepten in Verbindung mit Wasserkühlung und mit modularen "Power Distribution Units" (PDUs) im Rack. Dadurch lässt sich der Energiebedarf der Systeme pro Rack um etwa ein Drittel senken.
Verfügbarkeit gewinnt an Bedeutung:
Die Anforderungen an die Verfügbarkeit von Rechenzentren und den IT-Services, die über sie bereitgestellt werden, nimmt drastisch zu. Amazon beispielsweise garantiert für seinen Cloud-Computing-Service "Elastic Compute Cloud" (EC2) eine Verfügbarkeit von 99,95 Prozent. Das heißt, die Ausfallzeit pro Jahr darf 4,5 Stunden nicht überschreiten. <br /><br /> Ein Großteil der Systemausfälle in Data Centern geht laut Emerson Network Power auf Ausfälle der Stromversorgung oder Probleme mit der Kühlung zurück. Deshalb gewinnen unterbrechungsfreie Stromversorgungen an Bedeutung – auch deshalb, weil sie Spannungsspitzen ausfiltern und von Servern, Switches und Storage-Systemen fernhalten. <br /><br /> Ein weiterer Faktor, der die Anfälligkeit von Rechenzentren senkt, ist eine Verringerung der Zahl aktiver Komponenten in Kühlsystemen. Dies lässt sich beispielsweise durch eine verstärkte Kühlung mithilfe von Außenluft erzielen. Sie macht zumindest einen Teil der Lüfter, Gebläse und Pumpen innerhalb eines Data-Centers überflüssig.
Flexibilität ist ein zentraler Faktor:
Rechenzentren müssen stärker denn je mit Lastspitzen zurechtkommen. Auch diese Entwicklung wird durch Cloud-Computing forciert: Handelshäuser werden beispielsweise in der Vorweihnachtszeit Rechenkapazitäten hinzubuchen, in den Sommermonaten dagegen die Nachfrage reduzieren. Das heißt für Server, Stromversorgungssysteme und Klimaanlagen: Sie müssen ihre Leistung an die Nachfrage anpassen. Das war bislang nicht der Fall, speziell bei der Kühlung und Stromversorgung. Diese Systeme laufen in vielen Rechenzentren stets unter Volllast, was sich negativ auf die Kosten auswirkt. Modulare Stromversorgungen und Kühlsysteme, die sich automatisch an Veränderungen der Umgebungstemperatur anpassen, können dieses Problem lösen.
Managebarkeit gewinnt an Bedeutung:
Die Komplexität von Rechenzentren nimmt weiter zu, bedingt durch Virtualisierung, immer leistungsfähigere Server mit Mehrkernprozessoren und die angesprochene höhere Systemdichte. Die Konsequenz: IT-Verwalter benötigen Management-Tools, mit denen sie die Komponenten überwachen und steuern können. Das gilt nicht nur für aktive Komponenten, sondern auch für die Verkabelung und die Akkus von unterbrechungsfreien Stromversorgungen. Ein Infrastruktur-Management-System muss in Echtzeit Statusmeldungen übermitteln und dem Systemverwalter dabei helfen, bereits im Vorfeld Ausfälle von Geräten zu erkennen. <br /><br /> Ein weiterer Punkt, der häufig übersehen wird: Management heißt im Data Center auch das Verwalten des Raums, der für Racks und andere Komponenten zur Verfügung steht. Planungstools wie etwa Nlyte 6.0 von Nlyte helfen dabei, das Platzangebot optimal auszuschöpfen.

Ein weiterer Ansatz sind modulare Rechenzentren, die auf Standardkomponenten basieren, etwa das "Butterfly"-Konzept von HP. Bei ihm werden vorfabrizierte Module mit Racks für Server, Speichergeräte, Stromversorgung und Kühlsysteme nach Bedarf um ein zentrales Versorgungsmodul gruppiert. Wird mehr Rechenleistung benötigt, lassen sich weitere "Schmetterlinge" in einem Gebäude platzieren. Der PUE-Wert solcher modularer Data-Center liegt bei etwa 1,15.

Beide Konzepte – Pods und modulare Data-Center – werden an die Stelle klassischer Ansätze treten. Die Vorteile wie hohe Flexibilität und Effizienz sowie laut Hersteller um bis zu 75 Prozent niedrigere Betriebskosten machen solche Ansätze für viele Anwender interessant.

Wie sollte die physikalische Sicherheit des idealen RZ aussehen?

Manche Betreiber haben ihre Rechenzentren in aufgelassenen Atombunkern eingerichtet, wie etwa die britische Firma The Bunker in der Nähe von London. Bombensicher muss ein Data Center sicherlich nicht sein. Dennoch muss es erhöhten Sicherheitsanforderungen entsprechen. Dies betrifft den Schutz vor physikalische Bedrohungen wie Feuer, Wasserschäden, zu hohen oder zu niedrigen Temperaturen oder den Ausfall der Stromversorgung. Auch der Zugang Unbefugter muss ausgeschlossen sein.

Umsetzen lässt sich ein Grundschutzkonzept mithilfe von Sensoren. Zur Basisausstattung gehören folgende Systeme:

APC by Schneider Electric, ein Hersteller von Rechenzentrumsausrüstung, empfiehlt zudem optionale Sensoren, etwa um Rauchentwicklung, Bewegungen und Vibrationen zu ermitteln. Die Informationen, die diese Sensoren liefern, werden an "Aggregator"-Systeme übermittelt und von dort über das IP-Netz an eine zentrale Monitoring-Station. Sie wertet die Daten aus und übersetzt sie gewissermaßen in Status- und Alarmmeldungen. Wichtig: Das Überwachungssystem muss in der Lage sein, automatisch Maßnahmen einzuleiten, etwa ein Herunterfahren von Servern bei einem Ausfall der Kühlung.

Die richtige Verkabelung im Data Center wählen

Nach Angaben des Netzwerkhersteller Brocade macht die Verkabelung etwa zehn Prozent der Gesamtkosten eines Rechenzentrums aus. Wer heute ein Data-Center plant, muss zum einen den steigenden Bedarf an Bandbreite berücksichtigen, zum anderen neue Trends wie Fibre Channel over Ethernet (FCoE) und Standards wie IEEE 802.3ba für Ethernet mit 40 und 100 GBit/s. Die Grundlage bilden die Normen TIA-942 und EN 50173-5, die eine strukturierte und anwendungsneutrale Verkabelung fordern. Für die strukturierte Verkabelung speziell in Rechenzentren hat die ISO/IEC den Standard 24764 entwickelt.

Um die Anforderungen in den kommenden vier bis fünf Jahren zu erfüllen, sollten Rechenzentren nach Angaben des Verkabelungsspezialisten R&M die höchsten Spezifikationen für die Anwendung von 10-Gigabit-Ethernet (10 GbE) zugrunde legen. Bei einer Glasfaserverkabelung sind Multimode-OM3-Fasern (Optical Multimode) mit 50/125 µm Durchmesser anzuraten, die über MTP/MPO-Steckverbinder (Multi-Path Push On) beziehungsweise LC-Steckverbindern (Local Connect) verfügen. Bei Kupferkabeln sollten geschirmte RJ45/Cat-6A-Komponenten beziehungsweise Kabel und Steckverbinder zum Zuge kommen, welche die Anforderungen von Class-EA-Channel (Kat 7/Class F und Kat 7A/Class FA) erfüllen.

Eine Herausforderung für die Planer von Rechenzentren ist die wachsende Systemdichte. Immer mehr Server und Speichersystems werden auf engstem Raum untergebracht und müssen an das Netzwerk angeschlossen werden. Daher empfiehlt R&M den Einsatz von Kupfer- und Glasfaserkabeln mit reduziertem Durchmesser. Um das Kabelmanagement zu vereinfachen, ist eine möglichst einfache und leicht zu handhabende Kabelführung am Rack erforderlich. Alle Racks sollten zudem nach demselben Schema "verdrahtet" werden. Das erleichtert es dem Service-Personal, neue Komponenten wie Blade-Server oder Speichersysteme hinzuzufügen.

Ein Trend: die modulare Verkabelung. Sie besteht aus Kupfer- oder Glasfaserkabeln, die bereits vom Hersteller vorkonfektioniert und getestet werden. Der Vorteil besteht in den niedrigeren Arbeitskosten, weil die Fachleute vor Ort die Kabel nicht mehr konfektionieren müssen, ein weiterer in der Qualitätsgarantie durch den Hersteller. Allerdings ist die Flexibilität geringer, weil Standardkomponenten Verwendung finden. Der Kabelsystem-Hersteller Leoni Kerpen favorisiert dennoch diesen Ansatz. Seine Lösung: Data-Center-Links in Zwölffaser-MPO-Technik. Sie unterstützen in einem Patch-Feld von einer Höheneinheit (1 HE) bis zu 24 Ethernet-Verbindungen mit 40 GBit/s oder 144 Systeme mit 10 GBit/s.

Studie: Hohe Erwartungen an die Konvergenz von LAN und Speichernetz

IT-Verantwortliche sehen sehr wohl die Vorteile, die eine einheitliche LAN-/Storage-Netzwerkumgebung bringen kann. Allerdings erfordert das eine bessere Zusammenarbeit der Teams, die innerhalb der IT-Abteilung für die beiden Infrastrukturen verantwortlich sind.

IT-Verantwortliche setzten hohe Erwartungen in das Zusammenwachsen der Netzwerkinfrastruktur im Data Center. Das ergab eine Studie des Beratungshauses Forrester Research. Demnach erhoffen sich jeweils mehr als 60 Prozent der IT-Fachleute von einer Konvergenz von LAN (Local Area Network) und SAN (Storage Area Network) Einsparungen im Bereich Hard- und Software bei Netzwerk-Switches sowie beim Management der Infrastruktur. An die 62 Prozent rechnen damit, dass eine einheitliche Netzwerk-Infrastruktur zudem den Aufwand für Kühlung und Stromversorgung reduziert.

Allerdings zeigten sich viele der IT-Manager mit dem derzeitigen Status im Bereich LAN-/SAN-Konvergenz unzufrieden. Ein Schwachpunkt ist demnach für 67 Prozent der Befragten, dass innerhalb der IT-Abteilungen die Verantwortung für Speichernetze und das LAN in unterschiedlichen Teams verankert ist. Dies führt zu einem Rivalisieren und zu Reibungsverlusten. Andere Hemmschuhe sind der immer noch hohe Preis für 10-Gigabit-Ethernet-Komponenten und Zweifel daran, dass sich mithilfe von Ethernet und Fibre Channel over Ethernet (FCoE) tatsächlich eine durchgängige SAN-Infrastruktur aufbauen lässt.

Speziell was die Kosten betrifft, kann das Zusammenlegen von LAN und Speichernetz allerdings erhebliche Vorteile bringen. So reduziert sich der Aufwand für die Verkabelung der Server. Statt zweier Netzwerkadapter für Fibre Channel und Ethernet reicht einer aus. Zudem ist davon auszugehen, dass die Anschaffungskosten für kombinierte Ethernet-/Fibre-Channel-Switches unter dem Strich niedriger sind als für separate Systeme. Hinzu kommt, dass sich eine einheitliche Infrastruktur auf Basis von Ethernet einfacher verwalten lässt als zwei separate Netze.

Welche Kühlkonzepte braucht das RZ in Zukunft?

Vor einigen Jahren betrug die Wärmelast in einem Rechenzentrum 1 kW pro Rack. Heute sind 20 Watt/Rack und mehr an der Tagesordnung. Der Grund: die höhere Systemdichte wegen des Einsatzes von Rack- und Blade-Servern und generell eine "engere" Packung der Systemkomponenten. Mit einer konventionellen Warm-/Kaltgang-Luftkühlung lassen sich nach Angaben von Knürr Emerson Network Power Wärmedichten von mehr als 1 kW pro Schrank erreichen, etwa 3 bis 4 kW/Rack. Diese Technik eignet sich laut Knürr für Rechenzentren, in denen genügend Platz vorhanden ist, um die Systeme entsprechen großzügig zu verteilen.

Für Wärmelasten von bis zu 10 kW/Rack kommt die Kaltgang-Einhausung in Betracht. Die Frontseite der Racks wird dabei in einem geschlossenen Raum positioniert. In diesen wird gekühlte Luft eingeführt. Die Rückseite der Schränke liegt dagegen außerhalb dieses "Kühlschranks". Über sie wird die Warmluft abgeleitet. Dies, so die Fachleute von Knürr Emerson Network Power, verhindert, dass des zu Verwirbelungen von kalter und warmer Luft kommt. Je Schrank sind bis zu 20 kW möglich, wenn zusätzlich Reihenkühlgeräte zwischen den Schränken verwendet werden.

Umwandlung eines Schwimmbads in ein Rechenzentrum
Umwandlung eines Schwimmbads in ein Rechenzentrum
Ein über dem Bassin eingezogener Stahlbau - hier noch ohne Abdichtung - dient als Rechenzentrumsfläche, das Becken selbst als Doppelboden für die Kabelführung und Kühlluftzuführung. Bild: Sysback AG
Umwandlung eines Schwimmbads in ein Rechenzentrum
Martin Mast ist IT-Leiter des Bischöflichen Ordinariats der Diözese Rottenburg-Stuttgart.
Umwandlung eines Schwimmbads in ein Rechenzentrum
Die Einhausungslösung des Rack-Spezialisten Schäfer mit dem zwischen den Schrankreihen leicht erhöhten Dach sorgt für eine optimale Kaltluftführung. Bild: Schäfer IT-Systems
Umwandlung eines Schwimmbads in ein Rechenzentrum
Die Server und USVen in den Racks sind rundum abgedichtet, so dass die Kaltluft gezielt durch die zu kühlenden Geräte strömt. Bild: Schäfer IT-Systems
Umwandlung eines Schwimmbads in ein Rechenzentrum
Durch die Nutzung der RZ-Abwärme für die Warmwasseraufbereitung im Tagungshaus mit Küche und Übernachtungszimmern spart sich die Diözese rund 8000 Liter Heizöl im Jahr. Bild: Sysback AG
Umwandlung eines Schwimmbads in ein Rechenzentrum
Michael Panno ist Leiter RZ-Infrastruktur. Foto: Sysback AG

APC favorisiert dagegen die Warmgang-Einhausung: In diesem Fall wird die warme Abluft der Systeme über deren Rückseite in einen geschlossenen Raum transportiert, dort gekühlt und anschließend den IT-Systemen wieder zugeführt. Die Vorteile sind nach Angaben des Herstellers die höhere Effizienz und Unempfindlichkeit bei Ausfall des Kühlsystems sowie die Möglichkeit, ein Warmgang-System auf einfache Weise in bereits vorhandene Data-Center zu integrieren.

Eine weitere Option ist die Wasserkühlung von Racks. Wasserkühlung kommt beispielsweise bei Blade-Servern-Centern in Betracht. Die Blade-Systeme werden mit Wasser gekühlt, konventionelle Server mithilfe von Raumluftkühlgeräten. Damit sind Wärmelasten von 25 kW möglich. Der Nachteil: Im Doppelboden muss eine Kaltwasser-Zufuhr integriert werden.

Lesen Sie mehr zum Thema Kühlung:

Wie Pioniere das RZ kühlen

Für Rechenzentren, die neu gebaut werden, ist eine Kombination aus Warm-/Kaltgang-Kühlung in Kombination mit "Hot Zones" zu empfehlen, die mithilfe von Wasser gekühlt werden. Vorhandene Rechenzentren lassen sich zumindest teilweise nachrüsten, etwa in Form von Racks mit integrierter Wasserkühlung. In kühleren Regionen, wie etwa Mittel- und Nordeuropa, werden zudem Konzepte erprobt, Rechenzentren mithilfe von Außenluft zu kühlen. Microsoft verwendet diese Technik beispielsweise in seinem Data-Center in Dublin in Verbindung mit Server-Containern.

Die Kommunikationsinfrastruktur im RZ auf einen Nenner bringen

Ein zentrales Problem in einem Rechenzentrum ist die uneinheitliche Kommunikationsinfrastruktur. Der Grund ist, dass sich im Lauf der Zeit dort unterschiedliche Welten etabliert haben: Ethernet und TCP/IP sind der Standard für die Anbindung von Server-Systemen. Storage Area Networks (SANs) basieren meist auf Fibre Channel (FC), und Server-Cluster nutzen Infiniband.

Ein Ansatz, um dieses Nebeneinander unterschiedlicher Technologien zu beseitigen, sind Converged-Network-Adapter (CNA) in Verbindung mit Top-of-Rack-Switches. Ein CNA vereint die Funktionen eines LAN-Adapters (NIC, Network Interface Card) und eines Fibre-Channel-HBA. Der Converged Network Adapter kann sowohl IP-Daten mit bis zu 10 GBit/s übertragen als auch Fibre-Channel-Pakete. Möglich macht dies Fibre Channel over Ethernet (FCoE). Dieses Protokoll verpackt Fibre-Channel-Frames in Ethernet-Pakete.

Jedoch können auch CNAs und FCoE ein Kernproblem nicht lösen: Die Tatsache, dass Ethernet nicht verlustfrei (lossless) arbeitet, das heißt, ab und zu Pakete "wegwirft" und erneut übermittelt. Aus diesem Grund arbeitet das Institute of Electrical and Electronics Engineers (IEEE) derzeit an der Spezifikation IEEE 802.1 Data-Center Bridging (DCB). De facto bedeutet dies, dass eine neue Version von Ethernet entwickelt wird. Mithilfe von DCB ist es möglich, die Adapterkarten in Servern durch Versionen zu ersetzen, die sowohl herkömmlichen LAN-Verkehr als auch Storage-Daten weiterleiten. Neben CNAs sind spezielle Top-of-the-Rack-Switches erforderlich. Der Switch leitet die FCoE-Pakete in das Speichernetz (SAN) weiter, die IP-Daten in das Ethernet-LAN.

Künftig könnte das Rechenzentrum daher folgendermaßen aussehen: Ein Speichernetz auf Basis von DCB ersetzt die Fibre-Channel-Infrastruktur und bindet FC-Storage-Geräte mit ein. Die Storage-Daten werden nun mithilfe von FCoE zu den Speichergeräten übermittelt. Dagegen lassen sich im lokalen Netzwerk kostengünstige LAN-Switches einsetzen. In einer späteren Phase kann DCB sowohl im SAN als auch LAN zum Einsatz kommen. Dann muss der DCB-Switch den Datenverkehr nicht mehr nach "Storage" und "LAN" differenzieren.

Unternehmen wie Cisco Systems, HP, Brocade, Dell und Juniper Networks haben bereits Produkte für solche "Converged Networks" entwickelt, die Data-Center Bridging, Fibre Channel over Ethernet und Infiniband gewissermaßen unter einen Hut bringen. Vermarktet werden sie unter Bezeichnungen wie Unified Computing System (Cisco) oder Converged Infrastructure (HP). Allen gemeinsam ist, dass sie eine Networking Fabric verwenden, die das Virtualisieren von Ports erlaubt und zudem unabhängig von Übertragungsprotokollen arbeitet. Dies vereinfacht die Struktur in einem Rechenzentrum erheblich.

Fazit

Eine allgemein gültige Blaupause für das "ideale Rechenzentrum" gibt es nicht. Dazu sind die Anforderungen der Anwender zu unterschiedlich. Doch mit den bereits verfügbaren Techniken lassen sich Data-Center aufbauen, die deutlich effizienter und umweltschonender arbeiten als ihre Vorgänger.

Ein Problem besteht darin, dass viele Rechenzentren mit der "normativen Kraft des Faktischen" zu kämpfen haben: Vorhandene Einrichtungen lassen sich nicht ohne größere Investitionen umbauen, und für einen Neubau fehlt es oft an Geld. Doch auch kleinere Schritte können die Effizienz eines Data Centers verbessern, etwa der Einsatz von Virtualisierung, der Einbau eines modernen Kühlkonzepts oder die Implementierung einer konvergenten Netzwerk-Infrastruktur. Dies zahlt sich in niedrigeren Betriebskosten aus – und kommt der Umwelt zugute. (wh)