Data Center Trends 2012

Zeitenwende im Rechenzentrum

17.07.2012 von Bernd Reder
Neue Techniken machen das RZ flexibler und effizienter. Doch mit Virtualisierung, Private Clouds oder Converged Networks steigt auch die Komplexität.
Foto: BT

Die Welt der Rechenzentren ändert sich in hohem Tempo. Trends wie Cloud Computing, das Verarbeiten großer unstrukturierte Datenmengen (Big Data) sowie das zentrale Bereitstellen von Desktop-Umgebungen (Virtual Desktop Infrastructure) sorgen dafür, dass die Ansprüche an moderne Data-Center stetig wachsen. IT-Verantwortliche müssen dabei eine ganze Reihe technischer Innovationen und Konzepte im Blick behalten.

1. Server-Systeme: Kompakter und energieeffizienter

Soll es ein Rackmount-Server sein oder doch lieber ein Tower-System? Oder ist ein Blade-Server das geeignete System? Das sind zentrale Fragen, die IT-Manager heute beantworten müssen. Ein Patentrezept gibt es nicht. "Anwender werden künftig verstärkt auf Blade-Server und Rackmount-Systeme setzen", sagt beispielsweise Sascha Denz, Experte für die Primergy-Rack- und Tower-Server bei Fujitsu Technology Solutions. "Der Anteil der Tower-Server-Systeme nimmt dagegen ab."

Ein Grund dafür ist laut Denz, dass Unternehmen ihre Rechenzentren konsolidieren wollen. Blade-Server bieten eine höhere Leistungsdichte als Tower-Systeme. "Zudem setzen Anwender verstärkt auf Server der gehobenen Leistungsklassen. Sie erlauben es, mehr und größere Virtual Machines auf einem System zu betreiben", so Denz. Eine ähnliche Einschätzung findet sich auch bei anderen großen Server-Herstellern wie Hewlett-Packard, IBM, Dell und Oracle/Sun. Nach Erhebungen von Gartner und IDC ist ein klarer Trend in Richtung Blade-Systeme zu erkennen. So stieg der weltweite Umsatz mit Blade-Servern laut Gartner 2011 um 14,5 Prozent. IDC zufolge entfielen im vierten Quartal 2011 16,8 Prozent des gesamten Umsatzes im Bereich Server auf die flachen Rechner.

Wer beherrscht das Thema Big Data?

Die COMPUTERWOCHE sucht die besten Big-Data-Projekte. Bewerben Sie sich als Anbieter von Produkten und Dienstleistungen zusammen mit Ihrem Referenzkunden beim COMPUTERWOCHE- Award "Big Data 2012". In Zusammenarbeit mit einer renommierten Jury kürt die Redaktion am 26. September in Offenbach am Main je drei Gewinner in den beiden Kategorien "Managing Data" und "Analyzing Data". Darüber hinaus vergeben wir in einer Sonderkategorie Publikumspreise für das beste Big-Data-Projekt sowie die innovativste Big-Data-Technologie.

Weitere Informationen unter: www.bigdata12.de

Neben dem geringen Platzbedarf sprechen Faktoren wie Skalierbarkeit, hohe Effizienz und die deutlich einfachere Netzwerkanbindung (Verkabelung) für Blade-Systeme und Rackmount-Server. Auch das Management solcher Systeme ist einfacher als bei einem "Zoo" von Tower-Systemen, die möglicherweise noch von unterschiedlichen Herstellern stammen. Tower-Systeme kommen dagegen vor allem für kleinere Unternehmen in Frage, die die Kosten für ein Blade-Chassis scheuen, das unter Umständen mangels Bedarf nur zu einem Bruchteil mit Blades gefüllt wäre.

2. Der Trend geht in Richtung x86

Was den Prozessortyp betrifft, stehen die Zeichen weiterhin auf x86. Im vierten Quartal 2011 entfielen gut 64 Prozent des weltweiten Umsatzes mit Servern auf Systeme mit dieser Architektur. Zur CeBIT kündigte Intel denn auch mit dem Xeon E5-2600 den jüngsten Spross seiner Server-CPU-Linie an, der bis zu acht Rechenkerne besitzt und PCI-Express 3.0 unterstützt.

Allen Unkenrufen zum Trotz behaupten sich neben x86-Systemen auch Server mit IBMs Power-Architektur auf dem Markt. Systeme mit Power-Prozessoren und IBMs Unix-Derivat AIX machen laut IDC 50 Prozent des Unix-Server-Marktes aus. Federn lassen mussten dagegen HP mit den Itanium-CPUs und Oracle, das durch den Kauf von Sun deren Server mit Sparc-Prozessoren "erbte".

Weitere Trends im Bereich Server sind laut Fujitsu-Mann Denz:

3. Extreme-Low-Energy-Server

Der Redstone Development Server von HP wurde im Rahmen des Projekts Moonshot entwickelt. Er ist mit stromsparenden Prozessoren auf Basis der ARM-Architektur bestückt und soll in der ersten Jahreshälfte 2012 auf den Markt kommen.
Foto: HP

Für frischen Wind im Bereich Server könnten "Extreme-Low-Energy-Server" sorgen, die mit Prozessoren auf Basis der ARM-Architektur oder mit CPUs von Intel (Atom) oder Tilera (Tile-GX) bestückt sind. Solche Systeme zeichnen sich vor allem durch einen extrem niedrigen Energieverbrauch aus. HP, ironischerweise einer der größten Server-Hersteller und Abnehmer von Intels x86-Prozessoren, hat mit der HP Redstone Server Development Platform einen Server präsentiert, der mit einem System-on-Chip (SoC) der texanischen Firma Calxeda bestückt ist. Die Grundlage des Chips bildet die Prozessor-Architektur von ARM. Das System, das in der ersten Hälfte 2012 zur Verfügung stehen soll und im Rahmen des sogenannten Moonshot-Projekts entwickelt wurde, bietet bis zu 288 Server-Knoten pro 4-HE-Chassis (HE = Höheneinheiten).

Ein Moonshot-Server-System kann laut HP maximal 2.800 Server-Knoten in einem Rack vorhalten. Das reduziert den Aufwand in Bezug auf Verkabelung und Netzwerkanbindung erheblich. Laut HP benötigt ein vergleichbarer x86-Server mit 400 x86-Dual-Socket-Servern im Format 1 HE 20 Netzwerk-Switches und kommt auf einen Stromverbrauch von 91 kWh pro Stunde. Der HP-Moonshot-Server benötigt für eine vergleichbare Workload 1.600 Server-Knoten, zwei Switches und deutlich weniger Kabel. Der Strombedarf liegt bei 9 kWh, beträgt also nur ein Zehntel des Intel-Prozessors. Zudem benötigt der Server 94 Prozent weniger Platz.

Allerdings sind die Einsatzmöglichkeiten solcher Systeme derzeit noch begrenzt. Ein Hemmschuh ist das Fehlen von Betriebssystemen und Anwendungen. Doch für spezielle Aufgaben, etwa als Web-Server oder "Number Cruncher", der große Datenmengen verarbeitet, könnten ARM, Atom und Co. durchaus eine Alternative zu konventionellen x86- oder RISC-CPUs bieten.

4. Virtualisierung: Effizientes Management gefordert

Die Kluft zwischen physischen und virtualisierten Servern wird immer größer. Dadurch wächst der Bedarf an Management-Tools, mit denen sich diese immer komplexeren IT-Infrastrukturen verwalten lassen.
Foto: IDC

Ein Megatrend nicht nur im RZ-Umfeld ist nach wie vor die Virtualisierung. Nach Angaben von IDC stagniert die Zahl der weltweit installierten physischen Server seit 2008 bei etwas mehr als 30 Millionen Systemen. Dem stehen im laufenden Jahr etwa 70 Millionen virtualisierte Server gegenüber; 2013 sollen es mehr 80 Millionen virtualisierte Systeme sein. Die Folge: eine komplexere IT-Infrastruktur, die höhere Anforderungen in Bezug auf das Management der Server und Storage-Systeme stellt.

Laut einer Studie von IDC steht bei 50 Prozent der Unternehmen ein einfacheres Management der IT-Umgebung auf der Wunschliste ganz oben. Rund 45 Prozent sehen die Vielzahl unterschiedlicher Server-Systeme, die im Einsatz sind, als problematisch an, und mehr als 30 Prozent wünschen sich, dass der Zeitaufwand für das Aufsetzen eines – physischen oder virtualisierten - Servers niedriger ausfällt. Trotz dieser Hemmnisse ist Virtualisierung eine Schlüsseltechnik für das Rechenzentrum von heute – und morgen. Die Auslastung von physischen Servern, die ohne Virtualisierung bei etwa 15 bis 40 Prozent liegt, lässt sich damit auf etwa 80 Prozent erhöhen.

Das hat jedoch seinen Preis. Denn mit der Auslastung steigt auch die Wärmelast eines Server-Racks. Das wiederum bedeutet höhere Anforderungen in Bezug auf die Kühlung und Klimatisierung. Dennoch ist Virtualisierung ein wesentlicher Baustein jedes Data-Centers, erklärten Experten wie Patrick Pulvermüller, Geschäftsführer des Service-Providers Host Europe: "Durch Virtualisierung erhöht sich die Packungsdichte in Rechenzentren. Damit werden die vorhandenen Komponenten in einem Server, wie etwa CPU, RAM, Festplatten oder Lüfter besser ausgelastet."

Laut Pulvermüller lässt sich mithilfe von Virtualisierung der Energiebedarf eines Servers bei gleicher Performance um 40 bis fast 100 Prozent verringern. Um auf diese Werte zu kommen, verglich er einen Server vom Typ Dell R210 (eine Xeon-CPU, 16 GByte RAM, zwei SAS-Festplatten) mit einer virtualisierten Instanz auf einem größeren Server-System.

5. Virtualisierte Storage-Systeme

Virtualisierung ist jedoch nicht nur bei Servern angesagt. In den heute vorhandenen Storage-Lösungen hat "Automated Storage Tiering" (AST) das traditionelle hierarchische Speichermanagement abgelöst. AST beseitigt die "Storage-Silos": Unterschiedliche Arten von Speichermedien, etwa SATA- und Fibre-Channel-Platten oder SAS-Laufwerke werden bisher in der Regel von unterschiedlichen Speicher-Controllern angesprochen. Heute lassen sich diese unterschiedlichen Laufwerkstypen parallel in einem Speichersystem einsetzen. In der Praxis bedeutet dies, dass derselbe Datensatz nach Bedarf auf unterschiedlichen Medien abgelegt werden kann.

Damit lassen sich Kosten senken, weil Daten automatisch auf preisgünstigere Medien mit höherer Kapazität verlagert werden, sobald sie nur noch selten benötigt werden. Das entlastet teure Speichermedien und schlägt sich zudem in niedrigeren Kosten für Kühlung und Energie nieder. Zudem lassen sich Server-Systeme und Storage-Komponenten besser "synchronisieren". Denn Server-Virtualisierung erlaubt es, die Zahl der virtualisierten Rechenkapazitäten automatisch an Lastspitzen anzupassen. Dadurch steigen jedoch auch die Anforderungen an die Flexibilität der Storage-Systeme. Mithilfe von Tiered Storage lassen sich Schwankungen bezüglich der Nachfrage nach Speicherplatz durch Server abfangen.

6. Das Data-Center in der Box

Rechenzentren nehmen eine Menge Platz in Anspruch, oft mehrere 1000 Quadratmeter. Zudem vergehen etwa zwei Jahre von der Planung bis zur Inbetriebnahme. Deutlich schneller, oft innerhalb von einigen Monaten, geht es mit modularen oder Container-Rechenzentren. In einem Container-Data-Center werden die Racks mit Servern sowie Speicher- und Netzwerksystemen in zwei Reihen an den Innenseiten eines Standard-Industrie-Containers platziert. Anbieter solcher Systeme sind unter anderem Cisco Systems, HP mit dem POD (Performance Optimized Data Center), i/o Data-Centers und Oracle/Sun – einer der Pioniere dieser Art von Rechenzentren. Mittlerweile sind etwa 15 Anbieter auf dem Markt vertreten.

Ein Converged-Network-Adapter transportiert sowohl Fibre-Channel- als auch LAN-Daten.
Foto: s

In Standard-Containern lässt sich ein komplettes Data Center inklusive IT-Ausrüstung, Kühlung und Stromversorgung unterbringen. Ein Vorteil des Konzepts: Wer mehr Rechenleistung benötigt, kann weitere Container ordern und damit das Data Center erweitern. Container wie der POD 240a von HP bieten Raum für 44 Racks und bis zu 7040 (virtualisierte) Server-Knoten. Die Energieeffizienz (PUE, Power UsageEffectiveness) liegt bei 1,05. Das ist nicht mehr allzu weit von den Werten entfernt, die ein modernes konventionelles Rechenzentrum erreicht. Hier liegt die PUE bei 1,1 bis 1,2.

Vorteile POD Rechenzentren

Niedrigere Investitionskosten (Capex)

Laut Rosendin Electric zwischen 4.500 $ pro kW bis 19.000 $/kW. Herkömmliche Data Center kommen auf 6.000 bis 26.000 $/kW, abhängig von der Kategorie (Tier)

Hohe Flexibilität

Container-Data-Center lassen sich an fast jedem Ort platzieren und sind zudem mobil.

Schnelle Installation

Vom Projektstart bis zur Inbetriebnahme vergehen laut Rosendin etwa 80 Wochen. Bei einem Standardrechenzentrum sind mindestens 116 Wochen zu veranschlagen. Anbieter von Container-Data-Centern nennen 12 Wochen vom Auftragseingang bis zur Auslieferung des Rechenzentrums.

Skalierbarkeit

Die Kapazität lässt sich durch Hinzufügen weiterer Container schnell erweitern.

"Customization"

Die meisten Hersteller bestücken ein Container-Rechenzentrum mit den IT-Systemen, die der Anwender haben möchte, auch mit Produkten von Konkurrenten.

Nachteile POD Rechenzentren

Stabilität und Dauerhaftigkeit

Es fehlen noch Daten, wie lange ein Container-Rechenzentrum Witterungseinflüssen trotzen kann, speziell in feucht-kalten Regionen.

Beengte Arbeitsverhältnisse für IT-Personal

Container bieten nur beschränkte Bewegungsmöglichkeiten für das Wartungspersonal. Allerdings ist dies mittlerweile auch in vielen Standard-Rechenzentren der Fall.

Bindung an einen Hersteller

Der Anwender muss auf den Service des Anbieters des Container-Data-Centers zurückgreifen.

Beschränkung auf bestimmte IT-Ausrüstung

Auch wenn die Anbieter mittlerweile davon abkommen, forcieren etliche den Einsatz von IT-Systemen, die sie selbst herstellen. Dies schränkt die Flexibilität des Nutzers ein.

Nach Berechnungen der amerikanischen Firma RosendinElectric, die unter anderem Data Center baut, sind die Kapitalkosten eines Tier-1 Data Centers in der Box etwa 33 Prozent niedriger als die eines herkömmlichen RZs im Gebäude. Bei einem Tier-2-Rechenzentrum sind es immerhin noch 20 Prozent.

7. Speichernetz und LAN im Verbund

In vielen Rechenzentren ist die Anbindung von Servern mittels 10-Gigabit-Ethernet fast schon Standard. Ab 2013 kommt 40-Gigabit-Ethernet hinzu.
Foto: Cisco

Eine der größten Umwälzungen im Rechenzentrum betrifft die Netzwerkanbindung. Das gilt nicht nur für die Datenraten, Stichwort 40- und 100-Gigabit-Ethernet. Ein wichtiger Trend ist die Konvergenz von Speichernetzen und der Ethernet-Infrastruktur: Hier heißt das Schlagwort Converged Networks. Möglich wird dies durch Data Center Bridging (DCB), eine spezielle Ethernet-Version, und Fibre-Channel over Ethernet (FCoE). In kleineren Netzen bietet sich der Einsatz von iSCSI an, das TCP als Transportmedium für Storage-Daten nutzt.

Ein Converged-Network-Adapter transportiert sowohl Fibre-Channel- als auch LAN-Daten.
Foto: HP

Der Haken bei Converged Networks: Es sind spezielle Converged Network Adapters (CNAs) in Servern nötig, die Ethernet und Fibre Channel "verstehen", zudem spezielle Switches. Der Vorteil: An die Stelle von zwei Infrastrukturen – eine für Storage, eine für den "normalen" Datenverkehr – kann ein einziges DCB-Ethernet-Netz treten. CNAs unterstützen zudem iSCSI. Allerdings ist nach Angaben von HP noch nicht absehbar, ob es entsprechende Treiber geben wird, die iSCSI in Bezug auf die Performance mit Fibre Channel vergleichbar machen.

Highspeed Ethernet Trends
Highspeed Ethernet Trends
Heutige Rechenzentrumsnetze stoßen bei der Performance an ihre Grenzen. Abhilfe verspricht die Migration auf 40- oder 100-Gigabit-Ethernet.
Trend 1:
Cloud, Virtualisierung etc. erfordern mittelfristig 40- oder 100-Gigabit-Ethernet.
Trend 2:
Verkabelung verursacht hohe Kosten.
Trend 3:
Glasfaser wird zur Pflicht.
Trend 4:
Nicht jeder Chassis-Switch ist Highspeed-Ethernet-tauglich.
Trend 5:
Ungelöste Fragen beim Netz-Monitoring.
Trend 6:
Neue Protokolle.

8. Neue Kühltechniken im RZ

Vor einigen Jahren betrug die Wärmelast in einem Rechenzentrum 1 kW bis 1,5 kW pro Rack. Im Rechenzentrum von BT (Germany) in Frankfurt am Main, das im Mai 2012 offiziell in Betrieb geht, sind dagegen 7 kWh pro Rack die Norm und mehr als 10 kW/Rack möglich. Um einen PUE-Wert (Power Usage Efficiency) von unter 1,3 zu erreichen, setzt BT in Frankfurt auf ein Mischkonzept: Beträgt die Außentemperatur unter 16 Grad, wird ausschließlich mit Außenluft gekühlt – ohne Einsatz von Kältemaschinen. Im Temperaturbereich zwischen 16 bis 22 Grad werden sowohl Kältemaschinen als auch Außenluftkühlung verwendet. Erst bei Temperaturen von mehr als 22 Grad kommt ausschließlich die mechanische Kühlung zum Zuge.

Wie Pioniere das Data Center kühlen
Verdunstungskühlung
Modulare Verdunstungskühleinheiten wie Ecobreeze von Schneider Electric ermöglichen es in vielen Regionen, Rechenzentren hauptsächlich mit Außenluft zu kühlen
Natürliche Luftströmungen und ein Vertikaldesign für die optimierte Kühlung
Das im Bau befindliche Marilyn-Rechenzentrum in Paris verwendet natürliche Luftströmungen und ein Vertikaldesign für die optimierte Kühlung des Gebäudes
Thermisches Rad
Das thermische Rad schließt Innen- und Außenluft voneinander ab und schafft gleichzeitig einen Temperaturausgleich, dessen Ausmaß sich nach der Drehgeschwindigkeit richtet.
Submersionskühlung
Die Idee, IT-Systeme direkt flüssig zu kühlen – ohne Umweg über die Luft – feiert zur Zeit fröhliche Urständ. So verwendet der britische Rechenzentrumsbauer und –betreiber Ark Continuity Submersionssysteme der Marke CarnotJet von Green Revolution Cooling. Man muss sie sich als eine Art Hightech-Wanne vorstellen, in die das gesamte Hitze abstrahlende IT-Equipment gehängt wird.
Submersionskühlung in der Maschine
Den wohl konsequentesten Weg der Flüssigkühlung geht das junge amerikanische Unternehmen Hardcore Computer. Auch Hardcore verwendet zum Kühlen ein dielektrisches Öl, das gut Wärme leitet...
Liquiblade
Jedes der angebotenen „Liquidblades“ – ausgestattet mit aktuellen Prozessoren und entsprechender Connectivity – wird in sich gekapselt...
Liquiblade
Die Kühlflüssigkeit, die mehr als 1300 mal so gut isoliert wie Luft, fließt über tropffreie Zu- und Abflüsse und damit verbundene Schläuche kühl in den gekapselten Rechner ein und warm wieder hinaus. Das übrige Kühlsystem besteht aus Pumpen und einer Einheit, die die Kühlflüssigkeit ihrerseits kühlt, bevor sie in die Rechner zurückfließt.

Fast schon klassische Konzepte sind die Kaltgang- und Warmgang-Einhausung. Einen anderen Weg geht der Nürnberger Service Provider Noris Network in seinem neuen Data Center. Er setzt ein Kyoto-Rad ein. Dabei handelt es sich um ein Metallrad von mehreren Metern Durchmesser, das als Luft-Luft-Wärmetauscher arbeitet. Damit, so der Hersteller Kyoto Cooling, ließen sich mehr als 80 Prozent der Energiekosten für die Kühlung einsparen. Andere Konzepte nutzen das kühle Erdreich, um die Temperatur von Kühlwasser nach dem Kühlvorgang zu senken (Geothermie).

In der Praxis kommt häufig eine Kombination mehrerer Verfahren zum Zuge, etwa eine Mischung aus Freiluftkühlung mit Warm- oder Kaltgangeinhausung sowie Flüssigkeitskühlung. Für Racks mit Hochleistungs-Servern ist zudem eine Wasserkühlung ein probates Mittel, um die Bildung von "Hot Spots" mit unzulässig hohen Temperaturen zu vermeiden. (wh)

Fazit

Einfacher wird es für IT-Verantwortliche mit Sicherheit nicht, das Rechenzentrum der Zukunft zu planen und die Systeme im Griff zu behalten. Das lässt sich nur mithilfe leistungsfähiger Management-Werkzeuge erreichen. Eine zentrale Rolle werden dabei unter anderem DCIM-Tools (Data Center Infrastructure Management) spielen, mit denen sich die Infrastruktur-Komponenten eines Rechenzentrums überwachen lassen, vom Server-Rack bis hin zur Türschließanlage. Doch der Aufwand lohnt sich. Denn steigende Energiekosten und die wachsende Abhängigkeit von IT-gestützten Prozessen lässt Unternehmen und Organisation der öffentlichen Hand keine Wahl, als die Effizienz und Performance ihrer Data Center zu erhöhen. (wh)

5 Tipps: Server- und Storage-Systeme managen

Laut IDC verkürzt ein effizientes Management von Servern, Storage-Systemen und virtualisierten IT-Ressourcen die Ausfallzeiten um etwa 30 Prozent. Anwendungen lassen sich um bis zu 40 Prozent schneller implementieren. Hinzu kommen Kosteneinsparungen beim Personal von 10 bis 25 Prozent und um bis zu 15 Prozent niedrigere Kosten für Software-Lizenzen.

Ein weiterer Vorzug ist die bessere Ausnutzung von Speichersystemen durch Storage-Virtualisierung und Storage-Tiering: Daten, die häufig benötigt werden, lagern auf schnellen, hoch verfügbaren Speichersystemen, Datenbestände, auf die selten zugegriffen wird, auf preisgünstigeren, dafür langsameren Speichermedien.

Um die Server- und Storage-Systemlandschaft in den Griff zu bekommen, rät IDC Unternehmen Folgendes: