Wie Standard-Server das RZ erobern

Die Top 5 Trends bei x86-Servern

17.11.2011 von Klaus Hauptfleisch
Multicore-CPUs, Storage-Techniken und spezialisierte Software sorgen dafür, dass x86- und IA64-Server weiter ins Data Center vordringen.

Der Vormarsch der x86-Server in den Rechenzentren setzt sich fort, wenn auch mit verminderter Geschwindigkeit. Ist ihr Umsatzanteil zwischen 2008 und 2010 in Westeuropa von 50 auf 66 Prozent steil in die Höhe gegangen, rechnet IDC -Analyst Giorgio Nebuloni für den Zeitraum 2011 bis 2015 nur noch mit einem Anstieg von 68 auf 71 Prozent. Dessen ungeachtet sind im Bereich der Standard-Server weiterhin Leistungssprünge zu erwarten, die eines Tages klassische Midrange- und Unix-Server und teilweise sogar Mainframes überflüssig machen könnten.

Ob Unix-Sytem oder leistungsstarker x86er sei letzlich eine "Skill- und eine Geldfrage", so Nebuloni

„Von den Stückzahlen her sind diese Legacy-Systeme zu vernachlässigen“, erläutert Nebuloni. „Da reden wir von einigen Tausend im Vergleich zu 100.000 auf der x86-Seite.“ Ob jungen Unternehmen oder sogenannten Green-Field-Projekten in Sachen geschäftskritischer Anwendungen zu einem Unix-System oder einem leistungsstarken x86er zu raten sei, ist für ihn wie für seinen Gartner-Kollegen Andrew Butler aber nicht zuletzt auch eine „Skill- und eine Geldfrage“. Denn im Gegensatz zu der großen Zahl von Linux-Fachleuten in Deutschland seien Unix-Experten heute deutlich schwerer zu finden.

Trend 1: Blade-Server wachsen weiter

Während Butler, HP-Manager Björn Paulewicz und andere Herstellervertreter das Blade-Wachstum weiter als ungebremst ansehen, beobachtet Nebuloni seit neun Monaten auch hier ein Abflachen der in den vergangenen fünf Jahren steilen Wachstumskurve. Zum Teil erklärt sich das für ihn damit, dass im Bereich High-Performance Computing oder im Web-Umfeld zunehmend Hyperscale-Server wie die iDataPlex-Maschinen von IBM oder Geräte der Proliant-SL-Serie von HP eingesetzt werden, da sie effizienter sind und eine noch höhere Leistungsdichte versprechen. Außerdem seien die I/O-Komponenten in den Hyperscale-Servern nicht gebündelt, sondern arbeiteten jeweils unabhängig voneinander.

Ein anderer Faktor, der aus Sicht Nebulonis das Blade-Wachstum verlangsamt, ist die zunehmende Virtualisierung. Wie eine vor sechs Monaten organisierte Umfrage zeige, werden Blades deutlich häufiger als Tower- oder Rack-Systeme virtualisiert. Tatsächlich habe die Studie ergeben, dass 50 bis 60 Prozent der installierten Basis von Blades beim nächsten Refresh in drei Jahren durch Virtualisierung konsolidiert werden sollen. „Als Klebstoff sind Blades super für die Anbieter, wenn es darum geht, größere Volumenverträge für Infrastrukturprojekte an Land zu ziehen“, so der Analyst. „Denn so können sie nicht nur ihre Server verkaufen, sondern auch Netzwerklösungen, Services und Software.“

Mit Blades in die Wolke

HP-Manager Björn Paulewicz sieht das Blade-Wachstum weiter ungebremst. Weitere Trends sind für ihn eine verstärkte Nachfrage nach Komplettsystemen und die Netzwerkkonsolidierung
Foto: HP

HP-Manager Paulewicz sieht das in einem anderen Licht. Seiner Meinung nach werden Blades unter anderem deshalb auch verstärkt für geschäftskritische Anwendungen eingesetzt, weil sie sich „ideal für Virtualisierung eignen, die oftmals das Fundament für Cloud Computing ist“. Zumal fragten die Unternehmen vermehrt nach Komplettsystemen. Technische Details interessierten sie nicht mehr an erster Stelle: „Vielmehr wollen sie neue Anwendungen und Dienstleistungen schnell und unkompliziert in ihre bestehende IT-Infrastruktur einbinden. Im Cloud Computing spiegelt sich dieser Trend wieder.“

Als weiteren Trend sieht er die Netzwerkkonsolidierung. Dank neuer Industriestandards und Spezifikationen wie Data Center Bridging werde künftig im Multi-Hop-Verfahren der ungesplittete Transport von LAN- und SAN-Daten über mehrere Netzwerkknoten ermöglicht, wodurch Unternehmen weniger Komponenten benötigen. HP werde diese neuen offenen Standards mit der nächsten Generation der ProLiant-Server und der Virtualisierungstechnologie VirtualConnect FlexFabric bereits unterstützen.

Trend 2: Storage-Anbindung treibt die Server-Leistung

Als aktuell leistungsstärkster x86-Vertreter von IBM soll das System x3850 X5 mit zwei bis vier 6- bis 10-Kern-Prozessoren und MAX5-Speichererweiterung für höchste Performance bürgen
Foto: IBM

„Die x86/IA64-Entwicklung ist historisch vor allem durch Stabilität und wenig Überraschungen geprägt“, sagt Christian Behma, Consultant Enterprise Solutions bei Comparex. „Daher erwarten wir auch für die nächsten fünf Jahre eine konstante Entwicklung hinsichtlich der Gesamtleistung, der Prozessoren, der Anzahl der Prozessorkerne, der Threads sowie der Speicherkapazitäten und des Stromverbrauchs.“ Die Server würden in all diesen Aspekten schneller und leistungsfähiger. Jörg Dehnen, System x-Produktmanager bei IBM Deutschland, betont, dass Leistungssteigerungen maßgeblich, aber nicht gänzlich vom Portfolio der CPU-Hersteller Intel und AMD abhingen. Denn entscheidend für die Gesamtleistung seien auch weitere Entwicklungen bezüglich Speicher und Speicheradressierung, I/O und Datenübertragungsraten. Im Bereich Fibre Channel gehe der Trend von 8 Gigabit zu 16 Gb, im RAM-Bereich zeichne sich der Wechsel von 1.333 zu 1.600 MHz ab. „Abgerundet wird dies durch Innovationen der Serverhersteller, beispielsweise von IBM mit MAX5-Speichererweiterungen und den damit verbundenen Leistungs- und Kapazitätssteigerungen“, so der Manager.

RAM statt Festplatte?

Für Uwe Romppel ist die direktere Speicheranbindung an die CPU einen wesentlicher Faktor für neue Leistungssprünge im Serverbereich
Foto: Fujitsu

Uwe Romppel, Chef der Product Development Group Server bei Fujitsu Technology Solutions, sieht in der direkteren Speicheranbindung an die CPU einen wesentlichen Faktor für neue Leistungssprünge im Serverbereich. Neue Technologien wie Load-Reduced- oder kurz LR-DIMMs ermöglichten es, dass sich die RAM-Menge mindestens verdoppeln lasse. Durch Non-Volatile-Speicher schließe sich zunehmend die Lücke zwischen Haupt- und Disk-Speicherlatenz. Das fange an bei SSDs mit SAS-Interface und reiche bis hin zu entsprechenden PCI-Express-Lösungen und Hauptspeicherergänzungen, wodurch Storage immer näher an die CPU rücke. Romppel: „Braucht man am Ende noch Festplatten, wenn der Hauptspeicher so groß wird wie heutige Platten und dabei non-volatil ist?“

Trend 3: Multicore und Co. - kein Ende beim CPU-Wettrennen

Abbild von Intels Many-Integrated-Core-Architektur
Foto: Intel

Nach Moores Gesetz aus den 60er Jahren verdoppelt sich die Transistorendichte alle 18 bis 24 Monate. Nebuloni zufolge ist mit jeder Prozessorgeneration ein Leistungszuwachs von 20 Prozent drin. Auch wenn sich der Verkaufsstart der neuen Intel-Xeon-Prozessoren nach dem der 5600-Serie Mitte 2010 voraussichtlich auf Anfang 2012 verschiebt, seien Intel und AMD heute bei einem Generationszyklus von anderthalb Jahren angelangt. Das heiße, dass sich die Leistung der Prozessoren abhängig von der I/O alle drei bis vier Jahre verdoppele. Der IDC-Analyst geht davon aus, dass sich die Geschichte bezüglich der Geschwindigkeit noch mindestens zwei bis drei Jahre fortschreiben lässt. Wann die viel beschworene physikalische Grenze bei der Transistorendichte mit herkömmlicher Siliziumtechnik erreicht sei, lasse sich nicht genau sagen. Nach Ankündigung der „Ivy Bridge“ genannten 8-Kern-Prozessoren auf Basis der 22-Nanomenter-Fertigung macht sich Intel allerdings schon an dem nächsten Schritt der 14-Nanometer-Fertigung. Dies war auch eine der Botschaften auf dem letzten Intel Developer Forum, wobei Details zu dem für Ende 2013 erwarteten Tri-Gate-Prozessor P1272 und dem SoS P1273 bezüglich der Zahl der Kerne und der Leistungserwartungen noch ausstehen.

80 Kerne auf der CPU - die Software muss mitspielen

Gleichzeitig arbeitet Intel in Braunschweig und Jülich versuchsweise schon an Multikern-Prozessoren mit 48 und 80 Kernen. Das japanische Startup-Unternehmen Tilera bringt es sogar auf 100 Kerne in einem Prozessor. Wie die Seamicro-Server mit 768 Atom-Prozessoren in einem Rack oder ähnliche Ansätze mit ARM-Prozessoren eignen sich solche Lösungen laut Nebuloni aber nur für Big Data- oder einige Web-Workloads Der Grund: die Software muss dazu Super-Multi-Threading unterstützen; es ist eine große Parallelisierung erforderlich, um die Befehlsströme so zu teilen, dass sie auf möglichst vielen Kernen laufen. Im Falle normaler Enterprise-Software würde der Effekt verpuffen oder kaum spürbar sein. Interessant in dem Zusammenhang findet Nebuloni, dass Microsoft für Windows 8 die Unterstützung von ARM-Prozessoren angekündigt hat. Denn damit könnten sich im Multi-Core-Bereich neue Wege erschließen. Auch hier gilt für den IDC-Mann, dass die unterstützende Software erst geschrieben werden muss, weshalb die Entwicklung frühestens erst in drei bis vier Jahren ihren Lauf nehmen werde.

Ob derartige Multikern-Prozessoren jemals eine breitere Anwendung finden werden, weiß auch der IDC-Experte nicht, aber Software-Unterstützung ist für ihn ein wichtiges Stichwort: „Ich erwarte, dass Leistungssprünge in den nächsten drei bis fünf oder sogar zehn Jahren viel mehr von Fortschritten bei der Software kommen werden.“ Die Zahl der CPU-Kerne oder -Threads könne noch so sehr steigen, wenn die Software nicht mitspiele, nütze ein Aufrüsten wenig. Datenbankanbieter wie Oracle zeigten sich jedoch bemüht, mehr als bisher aus den Prozessoren und Systemkonfigurationen herauszuholen.

Während rund 60 Prozent der in Europa installierten Systeme noch mit vier Kernen ausgestattet sind, steigt mit Intel die Zahl der 6-Kern-Systeme, und mit Ivy Bridge stehen schon 8-Kern-Prozessoren vor der Tür. Mit Multi- und Hyper-Threading lässt sich noch mehr aus der CPU herausholen, aber auch hier gilt, dass viele Anwendungen dies gar nicht unterstützen.

Trend 4: Power Density – Energiedichte wird zum Problem

Vielleicht auch das die x86-Zukunft: Phil Nail, Co-Gründer und CTO von AISO.net mit einem IBM BladeCenter, das in dem Rechenzentrum des Unternehmens zu 100 Prozent mit Solarstrom läuft
Foto: AISO.net

Mit wachsender Leistungsdichte der Server steigt indes auch die Energiedichte, was besonders bei Blade-Systemen zu beobachten ist. Nicht nur für große Rechenzentren entwickelt sich das zu einem infrastrukturellen Problem bezüglich Stromversorgung und Kühlung. Denn viele Data Center sind laut Nebuloni zehn oder gar 20 Jahre alt und gar nicht auf eine so hohe Energiedichte vorbereitet. Deswegen treiben gerade große Rechenzentren die Serverhersteller und diese wiederum ihre Komponentenlieferanten an, den Effizienzgrad stetig zu verbessern. HP, Dell, IBM und Co. hätten dahingehend auch schon viele Fortschritte erzielt, kommentiert Nebuloni. Was die Netzteile angeht, habe sich der Effizienzgrad seit 2009 von durchschnittlich 70 auf 80 oder gar 90 Prozent erhöht.

Bei den Amazons und Googles dieser Welt mache der Stromverbrauch samt Kühlung einen ganz großen Kostenblock aus, bei kleineren Unternehmen dagegen weniger, weil Personalkosten und Lizenzgebühren für sie oft schwerer wiegen. Dafür hätten die Konzerne aber teilweise damit zu kämpfen, dass die Energiedichte nicht ausreiche für bestimmte Workloads, oder dass in bestimmten Städten wie London die Stromversorgung für ihre Rechenzentren zu knapp bemessen ist, weshalb sie schlicht gezwungen seien, den Energieverbrauch zu reduzieren. Bei High-Density-Racks kommen laut Fujitsu-Manager Romppel schnell 18 bis 30 kWh an Energiebedarf zusammen. Das erfordere intelligente Steuerungssysteme, die in der Lage sind, Teilsysteme abzuschalten und die Last auf die vorhandenen Systeme zu verteilen.

Trend 5: Neue Kühlkonzepte für Server

Der im Mai 2010 in Betrieb genommene IBM-Supercomputer Aquasar auf Basis von Blade-Servern ist ein Pilotprojekt für Heißwasserkühlung mit Mikrokanalkühlern auf der Rückseite der Prozessoren
Foto: IBM

Was die Kühlung angeht, beobachtet Nebuloni neue Wege der Hersteller, darunter etwa die Flüssigkühlung statt Ventilatoren. Das senkt den Energiebedarf. Eine zunächst verrückt klingende Lösung für einen „Aquasar“ genannten Supercomputer hat IBM zusammen mit der Eidgenössischen Technischen Hochschule Zürich entwickelt: Die Chips des aus zwei BladeCenter-Servern bestehenden Systems mit einer angegebenen Spitzenrechenleistung von 10 Teraflops werden nicht mit kaltem, sondern mit bis zu 60 Grad heißem Wasser gekühlt. Da keine energieintensive Kältemaschine nötig ist, soll sich der Verbrauch gegenüber herkömmlicher Luftkühlung um bis zu 40 Prozent reduzieren. Außerdem kann die Abwärme über einen Wärmetauscher auch der Gebäudeheizung zugeführt werden. Durch den Einsatz von SSD-Platten oder SSD-Karten wie FusionIO sieht IBM-Produktmanager Dehnen weitere Möglichkeiten, Strom zu sparen.

Interessant für Unternehmen mit Hyperscale-Umgebungen könnte das von HP gerade lancierte „Project Moonshot“ werden. Der Hersteller verspricht, damit den Energieverbrauch um bis zu 89 Prozent zu senken, den Platzbedarf um bis zu 94 Prozent und die RZ-Gesamtkosten um bis zu 63 Prozent.

Neue Schnittstellen – USB 3.0, Fibre Channel over Ethernet etc.

Hinsichtlich neuer Interfaces und Anschlüsse verweist IBM-Manager Dehnen auf den Wechsel von USB 2.0 auf USB 3.0, Comparex-Consultant Behma auf die Zusammenführung von Speicher- und Kommunikationsnetzwerken in einem „Converged Network“. Fujitsus Server-Manager Romppel rechnet mit einem höheren Datendurchsatz des gesamten I/O-Systems, angefangen von 40Gbit-Ethernet im Jahr 2012 bis hin zu 100GbE drei Jahre später. Die größte Neuigkeit im Schnittstellenbereich ist für IDC-Analyst Nebuloni Fibre Channel over Ethernet, wie es allen voran Cisco seit gut zwei Jahren forciere. Diese Netzwerkmodule verbinden Ethernet mit Fibre-Channel-basierten SAN-Storage-Systemen, wodurch mehrere I/O-Komponenten zu einer zusammengefügt werden können. Das Problem ist laut Nebuloni aber, dass jeder Hersteller versuche, sein eigenes Süppchen zu kochen. Bezüglich 40Gb-Ethernet ist der Analyst nicht ganz so optimistisch wie HP-Mann Romppel. Nach seiner Einschätzung kann es noch Jahre dauern, bis die Technik zum Mainstream wird.

Fazit

Mit immer größeren Leistungssprüngen werden x86- und IA64-Server zunehmend im Feld der Midrange- und Unix-Systeme wildern. Ob die Legacy-Systeme ihre Daseinsberechtigung im Bereich geschäftskritischer Anwendungen behalten werden, hängt Nebuloni zufolge nicht zuletzt auch vom Verkaufs- und Marketinggeschick der Anbieter ab. Dass Leistungsverbesserungen im x86-Umfeld künftig nicht nur von den Prozessorherstellern kommen werden, sondern auch von der Software, leuchtet ein. GPGPUs (General Purpose Computing on Graphics Processing Units) treiben laut Fujitsu-Manager Romppel die Systemleistung weiter voran. Damit aber wird sich das Problem der zunehmenden Leistungs- und Energiedichte noch verstärken. Die Hersteller sind deshalb gefordert, weiter an einer höheren Energieeffizienz der Systeme zu arbeiten. (wh)