Blades, Unix, x86 und Mainframe

Server-Plattformen auf dem Prüfstand

20.09.2011 von Klaus Hauptfleisch
Auf welche Server-Architekturen können sich CIOs langfristig verlassen? Wie Experten die Zukunft der wichtigsten Plattformen einschätzen.
Foto: zentilia - Fotolia.com

Im Mittelpunkt jeder Server-Strategie stehen für Anwenderunternehmen immer die genutzten Applikationen. Für IT-Verantwortliche ist es daher entscheidend, die Roadmaps der Software- und Hardware-Hersteller genau zu beobachten. Nachdem sich mit IBM, Hewlett-Packard (HP), Dell, Oracle und Fujitsu nur noch fünf Anbieter fast 88 Prozent des Server-Weltmarktes teilen, ist die Konsolidierung herstellerseitig schon sehr weit fortgeschritten, berichtet IDC-Analyst Giorgio Nebuloni. Lokale Größen wie Maxdata sind vom Erdboden verschwunden, geschluckt oder im Fall der Japaner mit der Ausnahme von Fujitsu sowie NEC auf ihren Heimatmarkt zurückverwiesen worden. Auch wenn Acer und Lenovo sich noch so bemühen, den x86-Markt zu erobern, wird ihnen allenfalls regionale Bedeutung zugebilligt. Andreas Zilch von der Experton Group will in dem Segment gar keine neuen Player erkennen. Aus der Sicht von Gartner-Analyst Andrew Butler positionieren sich mit dem neuen Konvergenzgedanken des Unified oder Fabric Computing (Gartner-Begriff) unter Einbindung von Netzwerk- und Storage-Komponenten aber Cisco und möglicherweise auch EMC als zwei starke zusätzliche Player, die durchaus Chancen haben, das heutige Quintett neu aufzumischen.

Die COMPUTERWOCHE hat Butler, Nebuloni und Zilch gebeten, die Entwicklung der einzelnen Server-Plattformen zu beleuchten und den Anwendern jeweils Handlungsempfehlungen zu geben.

Im Highend weichen x86er den Begriff Midrange auf

Als Spitzenprodukt im Midrange-Bereich für Mission-Critical-Anwendungen schickt Fujitsu den Primergy RX900 S2 als 8-Sockel-Rack-Server ins Rennen.
Foto: IBM

Da x86-basierende Server mit 8- oder 10-Kern-Prozessoren (Intel Nehalem EX und Westmere EX) teils schon in Leistungsbereiche von Mainframes vorstoßen, verschwimmt der mit SPARC-, Power- und Itanium-Prozessoren verknüpfte Begriff „Midrange-Server“ immer mehr. Die klassische Vierteilung stimmt somit nicht mehr, zumal IBM mit System i (vormals iSeries oder AS/400) im Bereich der proprietären Midrange-Systeme heute mehr oder weniger allein auf weiter Flur ist. Mit 80 Kernen, 160 Threads und 3 Terabyte Speicher ist der Intel-basierende HP ProLiant DL980 für Butler in jeder Hinsicht eher ein Midrange-Server. Mit Blick auf proprietäre Server-Plattformen umfasst „Midrange“ für ihn auch Unix und alle Plattformen wie HPs Nonstop und Open VMS. Deshalb werden in diesem Artikel Unix- und klassische Midrange-Server zusammengefasst, zumal die meisten dieser Systeme sich in das mittlere Preissegment von 25.000 bis 250.000 Dollar fügen.

Vier Trends im Bereich Rechenzentrum

Folgende Entwicklungen werden nach Einschätzung von Emerson Network Power, einem Hersteller von Komponenten für Rechenzentren, die Entwicklung im Data-Center in den kommenden Jahren prägen:
Eine deutliche höhere Dichte von Systemen:
Die Wärmeleistung pro Rack steigt demnach im Schnitt von etwa 11 Kilowatt im laufenden Jahr und bis auf 17 kW im Jahr 2019. Durch die höhere Packungsdichte benötigen solche Rechenzentren etwa 35 Prozent weniger Energie. Hinzu kommen Einsparungen durch den geringeren Platzbedarf. Ein Data Center mit etwa 800 Quadratmetern und einer Wärmeleistung von 20 kW pro Rack wird in wenigen Jahren dieselben Leistungswerte erreichen wie heute ein Rechenzentrum mit 3000 Quadratmetern. Die Einsparungen, bezogen auf die Baukosten, betragen in diesem Fall etwa zwischen 700.000 Euro und rund 2 Millionen Euro. <br /><br /> Allerdings erfordert die wachsende Rechenleistung pro Rack spezielle Kühlungs- und Stromversorgungssysteme. Notwendig ist eine Kombination von Kalt-/Warmgang-Konzepten in Verbindung mit Wasserkühlung und mit modularen "Power Distribution Units" (PDUs) im Rack. Dadurch lässt sich der Energiebedarf der Systeme pro Rack um etwa ein Drittel senken.
Verfügbarkeit gewinnt an Bedeutung:
Die Anforderungen an die Verfügbarkeit von Rechenzentren und den IT-Services, die über sie bereitgestellt werden, nimmt drastisch zu. Amazon beispielsweise garantiert für seinen Cloud-Computing-Service "Elastic Compute Cloud" (EC2) eine Verfügbarkeit von 99,95 Prozent. Das heißt, die Ausfallzeit pro Jahr darf 4,5 Stunden nicht überschreiten. <br /><br /> Ein Großteil der Systemausfälle in Data Centern geht laut Emerson Network Power auf Ausfälle der Stromversorgung oder Probleme mit der Kühlung zurück. Deshalb gewinnen unterbrechungsfreie Stromversorgungen an Bedeutung – auch deshalb, weil sie Spannungsspitzen ausfiltern und von Servern, Switches und Storage-Systemen fernhalten. <br /><br /> Ein weiterer Faktor, der die Anfälligkeit von Rechenzentren senkt, ist eine Verringerung der Zahl aktiver Komponenten in Kühlsystemen. Dies lässt sich beispielsweise durch eine verstärkte Kühlung mithilfe von Außenluft erzielen. Sie macht zumindest einen Teil der Lüfter, Gebläse und Pumpen innerhalb eines Data-Centers überflüssig.
Flexibilität ist ein zentraler Faktor:
Rechenzentren müssen stärker denn je mit Lastspitzen zurechtkommen. Auch diese Entwicklung wird durch Cloud-Computing forciert: Handelshäuser werden beispielsweise in der Vorweihnachtszeit Rechenkapazitäten hinzubuchen, in den Sommermonaten dagegen die Nachfrage reduzieren. Das heißt für Server, Stromversorgungssysteme und Klimaanlagen: Sie müssen ihre Leistung an die Nachfrage anpassen. Das war bislang nicht der Fall, speziell bei der Kühlung und Stromversorgung. Diese Systeme laufen in vielen Rechenzentren stets unter Volllast, was sich negativ auf die Kosten auswirkt. Modulare Stromversorgungen und Kühlsysteme, die sich automatisch an Veränderungen der Umgebungstemperatur anpassen, können dieses Problem lösen.
Managebarkeit gewinnt an Bedeutung:
Die Komplexität von Rechenzentren nimmt weiter zu, bedingt durch Virtualisierung, immer leistungsfähigere Server mit Mehrkernprozessoren und die angesprochene höhere Systemdichte. Die Konsequenz: IT-Verwalter benötigen Management-Tools, mit denen sie die Komponenten überwachen und steuern können. Das gilt nicht nur für aktive Komponenten, sondern auch für die Verkabelung und die Akkus von unterbrechungsfreien Stromversorgungen. Ein Infrastruktur-Management-System muss in Echtzeit Statusmeldungen übermitteln und dem Systemverwalter dabei helfen, bereits im Vorfeld Ausfälle von Geräten zu erkennen. <br /><br /> Ein weiterer Punkt, der häufig übersehen wird: Management heißt im Data Center auch das Verwalten des Raums, der für Racks und andere Komponenten zur Verfügung steht. Planungstools wie etwa Nlyte 6.0 von Nlyte helfen dabei, das Platzangebot optimal auszuschöpfen.

X86- und IA64-Server – am Ende alles Blades?

Aktuelle Situation

Laut Nebuloni konnten x86- und IA64-Systeme ihren Umsatzanteil in den letzten Jahren deutlich steigern.
Foto: IBM

Ehre, wem Ehre gebührt. In der Krise ging die Tendenz ganz klar in Richtung x86- und IA64-Systeme. Laut Nebuloni ist ihr Umsatzanteil am westeuropäischen Servermarkt von 2008 bis 2010 von 50 auf 66 Prozent deutlich gestiegen. Nach Stückzahlen liegen die x86er sogar schon bei über 90 Prozent, allerdings setzen neue Trends wie Konsolidierung und Cloud Computing auch Grenzen des Wachstums. Der Umsatzanteil der Mainframes ist in diesem Zeitraum von 13 auf 11 Prozent leicht zurückgegangen, der der Midrange- und Unix-Server beziehungsweise RISC/EPIC/Power-Systeme von 37 Prozent auf 22 Prozent sogar stark. Nebuloni führt das vor allem darauf zurück, dass die frühere Sun 2008 und 2009 – im Zuge einer starken Migration von Solaris auf Linux meist zugunsten von x86-Servern – große Marktanteile verloren habe. Das Verhältnis Windows zu Linux im x86-Markt ist dennoch konstant bei 75 zu 25 geblieben, kommentiert Zilch die Entwicklung.

IDC-Analyst Butler glaubt an den Siegeszug der Blades.
Foto: IBM

Wegen ihrer Modularität, Hersteller- und Software-Neutralität geht der Trend eindeutig zu Blades. Zwischen 2003 und 2008 ist ihr Umsatzanteil am Server-Markt laut IDC von 0 auf 16 Prozent geradezu durch die Decke geschossen. Aber wie Nebuloni feststellt, hat sich der Produktmix seitdem nicht mehr so stark verändert. Gartner-Experte Butler zufolge machen Blades zwar heute nur rund 17 Prozent des Gesamtumsatzes bei Server-Hardware aus. Er vermutet aber, dass sie ihren Siegeszug stetig fortsetzen und möglicherweise in zehn Jahren das ganze Feld für sich einnehmen, selbst wenn sie dann vielleicht nicht mehr Blades genannt würden.

Neue Formfaktoren

SeaMicro sagt mit Hunderten von Atom-Servern in einem 10U-Rack dem Strom- und Platzverbrauch von ausgewachsenen Servern im Rechenzentrum den Kampf an.
Foto: ad

Obwohl sich die „Schwerter“ mehr und mehr in den Vordergrund drängen, machten sie Racks nicht obsolet. Vielmehr fügten sich Blade-Chassis wie das C7000 von HP oder die von IBMs H-Serie immer noch in Racks ein, womit sie laut Butler zum Oberbegriff eines Rack-optimierten Systems werden. Aber auch den Blades könnte in Form von noch modulareren Systemen neue Konkurrenz erwachsen. In Rechenzentren mit bis zu Zehntausenden von Nodes ziehen für „Extreme Scale-out (ExSO) High-Performance-Computing“ sogenannte „Skinless Server“ ein. Nicht minder interessant sind „Extreme Low Energy Server“ auf Basis von Atom- oder ARM-Prozessoren wie die von SeaMicro. Im neuesten SM10000-64HD hat das kalifornische Startup 768 Atom-Prozessoren mit jeweils 1,66 GHz in einem 10U-Rack untergebracht. Der Hersteller verspricht die Leistung von 60 1-RU-Servern mit Dual Socket Quad Core zu einem Viertel der Leistungsaufnahme und einem Sechstel des Platzverbrauchs. Noch adressieren diese Systeme in erster Linie die Googles, Yahoos und Amazons dieser Welt. Butler schätzt aber, dass sie später auch eine kommerziellere Verbreitung finden könnten.

Wie verlässlich ist HP als x86-Marktführer?

Sollte Hewlett-Packard sein PC-Sparte tatsächlich auslagern oder gar abstoßen, könnte ein veränderter Skaleneffekt einen Strategiewechsel zur Folge haben, spekuliert Nebuloni. Butler indes sieht CPU-seitig heute kaum noch Überschneidungen zwischen HPs PC- und x86-Server-Geschäft. Tatsächlich seien die Schnittmengen bei IBM vor fünf Jahren größer gewesen. Dennoch konnte Big Blue seinen Marktanteil nach dem Verkauf der PC-Sparte sogar noch steigern. Sollte HP nicht mehr im PC-Business sein, hätte das laut dem Gartner-Mann allerdings möglicherweise zur Folge, dass auch so manches x86-Projekt verloren gehe.

X86- und IA64-Server - Empfehlungen und möglicher Handlungsbedarf

Experton-Analyst Zilch rechnet mit einem stetig steigenden Energieverbrauch.
Foto: Zilch

Energieverbrauch ist ein wichtiger Punkt, betont Experton-Analyst Zilch. Da die Miniaturisierung mit einer wachsenden Zahl von Blades in einem Rack weiter zunimmt, rechnet er damit, dass der Energiebedarf in den kommenden Jahren deutlich ansteigt, was auch mehr Wärmeabfuhr bedeute und hohe Investitionen nach sich ziehen dürfte. Im x86-Segment gelte daher besonders, dass Systeme, die älter als vier Jahre sind, dringend ausgetauscht werden sollten, zumal mit jeder Generation auch größere Leistungssprünge zu verzeichnen seien.

Aus den neuen Trends zur Virtualisierung und dem konvergenten Zusammenführen verschiedener I/O- und Infrastruktur-Komponenten lassen sich laut Nebuloni Einsparpotenziale herleiten. Bemerkenswert findet der IDC-Analyst, dass Oracle und Cisco im x86-Segment versuchen, den drei Branchenriesen HP, IBM und Dell Konkurrenz zu machen. Die Kunden sollten das nutzen und ihrerseits versuchen, die Hersteller gegeneinander auszuspielen, um günstige Konditionen herauszuholen. Butler beobachtet, dass die Hersteller über die vertikale Integration verschiedener Komponenten und Features versuchen, mehr Kontrolle zu erlangen und die Kunden stärker an sich zu binden. Dieser Trend gilt ihm zufolge auch für Unix-Server, die früher längst nicht so eine Hardware- und Software-Abhängigkeit gezeigt hätten. CIOs sollten das im Auge behalten und unter Umständen gegensteuern.

Mainframes: Totgesagte leben länger

Aktuelle Situation

IBM-Mitarbeiter legen noch letzte Hand an dem zEnterprise System Mainframe an. Kostenpunkt: 1,5 Millionen Dollar.
Foto: IBM

Sogenannte Non-x86er-Server haben laut Nebuloni im zweiten Quartal 2011 nicht nur weltweit, sondern auch in Europa stark zugelegt. Am stärksten wuchsen dabei Mainframes, mehr noch als x86- oder Unix-Server. Das rührt nicht nur daher, dass viele Unternehmen vor dem sich bereits abzeichnenden nächsten wirtschaftlichen Abschwung noch einmal ihre Systeme erneuert oder aufgefrischt haben. Ein anderer Grund könnte die Ankündigung von IBM sein, dass die neuen z196-Mainframes auch mit gewissen Konfigurationen der hauseigenen Unix- und Blade-Server zusammenarbeiten. Für Nebuloni ist das eine wichtige Botschaft an die überwiegend aus Stammkunden bestehende Mainframe-Klientel. Den Anfang im Bereich Blades sollten laut IBM Linux-Systeme machen, der Windows-Support dann Ende des Jahres folgen. Gartner-Analyst Butler lobt den Hybrid-Ansatz von Big Blue, sieht aber schon dem Linux-Versprechen bisher kaum Taten folgen.

Mainframes - Empfehlungen und möglicher Handlungsbedarf

Fujitsus BS2000-Mainframe SQ200 läuft mittlerweile mit Intels Highend-Prozessoren angesiedelten Xeon MD.
Foto: ad

Während viele Mainframes schon zehn oder gar mehr Jahre auf dem Buckel haben, laufen sie sehr stabil. In Sachen Service-Level, Zuverlässigkeit und Uptime gelten sie immer noch als unübertroffen. Deshalb können sie auch nach Ansicht von Experten gut noch einmal so lange laufen. Die Zukunft von Fujitsus BS2000 sieht Zilch nicht so rosig. Möglicherweise müssten Unternehmen mittelfristig über eine Exit-Strategie nachdenken, obwohl die Japaner bei den Mainframes mittlerweile auf Xeon umgeschwenkt sind. IBM werde sich aber mit dem Ansatz von Mainframes als hybride Plattform künftig noch weiter nach vorne drängen.

Das Hauptproblem aus der Sicht des Experton-Analysten sind die vielen intern oder extern selbst „gestrickten“ oder angepassten Applikationen. Diese müssten in den nächsten fünf Jahren dringend ausgetauscht werden, sofern sie nicht ohnehin als unwichtig klassifiziert würden oder sich kapseln ließen. Fehlende oder nur noch bei älteren Experten zu findende Skills und entsprechende Support-Leistungen der Softwarehersteller macht Gartner-Analyst Butler als größtes Problem bei Mainframes, Midrange- und anderen Legacy-Systemen aus. Cobol als Programmiersprache sei schon schwierig genug, noch mehr aber in RPG (Report Program Generator) geschriebene Anwendungen, da diese nur IBM-Spezialisten für die AS/400 oder gar deren Vorgänger beherrschten. Immerhin geht IBM das Problem der aussterbenden Experten an und betreibt in Hochschulen Nachwuchsförderung.

Trotz Administrations- und Wartungskosten in Millionenhöhe scheuen viele Unternehmenskunden den Ausstieg aus der Mainframe-Technik, weil die Migration der Arbeitslasten auf Unix- oder x86-Systeme mitunter zehnmal so teuer kommen kann. Bei neuen Anwendungen oder Workloads sind laut den Analysten aber durchaus Linux- oder Windows-Lösungen auf Basis von x86er-Server eine sinnvolle Option.

Unix- und proprietäre Midrange-Systeme

Aktuelle Situation

Da IBM im proprietären Midrange-Markt heute praktisch allein ist und der Unterschied zur AIX-basierten Power-Familie aus dem Unix-Umfeld nur im Betriebs- und Datenbanksystem liegt, werden die beiden Bereiche hier zusammengefasst. Abgesehen davon werden 85 Prozent der entsprechenden CPUs (Power und Itanium) ohnehin in den Unix-Markt verkauft. Dieser ist laut Zilch nach wie vor am meisten im Umbruch. Lange Zeit hätten sich in Deutschland fünf Hersteller (Bull, Fujitsu, IBM, HP und Sun) mit drei Prozessor-Architekturen und den damit verbundenen RISC- oder EPIC-Betriebssystemen (IBM AIX auf Power, Oracle/Sun Solaris auf SPARC und HP-UX auf Itanium) gehalten. Die Situation habe sich aber signifikant geändert. So beherrscht IBM, lange auf Platz 3, heute als technisch führender Anbieter nach Zahlen von IDC 50 Prozent des Unix-Marktes.

HP ist durch die Verzögerungen in der Itanium-Entwicklung bei geschäftskritischen Systemen technologisch ins Hintertreffen geraten, hat mit der „Matrix-Architektur“ aber viel Boden gut gemacht, berichtet Zilch. Oracle habe die Potenziale nicht genutzt, die die Sun-Übernahme geboten hätte. Der von Oracle losgetretene Itanium-Krieg mit HP offenbart bei genauerem Hinsehen aber noch mehr: Aus der Sicht von Gartner-Analyst Butler beschleunigt er das früher oder später ohnehin zu erwartende Aus für Unix-Server. Fujitsu hat sich Zilch zufolge als ehemals starker Solaris-Server-Anbieter mehr oder weniger vom Markt verabschiedet. Bull dagegen habe sich im Power/AIX-OEM-Umfeld eine kleine, aber solide Nische mit zufriedenen Kunden bewahrt.

Itanium-Krieg beschleunigt Unix-Sterben

Nachdem Oracle angekündigt hat, den Support für Itanium einzustellen, hat HP als Hauptkunde für diese Intel-Prozessoren in Kalifornien Klage gegen diese Entscheidung eingereicht. Der Vorwurf lautet, Oracle sei vertragsbrüchig und versuche, die Kunden mit unlauteren Mitteln auf die Sun-Plattform zu ziehen. Oracle hält dagegen: HP plane strategisch, sich ganz aus dem Unix-Markt zu verabschieden und versuche, die Kunden zur Migration auf die eigene x86-Xeon-Plattform zu bewegen. Tatsächlich macht HP heute laut Butler dreimal so viel Umsatz mit x86-Servern als mit HP-UX-Systemen. Offiziell könne der Konzern HP UX aber gar nicht aufgeben, er werde daher den Support solange aufrecht erhalten wie nur möglich. Auf 50 Prozent der HP-UX-Rechner laufen dem Gartner-Analysten zufolge Oracle-Datenbanken. Im Umkehrschluss bedeute das, dass die zweite Hälfte eine recht große Basis für andere Systeme sei, allen voran für DB2. HP könnte daher versuchen, Kunden zu bewegen, von Oracle auf SAP und DB2 umzuschwenken. Als mögliche lachende Dritte sieht Zilch im Highend die IBM mit AIX und DB2 und in der Breite Microsoft SQL Server.

Unix- und proprietäre Midrange-Systeme - Empfehlungen und möglicher Handlungsbedarf

Auch wenn eine Migration von Unix-Servern vergleichsweise einfach sein mag, kann das für die Anwender mit hohen Kosten verbunden sein. Entsprechend verunsichert, ja mitunter erbost ist die Unix-Gemeinde. Eine unmittelbare Bedrohung für die Nutzer von neueren HP-UX-Servern mit Oracle-Workloads sieht Butler für die nächsten Jahre nicht. Bis 2016 oder bei zusätzlich bezahltem Support auch noch ein bis zwei Jahre länger sei die Unterstützung der Systeme gesichert.

Eine Migration nur um der Migration willen sollten Unternehmen vermeiden, lautet sein Rat. Gut laufende Anwendungen sollten sie möglichst solange halten, wie es die Lebensspanne des Betriebssystems erlaubt. In neuen Situationen oder bei neuen Projekten für geschäftskritische Anwendungen seien durchaus auch leistungsfähige x86-Lösungen mit Linux oder Windows eine Option, weil die meisten Software-Entwickler sich auf diese Systeme konzentrierten. Im Bereich der Midrange-Systeme aus dem Non-Unix-Bereich ständen IT-Verantwortliche vor allem vor dem Problem der auslaufenden Software-Portfolios und des schwindenden Know-hows in den Unternehmen.

Fazit

Der Server-Markt verändert sich in großer Geschwindigkeit. Die in Großunternehmen schon weitgehend abgeschlossene Konsolidierung bis hin zur Virtualisierung erreicht nun auch immer mehr kleine und mittelständische Betriebe. IT-Verantwortliche sollten sich die Roadmaps der Hersteller genau anschauen und entsprechende Rückschlüsse ziehen. Eine Exit-Strategie wird in einigen Fällen zwar früher oder später unausweichlich sein. Sollten die Systeme aber zufriedenstellend laufen und der Support für viele Jahre gesichert sein, gibt es gute Gründe gegen eine möglicherweise teure und übereilte Migration, wie sie so mancher Hersteller gerne empfiehlt. (wh)