Server-Strategien/Risc-Vertreter müssen sich gegen die günstigeren Standardplattformen wehren

Der Preis bestimmt die Server-Strategie

25.04.2003
Seit bei den Anwendern angesichts schrumpfender IT-Budgets das Geld nicht mehr so locker sitzt, weht auch den Server-Herstellern ein schärferer Wind ins Gesicht. Statt technischer Finessen steht heute der Nutzen der Systeme im Mittelpunkt des Kundeninteresses. Um trotz knapper Kassen weiter Geschäfte zu machen, setzen IBM, Hewlett-Packard, Sun und Dell auf unterschiedliche Konzepte. Dabei kommt es meist auf mehr als nur die reine Hardware an.CW-Bericht, Martin Bayer

Die Zeiten, in denen die Server-Hersteller ihre Rechner allein über höhere CPU-Taktraten, steigenden Datendurchsatz und größere Speicher verkauften, sind endgültig vorbei. Heute fordern die IT-Verantwortlichen in den Unternehmen den eindeutigen Nachweis, welchen Nutzen der Einsatz teurer Hochleistungsrechner bringt, und flexible Modelle, was den Bezug von Rechenleistung und vor allem deren Bezahlung betrifft.

Der Preis bestimmt mehr und mehr die Entscheidung, welcher Server angeschafft wird. So steigen seit einigen Jahren laut einer Untersuchung der Marktforscher von Gartner die Verkaufszahlen von günstigen Intel-basierenden Servern stetig an. Fast 90 Prozent aller weltweit verkauften Systeme arbeiten mittlerweile mit einer Intel-CPU. Nach Umsatz betrachtet, zeichnet sich für 2003 ein Wechsel an der Pole-Position ab. Erstmals werden die Hersteller mit Intel-Servern knapp 20 Milliarden Dollar mehr verdienen als mit den bewährten Risc-Plattformen, die noch rund 18 Milliarden Dollar einbringen werden.

Die Ursachen für diese Entwicklung liegen nach Einschätzung von Gartner-Analyst Jeff Hewitt in dem wachsenden Preisdruck, der die Nutzer aus dem Risc- in das Intel-Lager treibt. Die zunehmende Akzeptanz des Open-Source-Betriebssystems Linux tut ein Übriges. "Bis zum Jahr 2005 kann sich Linux als gleichwertiges Betriebssystem für unternehmenskritische Anwendungen etabliert haben", prognostizierte Gartner-Analyst Klaus Thomas kürzlich auf einer Fachtagung in Frankfurt. Dies werde weniger zu Lasten Windows-basierender Plattformen, sondern hauptsächlich auf Kosten der klassischen Unix-Derivate gehen, so die Warnung an Sun, HP und IBM.

Linux: Noch ein weiter Weg ins Highend

Allerdings müssen die Linux-Protagonisten noch einige Hausaufgaben machen, bevor sie zum Sturm auf die ehrwürdigen Unix-Festungen blasen können. So liegen HP-UX, AIX und Solaris eindeutig in Front, wenn es um die vertikale Skalierbarkeit beim Bau von Multiprozessorsystemen geht. Ein weiteres Manko der Linux-Welt sei bislang noch die unzureichende Verfügbarkeit von Applikationen und Datenbanken für den Unternehmenseinsatz. Daher beschränkten sich die aktuellen Einsatzgebiete der Linux-Server vornehmlich auf die Bereiche Netz- und Web-Dienste sowie rechenintensive Applikationen im technisch-wissenschaftlichen Umfeld.

Neben Linux entwickeln sich auch Microsoft-Plattformen zunehmend als wachsende Konkurrenz für die Unix-Vertreter. Wurde Windows NT bei seinem Erscheinen von der Konkurrenz noch müde belächelt, hat es innerhalb weniger Jahre die Unix-Derivate fast vollständig aus den Intel-Server-Plattformen hinausgedrängt, resümieren Analysten der Butler Group. Diese Entwicklung sollen der "Windows 2000 Server" sowie der mehrfach verschobene und am 24. April dieses Jahres offiziell vorgestellte "Windows Server 2003" fortsetzen.

Neues Server-Windows kaum gefragt

Ob es Microsoft gelingt, sich mit dem neuen System erfolgreich gegen den Linux-Trend zu stemmen, bleibt allerdings fraglich. Laut einer Untersuchung der Yankee-Group planen nur zwölf Prozent der Firmen, die mit Microsoft-Server-Systemen arbeiten, innerhalb des ersten Jahres nach Vorstellung des Betriebssystems einen Umstieg auf die neue Version Windows Server 2003. Als der Windows 2000 Server herauskam lag der Anteil der Umstiegswilligen noch bei 30 Prozent. Als Grund für das mangelnde Update-Interesse nennen die meisten Firmen fehlende technische Notwendigkeit sowie ihr zu knapp bemessenes IT-Budget, das eine entsrechende Migration nicht zulasse.

Die Vertreter des Risc-Lagers, IBM, HP und seit kurzem auch Sun, versuchen von dem Trend hin zu Standardplattformen zu profitieren. IBM verkauft im Rahmen seiner x-Series Server mit Intel-Xeon-Prozessoren. HP führt in seiner Intel-Server-Linie die von Compaq übernommenen Proliant-Rechner weiter, die hauptsächlich als Rack- und Blade-Versionen angeboten werden.

Risc-Vertreter im Intel-Server-Geschäft

Während IBM und HP bereits seit Jahren im Intel-Server-Segment vertreten sind, versucht Sun Microsystems erst seit vergangenem Jahr ernsthaft in diesem Markt zu punkten. Der bisher sehr eng mit seiner Sparc/Solaris-Architektur verbundene Hersteller bietet mit dem Modell "LX50" einen Intel-basierenden Einstiegs-Server an. Man werde viel über Solaris x86 hören, kündigte Firmenchef Scott McNealy vor kurzem an. Außerdem gebe es mehr als 1000 Anwendungen für diese Plattform. Wie schnell sich in diesem Umfeld offenbar die Sichtweisen ändern, macht die Tatsache deutlich, dass Sun noch vor Jahresfrist die Intel-Linie seines Betriebssystems komplett einstampfen wollte und dieses Vorhaben erst nach massiven Anwenderprotesten wieder stoppte. Jetzt soll das System allem Anschein nach einen Grundpfeiler zukünftiger Server-Geschäfte bilden.

Problematisch bleibt für die oben genannten Anbieter die klare Abgrenzung zwischen den Intel- und Risc-basierenden Produktlinien. So hat sich gerade auch im Lowend des Risc-Segments in den letzen Monaten ein gnadenloser Preiskampf entwickelt, in dessen Verlauf die Grenzen zwischen x86- und Risc-Plattformen zunehmend verwischen. Ein Ende der sich weiter nach unten drehenden Preisspirale im Servermarkt ist dabei nicht in Sicht.

Davon unbeeindruckt zeigt sich Dell. Dem texanischen Direktanbieter, der allein auf die Intel-Karte setzt, gelang es, in den vergangenen Quartalen dem rückläufigen Server-Markt zu trotzen und seine Marktanteile stetig auszubauen. Mittlerweile liegt Dell laut den Zahlen von International Data Corp. (IDC) vom vierten Quartal 2002 auf Platz vier mit einem Umsatz von knapp einer Milliarde Dollar und einem Marktanteil von 6,5 Prozent.

Heile, heile Server

Die etablierten Server-Anbieter müssen sich etwas einfallen lassen, um ihre Risc-Bastionen zu verteidigen. Dabei verschwinden technische Einzelheiten zusehens hinter Schlagworten wie "Autonomic Computig", "On Demand", "Utility Data Center" oder "Project Orion" und "N1". Welchen Nutzen die Anwender aus diesen Vorhaben ziehen können, werden die nächsten Monate zeigen.

IBM wolle versuchen, unter dem Motto Autonomic Computig die in den letzten Jahren stark angestiegene Komplexität vieler IT-Infrastrukturen wieder zu reduzieren, erläutert Francis Kuhlen, Vice President der Systems Group Central Region bei IBM. Demnach sollen autonome Rechner den Betrieb eines IT-Systems möglichst selbständig überwachen und Fehler beheben können, ähnlich dem vegetativen Nervensystem, dass die Grundfunktionen des menschlichen Körpers steuert.

Neben dem technischen Ansatz verfolgt IBM mit dem On-Demand-Konzept die übergeordnete Strategie, Server-Kapazitäten künftig als Service anzubieten. Kunden sollen Rechenleistung wie Strom aus der Steckdose zapfen können. Zu diesem Zweck will IBM in den nächsten Jahren weltweit rund zehn Milliarden Dollar in die entsprechenden Rechenzentren investieren. Andreas Zilch, Managing Director Consulting bei der Tech Consult GmbH, vermutet, dass IBM mit dieser Strategie seine eigene Service-Mannschaft besser vermarkten will. Dazu passt auch das Vorhaben mit dem E-Business-on-Demand-Modell ganze Geschäftsprozesse für den Kunden zu übernehmen. Die entsprechende Sparte haben die Armonker kürzlich mit der Übernahme der Business- Consulting-Sparte von Pricewaterhous-Coopers mit seinen 30000 zusätzlichen Beratern verstärkt.

Die Vision des virtuellen Rechenzentrums

Im Gegensatz zu IBM beschränken sich HP und Sun vornehmlich auf die technische Ebene. Mit dem Utility Data Center (UDC) von HP sollen Administratoren eine virtuelle Sicht auf alle Ressourcen eines oder mehrerer Rechenzentren erhalten. Per Mausklick sollen sich Systemkapazitäten zwischen verschiedenen Anwendungen verteilen lassen. In ihrer Roadmap für "Adaptive Management Platform" wollen die HP-Strategen die UDC-Techniken künftig mit der Management-Plattform "Open View" kombinieren. Bei Sun läuft die Virtualisierung der Rechenzentren unter der Kurzbezeichnung N1. Darunter sollen sich mit Hilfe der Grid-Computing-Software die Resourcen von Datenzentren in einem Pool zusammenfassen lassen. Darüberhinaus wollen die Sun-Verantwortlichen auch Software und Services in dem N1-Konzept integrieren. Helfen soll dabei das Project Orion, das Sun-Chef McNealy zu Beginn dieses Jahres angekündigt hat. Damit will der Server-Spezialist aufeinander abgestimmte Sun-ONE-Softwarepakete mit seinen Rechnern ausliefern.

Experten loben zwar die Vision des virtuellen Rechenzentrums, warnen aber vor zahlreichen Hürden, die auf dem Weg dorthin noch überwunden werden müssten. Während beim Stromnetz alles einheitlich ist, fehlt es in der IT oft an den notwendigen Standards, gibt Berater Zilch zu bedenken. Außerdem müssten entsprechend breit angelegte und vor allem sichere Netzstrukturen aufgebaut werden. Rechenleistung zu kaufen wie Elektrizität ist eine nette Vision, die aber noch etliche Jahre in der Zukunft liegt, so das Fazit vieler Experten.

Bis dahin werden die Risc-Verfechter weiter an ihren Plattformen feilen und immer schnellere Prozessoren herausbringen. Anfang 2004 erwartet die Branche mit dem Power5-Chip die neue CPU-Generation aus dem Hause IBM, die unter anderem mit zwei Prozessorkernen und Simultanous Multithreading (SMT) ausgestattet sein sollen. Auch Sun bastelt unter dem Schlagwort "Throughput Computing" an Multithreading-Architekturen und Multicore-CPUs. Beide Entwicklungen sollen in den für 2005 erwarteten "Ultrasparc V" einfließen.

Bei HP steht das laufende Jahr ganz im Zeichen des Wechsels von der hauseigenen PA-Risc-Linie auf Intels 64-Bit-Itanium-Architektur. Allerdings, so die Richtlinie aus Palo Alto, werde man sich dabei Zeit lassen. Mitte des Jahres wird mit dem PA-8800 ein neuer Risc-Chip herauskommen, der mit zwei Prozessorkernen ausgestattet sein wird.

HP fährt weiter zweigleisig

Parallel soll eine Superdome-Variante mit dem für Mitte des Jahres erwarteten Itanium-2-Chip, Codename "Madison", vorgestellt werden. Ein neues Release des unter Itanium und PA-Risc lauffähigen HP-eigenen Unix-Derivats HP-UX, in dem auch Komponenten des ehemaligen Compaq-Unix "Tru64" einfließen sollen, wird für Ende 2003 erwartet.

In Sachen IA-64 und Itanium könnte es in diesem Jahr spannend werden. Nach der langen Anlaufphase rechnen Experten, dass Intel mit dem Madison deutliche Fortschritte erzielen wird. Der Erfolg wird letztendlich jedoch davon abhängen, inwieweit die Softwareentwickler Anwendungen auf Intels EPIC-Plattform programmieren werden. Konkurrent AMD will Intel das 64-Bit-Spielfeld jedenfalls nicht allein überlassen. Mit dem gerade vorgestellten Opteron-Chip ziehen die Verantwortlichen gegen den Itanium zu Felde. Der 64-Bit-Prozessor arbeitet mit Taktraten von 1,4 bis 1,8 Gigahertz und soll sich bis zu Acht-Wege-Systemen skalieren lassen.

Inwieweit sich der AMD-Chip im Server-Markt durchsetzen kann, bleibt abzuwarten. Bislang haben sich IBM und Sun Microsystems dazu bekannt, den AMD-Prozessor einsetzen zu wollen. Ravi Arimilli, System-Architekt bei IBM, erklärte Anfang Februar dieses Jahres, man werde den Opteron sobald er verfügbar sei, auch in den eigenen Systemen anbieten. Etwas zurückhaltender äußerte sich John Loiacono, Vice President der Operating Platforms Group bei Sun. Er könne zwar noch nichts konkretes zur Nutzung der neuen AMD-CPU sagen, es sei allerdings wahrscheinlich, dass Sun auf die AMD-Produkte zurückgreifen werde.

IBMs leiser Rückzug von Itanium

Man wird jedoch abwarten müssen, bis die ersten Systeme auf dem Markt erscheinen. Gerade IBM hat sich in der Vergangenheit - offenbar auch aus Angst um seine Power-PC-Plattform - als wankelmütiger Verbündeter erwiesen. So wollten die Armonker ursprünglich auch den Itanium-Chip einsetzen und das hauseigene Unix-Derivat AIX in der Version 5L auf die Intel-Plattform portieren. Daraus wird aber offenbar nichts. Offizielle Begründung: Der Markt für Intels 64-Bit-Architektur sei noch zu schwach. Das könnte sich jedoch schnell ändern. Die großen Linux-Anbieter und auch Microsoft haben angekündigt, ihre Server-Betriebssysteme für Intels und AMDs 64-Bit-Plattformen anzubieten. Der Sturm auf die Risc-Festung beginnt.