Server-Strategien/Hersteller machen es den Anwendern nicht einfach

Welche Server-Strategie ist die richtige?

22.03.2002
Die Wahl der richtigen Server-Strategie stellt die Anwender heute nicht selten vor Probleme. Die Verantwortlichen stehen unter dem Druck, Kosten zu senken. Gleichzeitig steigen jedoch die Anforderungen an die IT. Die Strategien und Marketing-Kampagnen der Hersteller tragen jedoch meist nur wenig dazu bei, den Anwendern aus dieser Zwickmühle zu helfen. CW-Bericht, Martin Bayer

Die Server-Geschäfte laufen längst nicht mehr so gut wie in den vergangenen Jahren. So bescheinigten die Analysten von Gartner mit ihren jüngsten Zahlen dem Markt im letzten Jahr die schwächsten Zuwachsraten seit 1996. Lediglich 1,8 Prozent mehr Rechner konnten die Hersteller im Vergleich zum Vorjahr weltweit verkaufen. Doch während es bei den abgesetzten Stückzahlen wenigstens ein leichtes Plus zu verzeichnen gab, stand am Ende der Umsatzbilanz sogar eine tiefrote Zahl. Laut den Untersuchungen von Gartner gingen die Einnahmen um 15 Prozent auf 47 Milliarden Dollar zurück.

Angesichts dieser alarmierenden Zahlen müssen sich IBM, Sun, HP, Compaq und Co. etwas einfallen lassen, um die Kunden bei der Stange zu halten. So versuchten die Hersteller während der letzten Monate wie selten zuvor, sich mit Ankündigungen neuer Rechner und Architekturen gegenseitig zu übertrumpfen. Ein neues Konzept, das Mitte letzten Jahres entwickelt wurde und auf das heute fast alle großen Server-Hersteller setzen, ist das der Server-Blades. Die Architektur stellt eine Weiterentwicklung der bekannten Rack-Technik dar. Doch während die Rack-Server horizontal im Rechnerchassis aufeinander geschichtet werden, lassen sich die kleineren und vor allem deutlich dünneren Blade-Systeme vertikal in mehreren Lagen im Gehäuse stapeln. Zwischen 200 und 400 Blade-Server sollen so in einem Standard-Rack Platz finden.

Möglich wird dieses Platzwunder dadurch, dass sich die Blade-Server auf die notwendigsten Komponenten beschränken. Sie enthalten lediglich Prozessor, Arbeitsspeicher, Festplatten sowie einen Netzanschluss. Die anderen Basiskomponenten wie Netzteile, Kühlungssystem und Controller teilen sich die Rechner.

Nachdem Mitte letzten Jahres der bis dato kaum in Erscheinung getretene Server-Hersteller RLX-Technologies die ersten Server-Blades auf den Markt brachte, haben mittlerweile alle anderen großen Anbieter nachgezogen und eigene Blade-Strategien entwickelt. Während RLX auf die stromsparenden, aber dafür leistungsschwächeren Crusoe-Chips von Transmeta baut, plant Dell mit Intel-Chips aus der Pentium-III-Reihe.

Blade-Technik als Revolution?Auch Compaq mit dem "Proliant BL10e" und HP mit dem "bc1100" setzen auf die Intel-Architektur. Voll bestückt enthält ein Compaq-Rack Platz für 280 Server-Blades. HP bietet stapelbare Chassiswürfel an, die mit maximal 16 Rechnern bestückt werden können. Etwas im Rückstand in Sachen Blades sind IBM und Sun Microsystems. Beide Unternehmen haben jedoch angekündigt, noch im Laufe dieses Jahres nachzuziehen.

Nach Einschätzung von Analysten könnte die Blade-Technologie die Server-Landschaft revolutionieren. So rechnet Mark Melenovsky, Spezialist für Intel-basierende Server bei IDC, damit, dass die Nachfrage nach den flachen Rechnern innerhalb der nächsten fünf Jahre regelrecht explodieren werde. Die Architektur spare Platz im Rechenzentrum, verbrauche weniger Strom und verbessere das dynamische Workload-Management.

Während Blade-Server im Tagesgeschäft bereits Realität sind, bleibt ein anderer Trend vorerst mehr technologische Vision als kommerziell nutzbare Wirklichkeit. Grid Computing verspricht den Anwendern, IT-Ressourcen wie Rechenleistung oder Speicherkapazität je nach Bedarf via Internet abzurufen. IBM-Visionär Irving Wladawsky-Berger vergleicht das Grid-Konzept mit dem Verbrauch von elektrischem Strom. Genauso könnten Anwender künftig IT-Leistung beziehen. Abgerechnet werde nach Verbrauch.

Der Traum vom Grid-ComputingDoch während die IBM-Verantwortlichen, die in den nächsten fünf Jahren etwa vier Milliarden Dollar in die Entwicklung des Grid-Computing investieren wollen, bereits von einem weltumspannenden Hochleistungsnetz träumen, warnen andere Experten vor überzogenen Erwartungen. So gebe es bislang noch keine Standards, was die Verbindung der verteilten Rechnerressourcen betrifft. Auch der Sicherheitsaspekt sei noch längst nicht geklärt. Ulla Thiel, Direktorin für den Bereich Supercomputing bei IBM, rechnet deshalb mit einem Zeitrahmen von fünf bis zehn Jahren, bis alle Grundlagen geschaffen sind.

Bis dahin werden sich die IT-Verantwortlichen mit den altbewährten Server-Plattformen begnügen müssen. Doch auch dieser Bereich kommt in Bewegung, vom Highend-Mainframe bis zum Lowend-Intel-Server. Das Rezept, dass sich die Anwender allein mit stärkerer Rechenleistung ködern lassen, funktioniert heute nicht mehr. Längst sind Faktoren wie Preis, Verfügbarkeit und System-Management in den Mittelpunkt des Interesses gerückt.

IBM - nach dem Ausstieg von Hitachi und Amdahl neben Fujitsu-Siemens Computers (FSC) der letzte Protagonist im Mainframe-Business - versucht, sein Großrechnergeschäft mit Linux zu pushen. Mit einer Milliarden Dollar teuren Marketing- und Forschungskampagne planen die Armonker, die Rechner aus der "z900"-Serie als Konsolidierungsplattform für Unix- und NT-Server zu etablieren. Damit will Big Blue neue Kundenkreise erschließen, die sich mit den klassischen Mainframe-Applikationen nicht ansprechen lassen. Erste Erfolge bei Großunternehmen scheinen den IBM-Strategen Recht zu geben.

Mainframe bleibt teure AngelegenheitDoch der Mainframe-Mythos bekommt Risse. So kritisieren die Kunden vermehrt das leistungsbezogene Pricing für Applikationen und Tools. Diese Hochpreispolitik funktionierte zwar in der Vergangenheit, als die Mainframe-Anwender mit ihren Spezialanwendungen kaum eine andere Wahl hatten, als die Preise zähneknirschend zu akzeptieren. Im Zuge der Öffnung zu Standardanwendungen geraten diese verkrusteten Preisstrukturen jedoch unter Druck. Auch von der technischen Seite muss sich im Mainframe-Umfeld etwas tun. So lässt sich beispielsweise durch die Implementierung moderner IP-Techniken der hohe Sicherheitsstandard kaum mehr halten. Die Anbindung der Hosts an das Internet macht die Großrechner verwundbar. Experten fordern deshalb ausgefeilte Sicherheitskonzepte für die Mainframe-Welt, gerade weil hier oft geschäftskritische Applikationen ablaufen.

An der Preisschraube dreht IBM mit den neuen Einstiegs-Mainframes vom Typ "z800". Diese Maschinen, die ab 375 000 Dollar zu haben sind, bieten zwar die üblichen Features wie Escon-Kanäle, Hypersocket-Technik und Parallel-Sysplex-Clustering. Bei der Rechenleistung sind die z800-Rechner jedoch auf vier Workload-CPUs und einen I/O-Prozessor limitiert. Die Rechner funktionieren mit allen klassischen Großrechner-Betriebssystemen. Preislich attraktiv wird es jedoch erst mit Linux oder dem speziell auf Internet-Anwendungen wie Web-, Print- oder File-Server angepassten "z/OS.e", das weder das Transaktionssystem Cics noch die hierarchische Datenbank IMS unterstützt.

Fujitsu-Siemens Computers versucht, sein BS-2000-Geschäft in ähnlicher Weise anzukurbeln. So sollen Anwender mit dem neuen Modell "SX 130" die Möglichkeit haben, auf einem Sparc-basierenden Mainframe das BS-2000-Betriebssystem laufen zu lassen. Die Kombination des Mainframe-Systems mit der offenen Sparc-Hardware soll den Kunden Zukunftssicherheit garantieren, erklärt der FSC-Chef Adrian von Hammerstein.

Unix-Plattformen holen aufOb IBM mit seinem Mini-Mainframe Erfolg haben wird, bleibt abzuwarten. Denn die klassischen Anbieter von Risc/Unix-Servern erreichen mit ihren aktuellen Highend-Systemen die Leistungsklasse des Großrechnerumfelds. IBM mit dem Modell "690" aus seiner p-Serie, Sun mit seinen Highend-Rechnern vom Typ "Sun Fire 15K" und Hewlett-Packard mit den "Superdome"-Systemen arbeiten mit Technologien wie symmetrisches Multiprocessing (SMP) oder Numa (Non Uniform Memory Architecture)-Konfigurationen. Daneben sollen künftig auch verstärkt Features, die bislang dem Großrechnerbereich vorbehalten waren, in der Unix-Welt Eingang finden. So versprechen die Hersteller beispielsweise die Aufteilung der Systemressourcen in logische Partitionen. Diese sollen sich dynamisch konfigurieren lassen. Das bedeutet, Anwender können den Partitionen CPU-Leistung, Arbeitsspeicher und I/O-Anschlüsse zuordnen.

Mainframe-typische Attribute wie Hochverfügbarkeit, Manageability und Sicherheit sollen in Zukunft auch die Intel-basierende Server-Plattform aufwerten. Mit mehr Rechenleistung könne man heute die zumeist gut ausgestatteten Kunden kaum noch locken, erklärt Tikiri Wanduragala, Senior Server Consultant für IBMs "X-Serie". Deshalb müsse man den Anwendern andere Vorteile bieten, wie zum Beispiel die Personalkosten durch verbesserte Wartungs-Features zu senken.

Server sollen sich selbst reparierenDie Armonker setzen dabei auf ihr Forschungsprojekt "Eliza". Die damit ausgestatteten Rechner sollen sich weitgehend selbst betreuen und Fehler in einem bestimmten Rahmen beheben können. Frühwarnmechanismen, die Basiskomponenten wie Prozessor, Arbeitsspeicher, Festplatten, Stromversorgung und Kühlung ständig überwachen, sollen die Verfügbarkeit der Systeme verbessern. Mit dieser Strategie stehen die Armonker allerdings nicht allein. Compaq mit "Adaptive Infrastructure", HP mit "Always On" und Dell mit "Open Manage" verfolgen ähnliche Ansätze.

Experten warnen die Anwender jedoch davor, zu viel zu erwarten. Im Grunde fassten die Anbieter hier altbewährte Ansätze zusammen. Viele der im Marketing als neu angepriesenen Features beruhten auf bekannten Techniken wie redundant ausgelegten Systemkomponenten und Monitoring-Tools. Die große Unbekannte im Server-Business bleibt die IA-64-Strategie von Intel. Lange angekündigt und seit Mitte letzten Jahres mit großer Verspätung endlich verfügbar, kommen die Systeme mit Itanium-Prozessor, der ersten 64-Bit-CPU-Generation aus dem Hause Intel, nicht so recht in die Gänge. Laut den Erhebungen der Marktforscher von Gartner und IDC konnten Hersteller wie HP, IBM, SGI und Dell erst wenige tausend Systeme absetzen. Nach Ansicht der Experten warten die meisten Anwender noch darauf, dass der Preis des Itanium sinkt und es mehr Anwendungen für Intels Highend-Plattform gibt.

Rechneten viele Insider im letzten Jahr noch damit, dass die Absätze mit dem zweiten IA-64-Chip, dem "McKinley", der im Laufe dieses Jahres auf den Markt kommen wird, anziehen würden, heißt es jetzt, man werde wohl noch bis 2003 und der dritten Generation, dem "Madison", warten müssen. Erst dann sei eine Trendwende zu erwarten, vermutet Kevin Krewell von Microdesign Resources. Die Intel-Verantwortlichen machen sich wegen des schleppenden Verkaufs noch keine Sorgen. Man sei bislang mit der Akzeptanz des Itanium zufrieden, erklärt ein Unternehmenssprecher. Die ersten Versionen der IA-64-Hardware hätten von vornherein als Entwicklungs- und Testplattform gegolten.

Vor allem die Kunden, die die Risc/Unix-Architekturen von HP und Compaq im Einsatz haben, müssen sich die Frage nach ihrer zukünftigen Server-Strategie stellen. Denn die Tage von HP-UX auf den PA-Risc-CPUs sowie der Alpha-, Tru-64-Unix- und Open/VMS-Plattformen von Compaq scheinen gezählt. Für die Anwender erhebt sich nun die bange Frage, welche Alternativen und Migrationspfade die Hersteller anbieten.

Schlechte Zeiten für alte PlattformenÜberhaupt waren die vergangenen Monate eine schlechte Zeit für viele altbewährte Plattformen. So landeten beispielsweise IBM-Kunden mit der Numa-Q-Server-Technologie in einer Sackgasse.

Im Regen stehen auch Anwender mit "Aviion"-Servern aus dem Hause EMC. Der Storage-Spezialist hatte die Server-Linie mit der Übernahme von Data General 1999 geschluckt. Im Dezember 2001 kam das Aus. Der Hersteller erklärte, die Technik der Server nicht mehr weiterzuentwickeln. Vor dem gleichen Schicksal stehen Anwender mit HP-Servern vom Typ "e3000" unter dem proprietären Betriebssystem "MPE/ix". Zwar werde die Plattform noch bis 2003 weiter ausgebaut und bis 2006 durch Services unterstützt. Spätestens bis dann müssen die Anwender jedoch eine neue Plattform gefunden haben.

Angesichts dieses Hintergrunds werden in den nächsten Monaten viele Anwender vor der Frage stehen, welche Server-Strategie sie künftig einschlagen sollen. Wenn die Hersteller ihre Kunden nicht vergraulen wollen, müssen sie klare Roadmaps vorlegen, was Plattformen und Technologien betrifft. Geschieht dies nicht, werden sich die Kunden anderen Server-Anbietern zuwenden oder Neuanschaffungen vorerst verschieben. Dann allerdings werden die Analysten auch für die nächsten Quartale schlechte Zahlen zum Server-Markt präsentieren müssen.

Abb: Servermarkt 2001

Der Server-Markt steckt in der Krise. 2001 nahmen die Hersteller 15 Prozent weniger ein als ein Jahr davor. Quelle: Gartner