Server-Konsolidierung: Das sagen Analysten

13.03.1998

Barry Graham, als Consultant unter anderem für das britische Marktforschungs- und Beratungsunternehmen Xephon tätig, glaubt an einen Trend zur Server-Zusammenführung. "Wir sehen eine große Anzahl von Konsolidierungsbemühungen, die vor allem durch E-Commerce-Projekte getrieben sind." Eine Reihe seiner Beratungskunden, die Web-Sites auf Unix-Maschinen verwalteten, hätten diese komplett auf Großrechner verlagert. Alle großen Finanzunternehmen planten ähnliche Schritte.

Etliche Organisationen haben nach den Erfahrungen Grahams bereits unterschiedliche Server an einem Ort konsolidiert. PC- und Unix-Server seien in das Mainframe-Datenzentrum verlagert worden. Die nächste Phase bestünde darin, daß mehrere Server Datenbestände gemeinsam nutzen. Dies könnte etwa durch DASD-Subsysteme (Main- frame-Speicher) von EMC oder Hitachi realisiert werden. Im letzten Schritt würden neben den Daten alle drei Anwendungsplattformen auf einem Mainframe-Server konsolidiert. Dies werde jedoch nicht vor dem Jahr 2000 realisierbar sein, so der Analyst.

"Server-Konsolidierung ist der nächste logische Schritt nach dem Thin-Client-Modell, das Unternehmen derzeit implementieren", meint Rob Hailstone, Analyst bei der britischen Bloor Research Group. Die andauernde Diskussion um die Total Cost of Ownership (TCO) von PCs habe dazu geführt, daß Verarbeitungsaufgaben allmählich wieder von den Clients auf die Server verlagert würden. Dabei gehe es darum, die Komplexität von den Desktops der Mitarbeiter auf die Server zurückzuverlagern.

Hailstone sieht in der Etablierung stärker Server-zentrierter IT-Strukturen nichts Negatives. Die Zeiten, in denen IBM als Quasi-Monopolist überhöhte Preise verlangen konnte, seien vorbei. Mit dem Vordringen offener Systeme seien die Großrechnerpreise wesentlich realistischer geworden. Darüber hinaus biete das Betriebssystem S/390 - vormals MVS - inzwischen die Möglichkeit, eine große Anzahl von Unix-Anwendungen ablaufen zu lassen.

Weit weniger Mainframe-lastig argumentiert dagegen die Meta Group. Ein Bedarf im Bereich Server-Konsolidierung sei zwar in der Tat festzustellen, so der Analyst Andreas Zilch. Es sei jedoch nicht unbedingt die IBM, die dabei die höchste Kompetenz besitze, "und schon gar nicht mit OS/390". Das Großrechner-Betriebssystem komme in diesem Zusammenhang nur "in einer Nische" in Frage. Das Argument, der Mainframe komme bei einer Kostenbetrachtung generell günstiger weg, hält der Analyst für irreführend. So habe beispielsweise ein von der Meta Group angestellter Kostenvergleich zwischen einer rein Unix-basierten SAP R/3-Installation und einer Variante mit einem S/390-Datenbank-Server ergeben, daß die Mainframe-Lösung "entscheidend teurer" sei. Bei einer großen Einzelhandelslösung etwa lägen die von IBM veranschlagten Preise um das Doppelte höher als für eine vergleichbare Unix-Installation. Total-Cost-of-Ownership-Vorteile könnten diese Diskrepanz bei weitem nicht ausgleichen. Generell hält Zilch die TCO-Argumentation beim Thema Server-Konsolidierung für nicht adäquat. Dabei würde oft ausschließlich von der Hardware ausgegangen. Das Problem heiße aber nicht Mainframe versus Unix-Server, wie dies die Marketing-Abteilungen gerne propagierten, sondern zentrale gegen dezentrale Datenhaltung.