Wer hätte darauf vor wenigen Jahren gewettet? Die Intel-Architektur macht Risc-Servern auf breiter Front Konkurrrenz. Es existieren nur noch drei namhafte Anbieter von Unix-Systemen. "Eine Konsolidierung ist also schon eingetreten", meint FSC-CTO Joseph Reger. Und zwar selbst dort, wo sich die Zahl der Server gar nicht verringert hat. Durch die zunehmende Verbreitung von Windows und Linux wird der Unix-Markt immer enger, ist sich Reger sicher. "Der Wettbewerb zwischen Solaris, HP-UX und AIX wird noch schärfer werden." Dabei ist kaum noch eine Migration von einem zum anderen Unix-Derivat zu festzustellen: Außer Sun umwerben die einstigen Unix-Größen die Anwender mit Linux.
Das Open-Source-Betriebssystem verdrängt Unix in die Highend-Nische. Aber auch nicht mehr; denn Linux geht, obwohl es an fast alle Hardwarearchitekturen angepasst ist, im Wesentlichen einher mit Servern auf Basis der Intel-Architektur. Die Fortschritte in deren Entwicklung kommen - mit Ausnahme der besseren Adressierbarkeit durch 64-Bit-Fähigkeit - jedoch nicht unbedingt bestehenden IT-Szenarios entgegen, so Reger: "Es laufen unverändert große Computing-Lasten mit Software aus einer Zeit, als es noch keine Multi-Core- und Multi-Threading-Prozessoren gab." Diesen Legacy-Anwendungen bringen die neuen CPUs nichts. "Hier werden sich Risc-Systeme noch lange halten."
Bunte Server-Landschaft
In Sachen Hardware und Software sei "die Landschaft bunter geworden", meint Reger, um gleich einzuschränken, "man sollte genauer hinschauen": Linux läuft im Wesentlichen auf der gleichen Hardware wie Windows, ist aber gleichzeitig nicht so viel anders als Unix. Daraus folgert der FSC-CTO: "Linux bringt nicht so viel zusätzlichen Aufwand, wie es auf den ersten Blick erscheint."
Und doch gibt es einen Faktor, der für mehr Arbeit und höhere Kosten sorgt: Die zunehmende Zahl der Server steigert die Komplexität des System-Managements exponentiell. "Wir brauchen eine Konsolidierung auf Verwaltungsebene", fordert Reger. Das ließe sich machen. Nämlich indem die Zahl der Server nicht ins Unermessliche steigt.
Auf Mainframes ist eine Auslastung von 80 Prozent nichts Ungewöhnliches, Unix-Systeme liegen schon deutlich darunter. Aber Server auf Basis der Intel-Architektur sind in der Regel zu nicht mehr als 20 Prozent ausgelastet. Die Ursache ist eine starre Zuordnung der Ressourcen zu bestimmten Anwendungen. Und weil die Komponenten so preiswert sind, werden weitere Ressourcen zugekauft, kaum dass Engpässe drohen. Reger: "Wenn das so weitergeht, endet das in irrsinnigen Reserven."
Ein Dreisprung …
Was sich dagegen machen lässt, ist in den letzten Jahren zu einem beliebten Schlagwort geworden: Virtualisierung. "Es ist eine fast schon zynische Sicht, dass Virtualisierung dazu da ist, eine bessere Auslastung der Systeme zu erreichen", erklärt Reger. "Die Hardware ist ein Kostenblock, der höchstens ein Drittel der Gesamtkosten ausmacht." Es gehe eben um mehr: "Virtualisierung, Provisionierung und Automatisierung sind die drei Aspekte, die einander bedingen und immer zusammen wirksam werden müssen." Konsequent angegangen, würden - selbst wenn die Virtualisierung beispielsweise mit VMware ihrerseits Aufwand verursacht - die flexible Ressourcenzuweisung durch die Provisionierung und die Automatisierung von Prozessen dazu führen, dass "die Administration des Gesamtsystems wesentlich einfacher wird".