"Die Softwareindustrie muss flexibler werden"

02.12.2005
Joseph Reger, Chief Technology Officer bei Fujitsu-Siemens, wägt die Konsequenzen neuer Techniken ab.

Wer hätte darauf vor wenigen Jahren gewettet? Die Intel-Architektur macht Risc-Servern auf breiter Front Konkurrrenz. Es existieren nur noch drei namhafte Anbieter von Unix-Systemen. "Eine Konsolidierung ist also schon eingetreten", meint FSC-CTO Joseph Reger. Und zwar selbst dort, wo sich die Zahl der Server gar nicht verringert hat. Durch die zunehmende Verbreitung von Windows und Linux wird der Unix-Markt immer enger, ist sich Reger sicher. "Der Wettbewerb zwischen Solaris, HP-UX und AIX wird noch schärfer werden." Dabei ist kaum noch eine Migration von einem zum anderen Unix-Derivat zu festzustellen: Außer Sun umwerben die einstigen Unix-Größen die Anwender mit Linux.

Mehr zum Thema

www.computerwoche.de/go/

1206942: VMware versus Virtual Server und Xen;

557987: Lizenzen bremsen Virtualisierung aus;

556516: Dual-Core-CPUs und Lizenzkosten;

553021: Was sind Server-, Netz-, Speicher- und Applikations-Virtualisierung?

Das Open-Source-Betriebssystem verdrängt Unix in die Highend-Nische. Aber auch nicht mehr; denn Linux geht, obwohl es an fast alle Hardwarearchitekturen angepasst ist, im Wesentlichen einher mit Servern auf Basis der Intel-Architektur. Die Fortschritte in deren Entwicklung kommen - mit Ausnahme der besseren Adressierbarkeit durch 64-Bit-Fähigkeit - jedoch nicht unbedingt bestehenden IT-Szenarios entgegen, so Reger: "Es laufen unverändert große Computing-Lasten mit Software aus einer Zeit, als es noch keine Multi-Core- und Multi-Threading-Prozessoren gab." Diesen Legacy-Anwendungen bringen die neuen CPUs nichts. "Hier werden sich Risc-Systeme noch lange halten."

Bunte Server-Landschaft

In Sachen Hardware und Software sei "die Landschaft bunter geworden", meint Reger, um gleich einzuschränken, "man sollte genauer hinschauen": Linux läuft im Wesentlichen auf der gleichen Hardware wie Windows, ist aber gleichzeitig nicht so viel anders als Unix. Daraus folgert der FSC-CTO: "Linux bringt nicht so viel zusätzlichen Aufwand, wie es auf den ersten Blick erscheint."

Und doch gibt es einen Faktor, der für mehr Arbeit und höhere Kosten sorgt: Die zunehmende Zahl der Server steigert die Komplexität des System-Managements exponentiell. "Wir brauchen eine Konsolidierung auf Verwaltungsebene", fordert Reger. Das ließe sich machen. Nämlich indem die Zahl der Server nicht ins Unermessliche steigt.

Auf Mainframes ist eine Auslastung von 80 Prozent nichts Ungewöhnliches, Unix-Systeme liegen schon deutlich darunter. Aber Server auf Basis der Intel-Architektur sind in der Regel zu nicht mehr als 20 Prozent ausgelastet. Die Ursache ist eine starre Zuordnung der Ressourcen zu bestimmten Anwendungen. Und weil die Komponenten so preiswert sind, werden weitere Ressourcen zugekauft, kaum dass Engpässe drohen. Reger: "Wenn das so weitergeht, endet das in irrsinnigen Reserven."

Ein Dreisprung …

Was sich dagegen machen lässt, ist in den letzten Jahren zu einem beliebten Schlagwort geworden: Virtualisierung. "Es ist eine fast schon zynische Sicht, dass Virtualisierung dazu da ist, eine bessere Auslastung der Systeme zu erreichen", erklärt Reger. "Die Hardware ist ein Kostenblock, der höchstens ein Drittel der Gesamtkosten ausmacht." Es gehe eben um mehr: "Virtualisierung, Provisionierung und Automatisierung sind die drei Aspekte, die einander bedingen und immer zusammen wirksam werden müssen." Konsequent angegangen, würden - selbst wenn die Virtualisierung beispielsweise mit VMware ihrerseits Aufwand verursacht - die flexible Ressourcenzuweisung durch die Provisionierung und die Automatisierung von Prozessen dazu führen, dass "die Administration des Gesamtsystems wesentlich einfacher wird".

… mit Hindernissen

Reger ist bewusst, dass die bisherigen Ansätze recht enge Grenzen haben. "Es gibt kein universelles virtualisierendes System." Bisher kann von einem umfassenden Server-Pool kaum die Rede sein; allenfalls lassen sich bestimmte Rechner als Gattung zusammenfassen. Reger möchte darüber hinausgehen: "Wir müssen über die Grenzen der Architekturen und über die Produktpaletten der Anbieter hinaus virtualisieren und provisionieren können." Letzten Endes werde sich nicht mehr sagen lassen, auf welcher Hardware eine Anwendung läuft. "Es wird keine Zuordnung mehr geben. Die Identität der Server geht verloren."

Doch bevor das Wirklichkeit werden kann, müssen die Softwareanbieter ihre an Hardware orientierten Lizenzmodelle der Virtualisierungszukunft anpassen. Reger: "Wir müssen der Softwareindustrie eine viel größere Flexibilität abverlangen." Doch viele Anbieter haben schon bei der Einführung von Dual-Core-Prozessoren die Hand aufgehalten. Bisher haben Miniaturisierung und höhere Taktfrequenzen ausgereicht, Moore’s Law, wonach sich die CPU-Leistung alle 18 Monate verdoppelt, zu bestätigen. Die Fortsetzung ist eine neue Prozessorarchitektur mit multiplen Rechenkernen.

An diesem Punkt kann Reger sich aufregen: "Es steht der Softwareindustrie einfach nicht zu, durch lizenzpolitische Entscheidungen Architekturen zu präferieren. Man braucht die Freiheit der architektonischen Innovation. Und die darf man nicht mit Lizenzgebühren bestrafen."

Die IT benötige neue Abrechnungsverfahren: "Faire Lizenzmodelle wären auf die Anwendungsleistung bezogen, also auf Anwendungsparameter und nicht auf Architekturmerkmale." Was die Parameter sein könnten, ist ihm jedoch nicht klar. Eine Orientierung an der Systemleistung, zum Beispiel nach MIPS, kann es nicht sein. Schließlich wird die Leistung auch von Server-externen Komponenten wie Netzen und Massenspeichern mitbestimmt. Eine Lösung zeichnet sich nicht ab, aber immerhin, so Reger, "diskutieren die Softwarehersteller neue Lizenzmodelle".

Leistungsgerechte Kosten?

Die Anwender werden ebenfalls eine neue Orientierung brauchen. Denn mit Multi-Core-Prozessoren und Virtualisierung sind sie ebenfalls auf neue Modelle angewiesen, um die bezogene IT-Leistung gerecht mit den Unternehmensabteilungen abrechnen zu können.