Windows on Demand ist noch Zukunftsmusik

29.07.2004 von Wolfgang Sommergut
Mehrere Hersteller riefen mit Begriffen wie "Utility Computing" oder "on Demand" die nächste Generation des Rechenzentrums aus. Microsoft zog mit einigen Ankündigungen nach. Dazu gehörige Produktfahrpläne zeigen jedoch, dass derartige Features in der Windows-Welt noch keine hohe Prorität besitzen.

Auch wenn die verschiedenen Marketing-Begriffe gelegentlich Verwirrung stiften, so verfolgen Hersteller wie IBM, Sun, Hewlett-Packard (HP) oder Oracle doch ähnliche Ziele. Sei es "on Demand", "Adaptive Infrastructure", "Utility Computing" oder "Grid", in letzter Instanz geht es darum, die IT-Infrastruktur besser auszulasten, sie geänderten Anforderungen flexibler anzupassen sowie Installation und Betrieb von Anwendungen so weit wie möglich zu automatisieren.

Die Schlüsselbegriffe in diesen Konzepten sind Virtualisierung, Automatisierung und Integration. Am Ende dieses Weges soll eine IT stehen, bei der ein Systemverwalter seine Applikationen nicht mehr auf eine bestimmte Hardware installiert, sondern einfach nur ins Rechenzentrum. Bei steigender Arbeitslast werden einer Anwendung zusätzlich benötigte Rechen-, Netz- oder Speicherkapazitäten vom System zugeteilt, entweder durch Umschichtung vorhandener oder durch Hinzufügen neuer Ressourcen ("Provisioning").

Microsoft rief vor etwa einem Jahr die Dynamic Systems Initiative (DSI) ins Leben, die einen Gegenentwurf zu den Plänen von IBM, Sun, HP oder Oracle darstellen soll. Sie verfolgt erwartungsgemäß ähnliche Ziele wie die Konkurrenz. Ein White Paper unter der Bezeichnung "Building a Dynamic Data Center" benennt drei Defizite der heutigen IT-Infrastruktur, aus denen sich Microsofts Marschrichtung ablesen lässt:

Betriebssysteme können nur Ressourcen eines Servers verwalten und nicht die eines Rechenzentrums;

bei der Entwicklung von Software lassen sich die Laufzeitanforderungen einer Anwendung nicht ausreichend beschreiben;

das System-Management konzentriert sich auf einzelne Komponenten und bietet keine hardwareübergreifende Sicht.

 Rivalität um Metadaten-Standard

Am weitesten fortgeschritten sind dabei Microsofts Bemühungen, Software auf strukturierte Weise möglichst ausführlich zu beschreiben. Anwendungen können dann während ihrer gesamten Lebensdauer Informationen an Tools geben, die auf Basis dieser Daten die Programmierung, Installation und Ausführung begleiten. Solche Werkzeuge können beispielsweise automatisch Rechenkapazitäten zuteilen, die wechselseitigen Abhängigkeiten von Software nachvollziehen oder herausfinden, wie sich Programme unter bestimmten Bedingungen verhalten müssen. Microsoft entwickelte zu diesem Zweck das "System Definition Model" (SDM). Es handelt sich dabei um ein Datenmodell, das derartige Metainformationen in XML-Syntax abbildet.

"Building a Dynamic Data Center", so der Arbeitstitel, unter dem Microsoft dafür sorgen will, dass Anwendungen je nach Arbeitslast die benötigten Rechen-, Netz- oder Speicherkapazitäten zugewiesen werden. (Foto: CW)

Der Windows-Hersteller bezeichnet SDM als eine industrieweite Initiative. Allerdings präsentierte mit IBM ein anderes Schwergewicht der Branche unter der Bezeichnung "Autonomic Computing" ein konkurrierendes Vorhaben für den gleichen Zweck. Es wird von Novell und einigen kleineren Herstellern mitgetragen. Nach eigenem Bekunden verfolgt die IBM einen weitergehenden Anspruch als DSI, weil sie mit dem neuen Konzept eine Vielzahl von Plattformen abdecken kann. Big Blue und Novell reichten die Technik vor kurzem beim W3C unter der Bezeichnung "Solution Installation Schema" zur Standardisierung ein.

Produktseitig stellte Microsoft bereits einige Weichen für DSI. Darunter fällt die Zusammenführung des "System Management Server" (SMS) und des "Microsoft Operations Manager" (MOM) zum "System Center 2005". Sie soll die Trennung zwischen der Distribution und dem Betrieb einer Software aufheben. Die Verschmelzung der beiden Produkte liegt auf Kurs der DSI, weil sie ein durchgängiges Management von Anwendungen über ihren gesamten Lebenszyklus hinweg anstrebt. An dessen Anfang freilich klafft eine Lücke, weil "Visual Studio" erst in einer späteren Version die Beschreibung von Programmen mittels SDM unterstützen wird.

Produkt-Roadmap für 64 Bit (Quelle: Microsoft)

Bei der dynamischen Bereitstellung von IT-Ressourcen soll zukünftig den "Automated Deployment Services" (ADS) eine zentrale Rolle zukommen. Sie sind in der Version 1.0 Bestandteil des Windows Server 2003 und leisten dort kaum mehr als das Clonen des Betriebssystems. Diese Aufgabe läuft unter der anspruchsvollen Bezeichnung "Server Provisioning" und greift auf Konfigurationsdaten zurück, die mit einer Teilmenge des SDM formuliert werden. Zu einem nicht näher genannten späteren Zeitpunkt sollen die ADS in der Lage sein, Rechenleistung sowie Speicher- und Netzkapazitäten dynamisch an Applikationen zuzuteilen. Microsoft schildert in diesem Zusammenhang etwa Szenarien, in denen für bestimmte Anwendungen logische Netztopologien automatisch erzeugt werden, so dass eine physische Neuverkabelung von Servern und Switches entfallen kann.

Trend zur Virtualisierung

Wenn bei DSI, on Demand oder Utility Computing von der dynamischen Zuteilung von Hardwarekapazitäten die Rede ist, dann meint dies nicht, dass jede Anwendung bei Bedarf zusätzliche dedizierte Server oder Speichersysteme erhält. Die bessere Ausnutzung von Ressourcen soll vielmehr durch deren Virtualisierung erreicht werden. Aus der Sicht des Administrators oder der Anwendung präsentiert sich dann ein Verbund aus mehreren Computern oder die Partition eines einzelnen Servers als logische Einheit. Diese virtuellen Computer, Speicher oder Netze sind von der physischen Hardware entkoppelt und können daher abhängig vom jeweiligen Bedarf dynamisch dimensioniert werden. Microsofts Klage über die derzeitige Beschränkung von Windows auf die Verwaltung eines einzigen Servers spielt darauf an, dass eine Virtualisierungsschicht wie Suns "N1" manchmal auch als Betriebssystem für das Rechenzentrum bezeichnet wird.

Wenn es heute darum geht, einer Anwendung ausreichende Hardwarekapazitäten zur Verfügung zu stellen, dann bemisst sich die geplante Server-Leistung meist an der erwarteten Spitzenlast der betreffenden Software. Steigenden Anforderungen begegnet man, indem bei SMP-Maschinen zusätzliche Prozessoren nachgerüstet werden oder gleich ein stärkerer Server an die Stelle des alten tritt. Diese Art des Leistungsausbaus wird häufig mit dem Begriff "Scale up" beschrieben. Die Virtualisierung von IT-Ressourcen hingegen erlaubt es, Kapazitäten schrittweise "in der Breite" zum Gesamt-Pool hinzuzufügen ("Scale out"). Eine wesentliche Rolle spielen dabei Blade-Server, weil sie durch relativ preiswerte Standardkomponenten schnell ausgebaut werden können.

Microsoft orientiert sich mit den bevorstehenden Updates wichtiger Server-Produkte primär am Prinzip des Scale up. Eine Ausnahme bildet die für nächstes Jahr geplante High-Performance-Computing-(HPC-)Edition des Windows Server 2003. Sie soll in der Lage sein, eine Vielzahl von Rechnerknoten zu einem Cluster zu vereinen. Derzeit existieren aber noch keine offiziellen Informationen über ihre geplanten Features oder einen möglichen Beginn der Testphase. Nach den anstehenden Verspätungen anderer Server-Produkte aus Redmond darf daran gezweifelt werden, ob die HPC-Version im nächsten Jahr das Licht der Welt erblicken wird.

Microsoft muss dabei nicht nur technische Nüsse knacken, sondern auch welche in der Lizenzpolitik. Wenn ein solches Windows auf mehreren Dutzend Rechnerknoten läuft, wäre derzeit für jeden eine volle Lizenz fällig. Oracle hingegen, das bereits heute mit der Version 10g der Datenbank und des Applikations-Servers bis zu 64 Knoten in einem Cluster unterstützt, favorisiert als Betriebssystem Linux und muss seinen Kunden dafür nichts in Rechnung stellen. Mit seinem bisherigen Lizenzmodell wäre Microsoft in einer solchen Konstellation nicht konkurrenzfähig.

Scale up mit 64-Bit-Windows

Die sonst bei Microsoft dominierende Ausrichtung am Scale up liegt nicht zuletzt am Nachholbedarf, den die Firma gegenüber dem Unix-Lager noch aufzuweisen hat. Während dort alle wesentlichen Hersteller auf 64-Bit-Systeme migriert sind, steht die Windows-Welt erst am Anfang dieser Entwicklung. Diese Umstellung bietet Microsoft die Gelegenheit, den Anwendern innerhalb des bestehenden Modells mit relativ wenig Aufwand erheblich mehr Leistung zu bieten. Bisher liegen der Windows Server 2003 und der SQL Server 2000 in Ausführungen für Intels Itanium vor, sie erfreuen sich jedoch nur geringer Nachfrage.

Nach Schätzungen von Analysten sollen Ende 2005 die meisten verkauften Server 64-Bit-CPUs enthalten. Für das Massengeschäft zeichnen AMDs Opteron und Intels Extended Architecture für den Xeon-Prozessor ("x64") verantwortlich. Microsoft will in der zweiten Jahreshälfte eine gemeinsame 64-Bit-Version für diese beiden Systeme herausbringen, SQL Server 2005 ("Yukon") wird in einer solchen Ausführung in der ersten Jahreshälfte 2005 auf den Markt kommen. Eine Datacenter-Edition von x64-Windows ist vorerst jedoch nicht vorgesehen (siehe Grafik "Product Roadmap").

Laut einer Studie von IDC sehen die meisten Unternehmen den Nutzen von 64-Bit-Windows vor allem bei Datenbanken, E-Mail und Business-Anwendungen. Diese Applikationen profitieren besonders von der höheren Rechenleistung sowie der Überwindung der 4-GB-Speichergrenze, wie sie für 32-Bit-Systeme gilt. Daher können etwa mehr User gleichzeitig auf einem Server arbeiten, wodurch sich bestehende Installationen auf einer kleineren Zahl an Rechnern konsolidieren lassen.

Während Microsoft beim Betriebssystem und beim SQL Server entsprechende Ausführungen bereits anbietet beziehungsweise angekündigt hat, gibt es für Exchange derzeit noch keine 64-Bit-Pläne. Das Unternehmen empfiehlt Anwendern aber dennoch, beim Windows-Server bevorzugt 64-Bit-Versionen einzusetzen, auch wenn die meiste Software nur in 32-Bit-Ausführungen verfügbar ist. Nachdem die x64-Chips im Gegensatz zum Itanium bestehenden 32-Bit-Code unmodifiziert ausführen können, muss das 64-Bit-Windows dort eine Übersetzungsschicht ("Windows on Windows") einführen und nur die API-Aufrufe modifizieren.

Microsoft versprach auf der diesjährigen TechEd in Amsterdam, dass solche Altanwendungen auf dem x64-Windows mindestens genauso schnell ablaufen würden wie unter seinem 32-Bit-Pendant. Besondere Vorteile ergeben sich bei der 64-Bit-Version des Terminal-Servers, auch wenn primär 32-Bit-Anwendungen ausgeführt werden. Diese rühren daher, dass jede Maschine erheblich mehr Sessions parallel bewältigen kann als ihr 32-Bit-Gegenstück.

Während bestehende 32-Bit-Anwendungen für die Portierung in die 64-Bit-Welt zumindest neu übersetzt werden müssen, entfällt bei Programmen, die für das .NET-Framework geschrieben wurden, ein derartiger Aufwand. Sie liegen in der Intermediate Language (MIL), die der Just-in-Time-Compiler auf der jeweiligen Plattform ins richtige Format übersetzt. Ein 64 Bit breites .NET-Framework soll im ersten Halbjahr 2005 für Itanium und x64 auf den Markt kommen.

Das Modell des Scale up ist auch für den kommenden SQL Server 2005 bestimmend. Wie IBMs DB2 für Windows und Unix beruht er auf einer Shared-Nothing-Architektur, bei der Cluster primär der Ausfallsicherheit und nicht der Skalierung dienen. Steigenden Anforderungen begegnet man dort mit dem Einsatz stärkerer Hardware für den Datenbank-Server. Diese Option bietet Oracle ebenfalls (besonders auf Highend-Servern unter Unix), bewegt sich seit der Version 9i jedoch klar in Richtung Scale out. Eine wesentliche Rolle spielen dabei große Linux-Cluster auf Intel-basierenden Blade-Systemen.

Die Rolle des Virtual Server

Angesichts steigender Leistungsfähigkeit von Windows-Servern möchte Microsoft zu deren besserer Auslastung beitragen, indem es ihre Ressourcen virtualisiert. Allerdings steht vorerst nicht auf dem Programm, solche Systeme zu großen Verbünden (Cluster, Grid) zusammenzuschließen, deren Leistung in Form logischer Einheiten abgerufen werden kann. Vielmehr sieht der Softwareriese aus Redmond vor, eine einzige Maschine in mehrere virtuelle Computer aufzuteilen. Diese Aufgabe übernimmt zukünftig der Virtual Server 2005.

Er beruht auf der zugekauften Technologie der Firma Connectix und soll im Lauf dieses Jahres auf den Markt kommen. Die Software erlaubt somit nach dem Vorbild von Mainframes die Partitionierung von Windows-Servern und konkurriert mit der Lösung von VMware. Im Gegensatz zu dieser betont Microsoft, dass die eigene Virtualisierungstechnik für Windows als Gastsystem optimiert wurde. Der Virtual Server 2005 wird primär zur Konsolidierung von älteren Systemen wie NT propagiert, von denen mehrere auf einer neuen Maschine zusammengeführt werden können. Microsoft rät aber nicht zur Ausführung von unternehmenskritischen Anwendungen in einer solchen Umgebung.

Fazit

Microsoft will den Trend zum On-Demand-Computing dank seiner Marktmacht mitgestalten. Mit der DSI setzt das Unternehmen dafür ein deutliches Signal. Allerdings weist einiges darauf hin, dass diese Highend-Features noch kaum dort gebraucht werden, wo Windows heute in erster Linie eingesetzt wird. Dafür spricht, dass Microsoft noch klar auf Scale up setzt, während Konkurrenten wie IBM, Sun und Oracle mit ihren Technologien für das Scale out schon viel weiter sind. Aber selbst innerhalb des ersten Modells bewegt sich Microsoft relativ langsam, wie der zögerliche Umstieg auf 64-Bit-Systeme zeigt. So steht eine 64-Bit-Ausführung des gesamten Windows Server System noch in den Sternen. Selbst die Portierung der .NET-Ablaufumgebung lässt noch bis 2005 auf sich warten, während die Java-Welt diesen Umstieg schon vor Jahren vollzogen hat.

Ein weiteres Manko dieser Partitionierungsoption besteht darin, dass sie auf absehbare Zeit für die Oberklasse der Windows-Server, wo sie besonders nützlich erscheint, nicht zur Verfügung steht. Der Virtual Server wird nämlich nur in einer Version für 32-Bit-Systeme ausgeliefert. Laut FAQ wird derzeit "die Unterstützung von 64-Bit-Systemen durch zukünftige Versionen untersucht". Vorerst soll der Virtual Server ein eigenständiges Produkt bleiben. Da beispielsweise Sun solche Features schon länger als Teil des Betriebssystems anbietet, könnte Microsoft einen solchen Schritt ebenfalls erwägen. Immerhin ist die Virtualisierung von Desktops durch den Terminal-Server schon seit Windows 2000 ein integrierter Dienst des Systems.