Web

Windows 2000 Datacenter unter der Lupe

17.10.2000
Bisher beschränkte sich Microsofts Erfolg bei den Betriebssystemen auf Endanwender und kleine Server. Das soll nun anders werden.

Von CW-Redakteur Wolfgang Miedl

MÜNCHEN (COMPUTERWOCHE) - Bisher beschränkte sich Microsofts Erfolg bei den Betriebssystemen auf Endanwender und kleine Server. Mit der Windows-2000-Variante Datacenter betritt man nun Neuland, um die Erfolgsstory auf Midrange- und Highend-Server auszuweiten. Das Produkt wird erstmals nicht als Paket verkauft, sondern von ausgesuchten OEMs ausschließlich in Verbindung mit einem Server.

Microsoft begründet den größten Teil seines Erfolges sowohl finanziell als auch strategisch auf dem Betriebssystem MS-DOS und dem grafischen Aufsatz Windows. Dieses umstrittene Gespann aus den 80er Jahren lebt bis heute in Windows 9x und ME fort. Mit NT (=New Technology) entstand Ende der 80er ein völlig neues System, das frei von den Altlasten und Unzulänglichkeiten des Vorgängers sein sollte. Tatsächlich gelang es Microsoft, mit NT ein verhältnismäßig stabiles System zu schaffen, das in Verbindung mit der preisgünstigen PC-Hardware über die Jahre einen breiten Einsatz in Unternehmen gefunden hatte.

NT und auch seine bisher ausgelieferten Nachfolgevarianten von Windows 2000 blieben bisher allerdings auf die PC-Server im Abteilungsniveau beschränkt. Dass Microsoft im Bereich mittlerer und großer Server nichts zu bieten hatte, liegt zunächst an den Beschränkungen von Intels 32-Bit-Plattform. Rein rechnerisch lassen sich damit maximal 4 GB Arbeitsspeicher adressieren. Auch in puncto symmetrischem Multiprocessing (SMP) lag die Obergrenze bei vier Prozessoren, manche Hersteller stockten mit Speziallösungen auf acht CPUs auf. Demgegenüber können 64-Bit-Unix-Systeme schon seit längerem mehrere Millionen Gigabyte verwalten - für große Datenbanken sind sie daher erste Wahl. Außerdem können große Unix-Systeme, unter anderem von Sun, IBM, Hewlett-Packard oder Compaq, derzeit bis zu 64 CPUs betreiben.

Mit Windows 2000 Datacenter versucht Microsoft nun, die große Kluft zwischen seinen Servern und denen von Sun und Konsorten deutlich zu verkleinern. Von den technischen Daten her kann sich der Vorstoß der Gates-Truppe in das Unix- und Mainframe-Lager tatsächlich sehen lassen: Das neue Betriebssystem unterstützt 32 CPUs und 64 GB Arbeitsspeicher. Neu ist auch das Server-Clustering von bis zu vier Knoten und das Load Balancing in Netzwerken über maximal 32 Nodes. Wichtig sind solche Funktionen für den Aufbau ausfallsicherer Systeme.

Windows im Club der Großen

Mit einer Reihe weiterer Features setzt sich Datacenter von den beiden kleineren Windows-2000-Servern ab. Um beispielsweise die hardwarebedingte Speicherbeschränkung auf 4 GB zu umgehen, hat Microsoft die "Physical Address Extension" (PAE) entwickelt. Damit Anwendungen bis zu 64 GB Speicher ansprechen können, wurden vier neue System-Calls eingeführt. Unter Verwendung des "Address-Windowing-Extension"-API (AWE) können Programmierer die erweiterten Speicherfunktionen einbinden. Aber auch herkömmliche Programme, die nur 4 GB adressieren, können völlig transparent in den physikalischen Speicher oberhalb der 4-GB-Grenze ausgelagert werden und profitieren somit von den neuen Speicher-Features.

Auch sonst wartet das Produkt mit einer Reihe von Funktionen auf, die es für den unternehmenskritischen Einsatz qualifizieren sollen. So soll etwa mittels "Winsock Direct" eine deutlich erhöhte Netzwerkleistung erreicht werden. Anwendungen, die auf dem unter Windows üblichen Winsock-TCP/IP-Stack basieren, können damit in für hohe Geschwindigkeit ausgelegten System Area Networks (SANs) erhöhte Datenraten erzielen. Das Akronym SAN ist hier etwas irreführend, da es auch für Storage Area Networks verwendet wird. System Area Networks funktionieren ähnlich wie LANs, bieten aber eine höhere Sicherheit auf physikalischer Ebene und eine höhere Übertragungsrate, weil Daten innerhalb eines Systemverbunds unter Umgehung des TCP/IP-Stacks übertragen werden. Bisher haben SANs wegen ihrer proprietären Technologie eine aufwändige Programmierung erfordert. Mit Winsock Direct können nun fast alle Standardanwendungen auf TCP/IP-Basis über SANs kommunizieren. Microsoft verspricht einen Geschwindigkeitszuwachs von bis zu 70 Prozent, je nach Größe der Datenpakete.

Neu ist auch das "Process Control Tool", das dem Management von Server-Ressourcen dient. Damit ist es Administratoren möglich, jeder Anwendung genau definierte Ressourcen wie Prozessorleistung und Speicher zur Verfügung zu stellen. Das Tool arbeitet mit einem Windows-2000-spezifischen Kernel-Objekt namens "Job Object" zusammen, welches Server-Prozesse zu klar definierten Einheiten zusammenfasst. Prozesse können dadurch nicht mehr eigenmächtig ihre Priorität und Abhängigkeit ändern. In Verbindung mit einem Tool, das auf Windows-2000-Professional-Clients installiert ist, lassen sich Prozesse und Prozess-Gruppen auf einem Datacenter-Server ferngesteuert administrieren.

Eine große Bedeutung kommt im Unternehmenseinsatz der Verfügbarkeit und Skalierbarkeit zu. Vor allem im E-Commerce ergeben sich durch die Anonymität der Zugriffe aus dem Internet neue Unwägbarkeiten im Vergleich zur herkömmlichen Firmen-IT, was die Größenordnung und die Belastung betrifft. Datacenter erweitert im Vergleich zu seinen Familienmitgliedern die Möglichkeiten des Clustering und Load Balancing. Durch das Clustern von bis zu vier Servern erhöht sich die Ausfallsicherheit von Anwendungen. Fällt ein Server aus, übernimmt ein anderes Cluster-Mitglied dessen Aufgaben (Failover). Ein zweiter Aspekt ist Network Load Balancing (Lastverteilung). Hierzu können Cluster von bis zu 32 Maschinen verbunden werden, wobei der Verbund nach außen durch eine einzige IP-Adresse wie eine Einzelmaschine erscheint.

Service und Zertifizierung gegen Windows-Übel

Aber nicht nur von den technischen Daten her steigt Windows nun in eine höhere Liga auf. Mit dem Windows-2000-Datacenter-Programm verpflichten die Redmonder ihre OEMs zur Einhaltung eines strengen Regelwerks. Durch die enge Zusammenarbeit von Soft- und Hardwarehersteller soll ein Hauptübel von Windows beseitigt werden: Der unüberschaubare Markt für PCs, Komponenten und Software bescherte der Wintel-Plattform zwar niedrige Preise. Ein gravierender Nachteil dieser nicht kontrollierbaren Infrastruktur war aber bisher die latente Gefahr unausgereifter Bauteile und Treiber, die die Stabilität der Systeme gefährden.

Die wichtigste Maßnahme des Datacenter-Programms ist, dass das Betriebssystem nicht mehr im üblichen Lizenzmodell als Paket verkauft wird, sondern ausschließlich in Verbindung mit zertifizierter Hardware von einem der derzeit dreizehn OEM-Partner von Microsoft. Zu diesen Partnern zählen unter anderem Compaq, IBM, Unisys und Fujitsu-Siemens. Zunächst muss ein Hersteller über ein Microsoft Certified Support Center (MCSC) verfügen und zusätzlich einen Teil seiner Mitarbeiter speziell für Datacenter ausbilden. Nach Aussage von Günther Aust, der bei Fujitsu-Siemens in Augsburg für das technische Produkt-Marketing zuständig ist, müssen die Hardwarehersteller hier eine enorme Vorleistung erbringen, um von Microsoft in den Kreis der Datacenter-Anbieter aufgenommen zu werden.

Sind die Einstiegskriterien erfüllt, müssen die Hersteller ihre Datacenter-Hardwareplattform in aufwändigen Tests zertifizieren lassen. Microsoft hat dazu Hardware Quality Labs (HQL) eingerichtet, in denen eine Konfiguration 30 Tage getestet wird. Jede Erweiterung der Hardware, jeder Treiber erfordert einen neuen Testlauf. Das bisher unter Windows übliche Ritual der regelmäßigen Treiber-Updates mit ungewissem Ausgang ist damit passé. Für Hersteller von Erweiterungssystemen wie Speicher-Arrays gibt es ein separates Testverfahren. EMC hat hier als erster Hersteller eine Zertifizierung erhalten.

Auch der Support folgt bei Datacenter ganz neuen Regeln. Viele Windows-Anwender hatten bisher schlechte Erfahrungen mit dem so genannten Fingerpointing gemacht. Dabei schieben sich Hard- und Softwarehersteller bei der Fehlerbehebung oft gegenseitig den Schwarzen Peter zu, was die Lösung des Problems hinauszögert. Nun gibt es eine Joint-Support-Queue, die als höchste Instanz für alle Servicefragen fungiert. Dieses Team besteht in der Regel aus einem Microsoft-Mitarbeiter und mehreren MSCS-Mitgliedern - es entscheidet unter anderem über die Zuordnung von Fehlern in Hard- und Software.

Konsolidierung steht im Vordergrund

Als Einsatzgebiet für Datacenter sieht Aust, wie auch andere Branchenkenner, zunächst in erster Linie den Bereich der Server-Konsolidierung sowie der Rezentralisierung. Viele Unternehmen, die mit NT-Lösungen an Grenzen angelangt sind, können nun eine Vielzahl von Servern auf leistungsfähige Einzelmaschinen und Cluster bündeln. Auch Compaq-Sprecher Herbert Wenk bezeichnet Datacenter in erster Linie als "natürlichen Wachstumspfad für alle NT-Systeme". Preislich dringt die Intel-Plattform ebenfalls in neue Regionen vor. Bei Compaq schätzt man das untere Limit auf 150 000 Mark. Wenk weist ausdrücklich darauf hin, dass Datacenter-Systeme als Gesamtlösung aus Hardware und Service verkauft werden - einen Hardwarepreis wie bisher gibt es also nicht mehr. Eine der ersten verfügbaren Lösungen, die die Einsatzmöglichkeiten veranschaulicht, zeigt der SAP-Dienstleister Realtech aus Walldorf. Auf Basis einer 32-Wege-ES7000 von Unisys können mehrere unabhängige R/3-Installationen parallel betrieben werden.

Auch wenn Microsoft bereits beeindruckende Benchmarks vorgezeigt hat, von Unix- und Mainframe-Leistungen ist Datacenter noch weit entfernt. Die OEMs sind hier realistischer und sprechen von einem Einstieg in das Highend-Segment. Erst wenn Intel die zweite Generation seiner nächsten Chipgeneration "IA-64" (Codename: "McKinley") liefern kann, wird mit einem ernst zu nehmenden Angriff auf Großsysteme gerechnet. Immerhin, so ist zu hören, klappt die Zusammenarbeit zwischen Intel und Microsoft bei der Portierung auf die 64-Bit-Plattform reibungslos wie eh und je. Das 32-Bit-Datacenter dürfte also ein erster Vorgeschmack auf die neue Windows-Welt sein.

Skalierbarkeit

Im schnelllebigen E-Commerce-Zeitalter ist Skalierbarkeit eines der wichtigsten Kriterien für IT-Systeme. Während dieses Thema in der Mainframe- und Unix-Welt seit langem eine große Bedeutung hat, gab es für die Wintel-Plattform einigen Nachholbedarf. Mit der Windows-2000-Server-Reihe hat Microsoft Skalierbarkeit nun zum strategischen Thema erkoren. Microsoft geht in einem Dokument zu Windows 2000 Datacenter davon aus, in den nächsten zwei Jahren die Skalierbarkeit von Midrange- und Mainframe-Systemen zu erreichen.

Tatsächlich verbergen sich hinter dem Begriff eine Reihe von ganz unterschiedlichen Aspekten. Skalierbarkeit kann sich auf die Unterstützung niedriger und hoher Prozessorlast, Zahl der Anwender und Transaktionen sowie die Datenmengen beziehen. Aus einer Performance-Perspektive kann das bedeuten: Schnellere Prozessoren, mehr Prozessoren, schnellere I/O-Busse, mehr I/O-Busse oder größerer adressierbarer Speicherraum.

Wichtig ist für Unternehmen, dass sie existierende Installationen inkrementell ausbauen können, um flexibel auf unvorhergesehene Zugriffe und Auslastungen reagieren zu können. Gute oder schlechte Skalierbarkeit bezieht sich darauf, wie die Rechen- und I/O-Leistung eines Systems durch Konfigurationsänderungen wie Speicher- oder CPU-Ausbau erhöhen lässt. Dabei kann sich je nach Anwendung, Netzwerk oder Systemarchitektur ein Scaling-up, Scaling-out oder Scaling-down als geeignet erweisen.

Scaling-up bezeichnet den Ausbau eines Servers mittels Speicher, Prozessoren, I/O-Komponenten oder Plattenkapazität. In der Praxis lassen sich damit nicht immer die gewünschten Leistungssteigerungen erreichen, weil hierbei auch Anwendungsdesign, Datenbank-Tuning und Netzwerkkonfiguration eine wichtige Rolle spielen. Die Erhöhung der Prozessorzahl beispielsweise erhöht in den seltensten Fällen die Leistung linear, ab einem gewissen Punkt bleiben zusätzliche CPUs wirkungslos.

Scaling-out dient der Leistungssteigerung, wenn der Datendurchsatz einer Anwendung die Möglichkeiten eines einzelnen Systems überschreitet. Durch die Verteilung von Ressourcen auf mehrere Systeme können Zugriffskonflikte reduziert und die Verfügbarkeit erhöht werden. Klassische Maßnahmen sind in diesem Sinne Clustering und der Einsatz von Systemdiensten wie Transaktions-Message-Queuing.

Scaling-down kann für Unternehmen ebenfalls Vorteile bringen, etwa wenn zentralisierte Funktionen an Abteilungen übertragen werden. Im Sinne der Gesamt-Performance kann eine Neupartitionierung des Workloads positiv sein.