Windows 2000/Designproblem von Windows NT

Zwang zu Client-Konfiguration verteuert den Unterhalt von PCs

19.03.1999
Von Nicholas Petreley* Welcher Designfehler von Windows ist am meisten dafür verantwortlich, daß die Unterhaltskosten von PCs so hoch sind? Es ist das Konzept des lokalen Benutzerkontextes - die Tatsache, daß der Client-Rechner für jeden Anwender und jedes Programm konfiguriert werden muß. Daß dies nicht so sein muß, soll im folgenden die Gegenüberstellung von Windows und Unix zeigen.

Die meisten Schwächen von Windows NT lassen sich auf Microsofts wichtigste Marketing-Strategie zurückführen: "Windows überall", also auch auf jedem Schreibtisch. Diese Maxime hat weitreichende Auswirkungen auf das technische Design.

Im Gegensatz dazu wurde Unix nicht in der Erwartung entworfen, daß jeder dieses System sowohl am Client als auch auf dem Server nutzen würde. Als Unix entstand, galt sein Einsatz auf jedem Desktop wegen der hohen Kosten gar nicht als erstrebenswert. Erst in den letzten Jahren wurde es so benutzerfreundlich und erschwinglich, daß es auch am Front-end als Konkurrent zu Windows antreten konnte.

Hingegen konnten sich Unternehmen Windows auf jedem Arbeitsplatz immer schon leisten, so daß die Marketing-Strategie von Microsoft durchaus realistisch war. Und tatsächlich befand sich Windows schon auf den meisten Arbeitsplatzrechnern, als NT entwickelt wurde. Die Herausforderung für Bill Gates bestand zu diesem Zeitpunkt gar nicht mehr darin, sein Betriebssystem allgegenwärtig zu machen - vielmehr ging es darum, jeden zum Upgrade zu bewegen. Aufgrund von Mängeln in der ersten NT-Version war es zunächst gar nicht so gut um dieses Anliegen bestellt. Die weit höheren Hardware-Anforderungen, die mäßige Kompatibilität mit dem großen Bestand an 16-Bit-Anwendungen und die schlechte Qualität des integrierten Netware-Clients versetzten Anwender von Windows 3.1 nicht gerade in ein Update-Fieber. Erst die nachfolgenden NT- Versionen 3.51 und 4.0 waren, zusammen mit gestiegener Leistung von Standard-PCs, attraktiv genug, um den Arbeitsplatz professioneller Anwender zu erobern.

Als Microsoft NT weiterentwickelte, verlor es das wichtigste Ziel nicht aus den Augen: Windows auf jedem Arbeitsplatz. Deshalb änderte sich NT in einer wesentlichen Hinsicht nicht: Jeder Desktop beruhte auf seinem eigenen, lokalen Benutzerkontext. Mit anderen Worten: Das OS und die Anwendungen erwarten, daß sich alle Bestandteile und Dienste des Betriebssystems, mit denen der Anwender interagiert und die er konfiguriert, auf seiner Desktop- Maschine befinden. Im Rahmen der Windows-überall-Strategie bedachte Microsoft allerdings nicht, daß sich mit diesem Konzept Clients und Server in der Unternehmens-DV nicht besonders gut betreiben lassen (siehe Kasten "NT = Desktop-OS").

Dann aber nahm quasi über Nacht das Internet Einzug in die Firmen. Man kann die Auswirkungen nicht hoch genug einschätzen, die das Internet auf Windows hatte. Die oft gehörte Aussage, Microsoft habe das Internet verschlafen, bezieht sich meist darauf, daß sich Bill Gates zu sehr auf seinen proprietären Dienst MSN konzentrierte und zu spät mit einem Browser und einem E-Mail- Client auf den Markt kam. Aber diese Fehleinschätzung des Marktes könnte sich als geringfügig erweisen im Vergleich zu den langfristigen Auswirkungen, die das Internet auf Microsoft hat.

Das Internet-Erdbeben, das nun die Grundfesten von Windows erschüttert, begann, als Anwender mit der "Browser-Erfahrung" konfrontiert wurden. Diese ist bestimmt von Informationen und Daten, die vom Server kommen - unabhängig davon, von wem das Web- Front-end stammt. Aufgrund dieser Konstellation folgen Dokumente dem Benutzer, wohin er sich auch begibt. Java zusammen mit Smart Cards steigerten die Erschütterungen um ein paar zusätzliche Punkte auf der Richter-Skala. Beide zusammen machen es möglich, daß Anwender unabhängig vom Standort auch auf Programme zugreifen können. Das ist sicher kein ganz neues Konzept für Nutzer von Text- und Grafik-Terminals. Aber es ist eine revolutionäre Erfahrung für Millionen von Windows-Anwendern.

In der Tat dreht sich die ganze Flickschusterei, die Microsoft angesichts der TCO-Debatten unternimmt, um das Problem des lokalen Benutzerkontextes. Zero Administration Windows ist der Versuch, die Benutzereinstellungen auf dem Server zu verwalten und bei Bedarf diese auf den Client hinunterzuladen. Intellimirror ist dafür gedacht, Momentaufnahmen des Benutzerkontextes inklusive der Anwendungen sowie der Konfigurationsdaten zu machen und sie auf dem Server zu speichern. Dies sind Provisorien und Behelfslösungen, mit denen Microsoft ein neues Design von NT vermeiden will. Dieses müßte ein Ziel haben: Windows soll keinen lokalen Benutzerkontext mehr erwarten.

Wie bereits erwähnt, wurde Unix unter der Annahme entworfen, daß es zu teuer wäre, das komplette Betriebssystem auf jedem Arbeitsplatz einzurichten. Es folgte daher einem stärker Server- zentrierten Ansatz, der Unix auf ganz andere Weise Multiuser-fähig machte als Windows NT.

Unix mußte mehreren Anwendern gleichzeitig erlauben, Programme im Text- oder Grafikmodus auszuführen. Deshalb konnte das System von Anfang an mehrere Benutzerumgebungen auf dem Server verwalten (das trifft natürlich auch auf andere Betriebssysteme zu, aber beispielsweise MVS oder OS/400 spielen am Intel-Desktop keine Rolle).

Unix auf jedem Arbeitsplatz war auch dann noch zu teuer, als der X11-Grafikstandard entwickelt wurde. Daraus entstand die Notwendigkeit, das X-Window-System in einen X-Client und einen X- Server aufzuspalten. Natürlich ist es möglich, beide Komponenten auf einem Unix-Server ablaufen zu lassen, beispielsweise für grafische Administrationswerkzeuge. Aber meistens werden beide in einer Client-Server-Konfiguration genutzt, um Anwendungen von einem preisgünstigen Terminal aus auf dem Server zu starten (tatsächlich waren X-Terminals ziemlich teuer, aber verglichen mit einer ausgewachsenen Risc-Workstation billig).

Unix braucht deshalb kein Zero Administration oder Intellimirror, weil X11 nicht auf einen lokalen Benutzerkontext angewiesen ist. Anwender können beliebige Unix-Anwendungen ausführen oder auch Server verwalten, ohne den Client für den persönlichen Gebrauch konfigurieren zu müssen. In Frage kommen dafür folgende Geräte:

Eine Vielzahl von Textmodus-Terminals, typischerweise ANSI oder VT100 (Wir nennen diese, um zu betonen, daß sich Unix-Server im Gegensatz zu NT auch über die Kommandozeile verwalten lassen.), PCs mit einem Telnet-Client, X-Terminals, PCs mit X-Server- Software wie "Exceed" von Hummingbird Communications oder "WRQ Reflection", oder Workstations unter beliebigen Unix-Systemen, die X11R6 unterstützen, von einer Ultrasparc mit Solaris bis zum 386er-PC unter "Free BSD".

In Gegensatz dazu funktionieren Zero Administration Windows und Intellimirror ausschließlich mit Microsoft-Betriebssystemen, voraussichtlich nur mit Windows 2000 und eingeschränkt mit NT 4.0 sowie Windows 98.

In der Praxis gibt es nur zwei Lösungen für das Problem des lokalen Benutzerkontextes, ohne auf Behelfslösungen wie den "Managed PC" zurückzugreifen. Entweder entwickelt Microsoft eine neue Architektur für Grafikdienste und Multiuser-Funktionen, oder es improvisiert Thin-Client-Alternativen, die X11 auf die eine oder andere Weise ähneln.

Wie es aussieht, hat sich Microsoft zumindest vorerst für die zweite Variante entschieden. Zu diesem Zweck schloß Bill Gates ein Abkommen mit Citrix, dessen "Winframe"-Technologie die Grundlage für den "Windows NT 4.0 Terminal Server Edition" bildet. Die arbeitet allerdings nur mit Windows-Clients zusammen, für andere Desktop-Systeme ist das Citrix-Produkt "Metaframe" notwendig.

Es sagt ziemlich viel über NT aus, daß Microsoft mehr als ein Jahr benötigte, um ein praktisch fertiges Produkt (Winframe 2.0) zu integrieren. Probleme bereitete dabei, daß das NT-Grafiksystem nicht für ein Thin-Client-Protokoll ausgelegt war, geschweige denn für zwei (Remote Desktop Protocol und Independent Computing Architecture von Citrix). Zu allem Überfluß machen die architektonischen Änderungen von NT 3.51 auf NT 4.0 Anwender stärker von der Qualität des Grafiktreibers abhängig, weil das Grafiksubsystem nun im Kernel-Modus läuft. Minderwertige Treiber können alles mögliche bewirken, von verstümmelter Bildschirmdarstellung bis zum ausgewachsenen "Blue Screen of Death". Hingegen sind unter Unix das X11-System inklusive Treiber vom Kernel getrennt. Deshalb ist es für den Multiuser-Einsatz - sprich Enterprise-Computing - besser geeignet als Winframe oder der Terminal Server.

Noch größere Schwierigkeiten bereitete bei der Integration von Citrix-Technologie die Tatsache, daß NT nicht gleichzeitig mehrere Benutzerkontexte gut handhaben kann. Sie werden in erster Linie über Einträge in die Registrierdatenbank und INI-Dateien modifiziert. Citrix mußte einige Tricks anwenden, um diese Daten für mehrere Nutzer separat vorzuhalten, nachdem das System ja immer von einem User pro Maschine ausgeht. Auch viele bestehende Anwendungen setzen voraus, daß sie ihre Konfigurationsdaten nur einmal pro Rechner ablegen müssen.

Muß Microsoft Unix fürchten?

Es sieht so aus, als fühlte sich Microsoft durch Unix bedroht, besonders durch Intel-Versionen Ob wegen der Unix-Tugenden oder der Enttäuschung über Windows, immer mehr Leute entdecken, daß Unix auf Intel das beste aus beiden Welten bietet: Die Vorteile lokaler Programmausführung ohne die Beschränkungen durch den lokalen Benutzerkontext. Besonders die Unterstützung namhafter Softwarehäuser wie Corel, Netscape oder Oracle für Linux wird deshalb in Redmond zu denken geben. Leider setzt sich am Markt aber nicht immer die bessere Technik durch. Aber immerhin kommen IT-Abteilungen zunehmend zur Schlußfolgerung: Der Grund für die davonlaufenden Unterhaltskosten von PCs liegt im Design von Windows, das auf jeder Maschine einen lokalen Benutzerkontext erwartet. Es wird sich daher zeigen, ob Microsoft nur paranoid ist oder Unix wirklich Windows auf den Fersen ist.

NT = Desktop-OS

Windows NT ist in erster Linie ein Desktop-System. Aufgrund der Windows 95/98-Produktlinie gerät leicht in Vergessenheit, daß NT ursprünglich als direkter Nachfolger von Windows 3.1 vorgesehen war. Genau genommen kam anfangs OS/2 diese Rolle zu. Aber nach dem Bruch der IBM-Microsoft-Allianz setzte Bill Gates auf NT, das er als die nächste Version von OS/2 bezeichnete.

Microsoft kündigte während der NT-Entwicklung an, das System in zwei Varianten auszuliefern: als Desktop-OS und gebündelt mit dem LAN-Manager. Als dann NT 3.1 auf den Markt kam, stellte Microsoft den LAN-Manager als separates Produkt ein.

Technisch gesehen ist NT Server aber weiterhin ein Desktop-System, dem eine Version des LAN-Manager beigepackt wird. Bis zum heutigen Tage unterscheiden sich NT Workstation und NT Server nur durch zwei Einträge in der Registrierdatenbank, den Lizenzvertrag und zusätzliche Software, die sich auf der Installations-CD des Servers befindet.

Angeklickt

Microsofts Marketing-Strategie hatte prägenden Einfluß auf das technische Design von Windows. Oberstes Ziel war es von Anfang an, den DOS-Nachfolger auf jeden Schreibtisch zu bringen. Als Folge davon gehen das Betriebssystem wie die meisten PC-Anwendungen von einem "persönlichen" Computer pro Benutzer aus. Anders als bei Unix erfolgt in der Microsoft-Welt die Konfiguration der Arbeitsumgebung auf dem lokalen Rechner - dieses Konzept ist hauptverantwortlich für die hohen Unterhaltskosten von PCs.

*Nicholas Petreley ist Redakteur der CW-Schwesterpublikation "Infoworld". Der Orginalbeitrag erschien in der Web-Publikation "NC World" http://www.ncworldmag.com/ncw-05-1998/ncw-05- nextten.html .