Windows 2000

Windows 2000 widerspricht IT-Trends

19.03.1999
Mit den zwei grundlegenden Designzielen von Windows 2000 stemmt sich Microsoft gegen die großen Trends in der Informationstechnologie. Der NT-Nachfolger soll das Desktop- Computing durch bessere Management-Funktionen fortsetzen, gleichzeitig soll der noch größere Funktionsreichtum von Windows 2000 neue Einsatzgebiete erschließen. Diese Evolution der Microsoft-Welt läuft den Anforderungen an eine DV zuwider, die zunehmend durch die Internet-Ökonomie bestimmt wird.

CW-Bericht, Wolfgang Sommergut

Auf den ersten Blick ist kaum vorstellbar, daß ein Alleskönner wie Windows 2000 Anwendern den Weg in irgendeine Richtung verbauen könnte. Egal ob Spielekonsole oder hochskalierbarer Datenbank- Server, Desktop-Computer für Office-Programme oder Datei- und Druck-Server, Netzwerk-Router, Multiuser-Umgebung oder Web-Client - für all diese Zwecke soll sich Windows NT schon heute eignen. Gegenüber NT 4.0 dehnt die Gates-Company das Einsatzgebiet von Windows 2000 noch weiter aus. Plug and play sowie Power-Management sollen das System auch mobilen Anwendern schmackhaft machen. Die Unterstützung von Intels Extended Server Memory Architecture stellt auf der High-end-Seite nach Ansicht der Microsoft- Verantwortlichen die speicherhungrigsten Data-Warehouse- Anwendungen zufrieden.

Wo die Gates-Company innerhalb dieses schier unglaublichen Anwendungsspektrums tatsächlich die Akzente setzt, läßt sich am besten anhand ihres Geschäftsmodells und des Aufwands feststellen, den das Unternehmen für bestimmte Funktionen in Windows 2000 treibt.

Zu den ehrgeizigsten Vorhaben von Windows 2000 gehört die Integration einer umfangreichen System-Management-Umgebung, die Desktop-Computing besser verwaltbar und kostengünstiger machen soll. Die zahlreichen neuen Administrationsfunktionen sollen DV- Verantwortliche davon überzeugen, daß sie mit einem Umstieg auf Windows 2000 die notorischen Wartungsprobleme von Windows-PCs in den Griff bekommen. Dieser Fortschritt hat allerdings seinen Preis und erfordert das Update von Client- und Server-Betriebssystemen, Hardware und Applikationen.

Die umfangreichen Management-Funktionen für die Verbesserung des Desktop-Computing folgen dem zentralen Geschäftsinteresse von Microsoft, auch weiterhin möglichst für jeden DV-Arbeitsplatz eine Windows-Lizenz verkaufen zu können. Entsprechend steht der Arbeitsplatz-PC mit lokaler Programminstallation und lokalem Benutzerkontext auch zukünftig im Mittelpunkt des Windows-Modells. Im Unterschied zur bisherigen Praxis bietet Windows 2000 aber die Möglichkeit, Benutzereinstellungen und Programmkonfigurationen durchgängig zentral zu verwalten. Wer bereit ist, für die Updates zu bezahlen, schließt sich zumindest unausgesprochen der Microsoft-Sicht an, wonach die Kombination von komplexen PC- Systemen mit aufwendigen Verwaltungsfunktionen zu einer einfach administrierbaren DV führt.

PC-Modell behindert E-Business

Auch wenn die nächste Sprosse auf der Microsoft-Update-Leiter in puncto PC-Unterhaltskosten Besserung bringen sollte, so weicht doch die Evolution der Windows-Welt zunehmend von Entwicklungen ab, die das Internet in Gang setzt. Das globale Netz fördert drei Megatrends, die auch gut administrierbare PC-Umgebungen zunehmend obsolet machen. Es handelt sich dabei um die Externalisierung von DV, den Bezug von IT-Services über Internet-Dienstleister und die Zentralisierung der internen IT-Angebote.

Unter Externalisierung verstehen Marktforscher wie die Meta Group, daß Unternehmen ihre DV-Funktionen über die Firmengrenzen hinaus ausdehnen. Eine treibende Kraft ist in diesem Zusammenhang natürlich E-Commerce. Die Öffnung von IT-Einrichtungen nach außen reflektiert aber auch einen allgemeinen Wandel in den Geschäftsabläufen. Beim elektronischen Handel liegt es auf der Hand, daß Kunden Zugriff auf interne Anwendungen haben müssen, beispielsweise um zu erfahren, ob bestimmte Waren überhaupt auf Lager sind. Eine Überschreitung der Unternehmensgrenzen ergibt sich auch durch die Kooperation mit Geschäftspartnern und Lieferanten.

So erlebt Software für elektronisches Lieferketten-Management eine stark steigende Nachfrage. Auch viele Data-Warehouse-Projekte haben zum Ziel, Informationen über externe Personengruppen - in der Regel Kunden - zu sammeln und für eine bessere Ausrichtung des Geschäfts zu nutzen.

Gemeinsam ist allen Facetten derartiger DV-Expansion, daß Anwendungen möglichst überall ablauffähig sein müssen und keine Konfiguration des Clients erfordern. Auch eine noch so gut funktionierende automatische Installation von Windows-Software durch den "Microsoft Installer" (MSI) ist auf fremden PCs, beispielsweise von Zulieferern oder Kunden, im allgemeinen nicht erwünscht. Entsprechend werden sich DV-Abteilungen verbitten, daß Rechner in ihrer Firma mittels der System-Management-Tools von Windows 2000 durch Geschäftspartner eigenmächtig umkonfiguriert werden. Zu den typischen Anforderungen einer Internet-orientierten DV zählt zudem die Unterstützung für den ständigen Standort- und Rechnerwechsel von Benutzern ("Roaming"). Die in Windows 2000 dafür vorgesehene Kombination aus zentral abgelegten Benutzerprofilen und Policies, Replikation der Benutzerdaten durch "Intellimirror" sowie automatischer Programminstallation durch MSI funktionieren ebenfalls nur hinter den Firmenmauern und dort nur auf einheitlich konfigurierten PCs mit dem neuesten Microsoft- System.

Web-Browser läuft Windows den Rang ab

Das Gegenmodell zum aufwendig administrierten fetten Client ist der Web-Browser. Das Web-Modell zeichnet sich dadurch aus, daß Anwendungen und Daten in Standardformaten ausschließlich auf Servern vorgehalten und bei Bedarf in den Browser heruntergeladen werden. Sieht man vom Sonderfall der Plug-ins ab, die bei Geschäftsanwendungen üblicherweise nicht benötigt werden, so entfallen bei dieser Architektur die lokale Installation und Konfiguration von Software. Da auch die Einstellungen der Benutzerumgebung zentral gespeichert sind, folgt sie dem Anwender überallhin - die Eingabe einer URL reicht. Natürlich eignen sich Windows-Systeme auch als Web-Clients, dafür benötigen sie jedoch kein Upgrade auf Windows 2000. Die dort vorgesehene System- Management-Umgebung inklusive Intellimirror oder "Self Healing" ist ihnen dabei nur von geringem Nutzen.

Web-basierte Anwendungen haben den Vorzug, daß sie sich gleichermaßen innerhalb der Firma und von außerhalb nutzen lassen. Applikationen hingegen, die einen Windows-Client voraussetzen, werden oft nachträglich für Web-Anwender geöffnet werden müssen. Eine doppelgleisige DV für intern und extern könnte dann die Folge sein.

Einer Studie der Gartner Group zufolge verhelfen diese Vorzüge dem Browser zu steigender Beliebtheit, er ist auf dem Weg zum universellen Front-end. Die Marktforscher prognostizieren anhand einer Umfrage, daß der Web-Client bis zum Jahr 2001 Windows als primäre Zielplattform bei Client-Anwendungen überflügeln wird. Demnach gaben 43 Prozent der Unternehmen an, daß für sie im Jahr 2000 noch Windows das vorherrschende Client-System sein wird, 39 Prozent nannten dafür aber schon den Web-Browser.

Es ließe sich argumentieren, daß eine umfassende System- Management-Umgebung dennoch notwendig ist, weil sich damit bestehende Windows-Anwendungen effizienter verwalten lassen. Allerdings spricht dagegen, daß nur neue Applikationen den Vorgaben des "Zero Administration Windows" (ZAW) folgen und damit die Verwaltungsfunktionen von Windows 2000 voll in Anspruch nehmen können. Im übrigen bietet Microsoft mit dem "Terminal Server" eine interessante Alternative zum komplexen Client-Management an, die aber im Geschäftsmodell der Gates-Company verständlicherweise nur eine Nebenrolle spielt. Microsoft hält sich bei der Vermarktung zurück, denn die Windows-Company käme bei einer weiten Verbreitung kaum um Einbußen im Lizenzgeschäft herum. Diese Multiuser- Funktionen für NT, die standardmäßig zum Lieferumfang von Windows 2000 gehören werden, eignen sich besonders für Office-Pakete.

Zentrale IT-Dienste erstzen NT-Server

Ein weiterer durch das Internet bedingter Trend ist die Zentralisierung der Unternehmens-DV und verbunden damit, IT- Funktionen über Internet-Service-Provider (ISPs) zu beziehen. Er läuft dem Microsoft-Konzept auch auf der Server-Seite entgegen. Dieses ist wie schon am Client durch das Modell "Große Stückzahlen - niedriger Preis" bestimmt. Damit setzen sich Microsoft- Marketiers explizit von der Unix-Konkurrenz ab, auch wenn sie gegenüber dieser keine wesentlich niedrigeren Lizenzkosten mehr vorweisen können.

Auf der Anwenderseite spiegelt sich dieses Modell darin wider, daß Abteilungen oder Filialen durchweg ihre eigenen NT-Server unterhalten. Dies erfordert in vielen Fällen, daß zumindest ein Mitarbeiter vor Ort über einfache Administrationskenntnisse verfügt. Bei größeren Filialnetzen läuft diese DV-Autarkie häufig auf eine stark verteilte Datenhaltung hinaus. Das mit NT einhergehende Konzept dezentraler Server reflektiert einen Markt, in dem PC-Hardware relativ billig, Bandbreite aber knapp und teuer ist. Zudem kommt es der im Vergleich zu Unix beschränkten Skalierbarkeit von NT entgegen.

Mit steigender Übertragungsleistung des Internet, von ISPs garantierten Bandbreiten und sinkenden Telekommunikationskosten entfällt indes immer mehr die Notwendigkeit für zahlreiche, großräumig verteilte Server. Wenn Mitarbeiter von überall online auf zentrale Rechner zugreifen können, hat dies den angenehmen Nebeneffekt, daß die dort vorgehaltenen Daten die tatsächlich aktuellen Geschäftszahlen repräsentieren. Im Gegensatz dazu führen die verteilte Datenhaltung und der damit nötige Abgleich zwischen Standorten zu einem Verlust an Aktualität.

Der Trend zur Server-Konsolidierung beschränkt sich mithin nicht darauf, die Administration innerhalb einer Niederlassung zu vereinfachen, sondern zielt auch auf die standortübergreifende Reduktion insbesondere von PC-Servern. Schon jetzt weisen Marktzahlen von IDC darauf hin, daß die Verkäufe von PC-Servern nur noch langsam wachsen. Die strategische Festlegung auf Windows NT könnte sich für Anwender als hinderlich erweisen, wenn Windows 2000 nicht die versprochenen Fortschritte in puncto Skalierbarkeit bietet. Das System wäre dann den hohen Anforderungen infolge der Server-Zusammenführung nicht gewachsen. Insgesamt könnte eine zu starke NT-Festlegung Unternehmen auch in diesem Punkt um die neuen Möglichkeiten der Internet-Ökonomie bringen.

Neben Datei- und Druckdiensten bieten NT-Server häufig in Kombination mit Microsofts "Back Office" Services an, die zukünftig stärker über Internet-Anbieter bezogen werden. Während Microsofts Geschäftsmodell der großen Stückzahlen vorsieht, daß Anwender auf Basis von NT alle möglichen Funktionen selbst implementieren, fördert das Internet DV-Dienstleistungen nach dem Vorbild der Telefongesellschaften oder Energieversorger: Stecker in die Dose stecken und für bezogene Leistungen bezahlen.

Firmen nutzen vermehrt Internet-Dienstleistungen

So wie der Anrufbeantworter zunehmend der Voice-Mailbox beim Telekommunikationsanbieter weicht, müssen Unternehmen zukünftig gängige Funktionen immer seltener über eigene Hard- und Software bereitstellen. Gerade für mittelständische Firmen lohnt es sich schon heute kaum mehr, einen eigenen Mail-Server zu unterhalten. Elektronische Post ist mittlerweile ein Dienst, der überall im Internet kostenlos angeboten wird.

Unternehmen mit einer einigermaßen leistungsfähigen Anbindung an das globale Netz können darüber auch ihre interne Kommunikation abwickeln, ohne sich mit der Verwaltung eines "Exchange"-Server abmühen zu müssen - der Mail-Service von ISPs ist obendrein meist zuverlässiger. Ähnliches gilt auch für andere Dienste, die heute häufig Abteilungs-Server auf Basis von NT anbieten. Dazu zählen Terminkalender, Fax oder Diskussionsforen. Im Rahmen des Application Hosting geht der Trend sogar dahin, die Funktionalität von betriebswirtschaftlicher Standardsoftware via Internet anzubieten.

Ein weiterer Trend, der nicht unmittelbar durch den Internet-Boom hervorgerufen, durch diesen aber verstärkt wird, ist jener zur Ausdifferenzierung bei Clients und bei Servern. Diese Entwicklung bedeutet, daß immer mehr Geräte auf den Markt kommen, die auf relativ wenige Aufgaben spezialisiert sind. Der große Erfolg von Mini-Notebooks und Personal Digital Assistants (PDAs) mag als Beleg dafür gelten, daß Benutzer in vielen Situationen mit dem reduzierten Funktionsumfang solcher Geräte auskommen. Durch neu hinzukommende Kommunikationsfunktionen und die Möglichkeit zum Internet-Zugriff verwandeln sie sich rasch vom privaten Spielzeug zum nützlichen Bestandteil der Unternehmens-DV. Die Bedeutung solcher Kleingeräte haben auch schon die großen Anbieter von Messaging-Systemen wie Lotus erkannt. Sie öffnen ihre Software auch für solche mobilen Clients und erlauben deren Benutzer, von unterwegs auf E-Mails oder Firmendokumente zuzugreifen. Diese Client-Vielfalt macht auch nicht vor dem Desktop halt. Nicht bloß der vorschnell als Fehlschlag bezeichnete Network Computer bietet sich auf vielen Arbeitsplätzen weiterhin als Alternative zu einem voll ausgestatteten PC an. Web-Telefone genügen beispielsweise für Benutzer, die gelegentlich Informationen in Form von HTML-Seiten abrufen müssen. In privaten Haushalten werden Fernseher den PCs ihre Daseinsberechtigung als Internet-Clients streitig machen.

Die Tendenz zu aufgabenorientierten Maschinen gilt auch für Server. Schon seit einiger Zeit bieten Hersteller Komplettlösungen aus Hard- und Software für Firewalls, Web-, Mail-, Proxy- oder Fax-Server an. Für den Anwender stellen sie sich als Black box dar, ihre Wartung beschränkt sich auf die Eingabe grundlegender Konfigurationsdaten und ist inzwischen meist Browser-basiert. Solche Geräte orientieren sich in ihrer Benutzung stärker am Modell von Büromaschinen oder an Unterhaltungselektronik als an Allzweck-Computern. Zuletzt machte Oracle mit dem Datenbank-Server mit dem Codenamen "Raw iron" publikumswirksam auf diesen Ansatz aufmerksam. Er soll auf Rumpfversionen verschiedener Unix-Derivate aufsetzen und den Anwender von der Konfiguration der Hardware und des Betriebssystems abschirmen. Ziel ist es auch hier, daß Oracle- Partner ein Komplettpaket aus Hard- und Software anbieten, das nach minimalen Anpassungen nur an das Strom- und Datennetz angeschlossen werden muß.

NT-Server erfüllen nur einzelne Aufgaben

Das Ironische an dieser Entwicklung ist, daß auch das funktionsreiche Allzwecksystem NT in der Praxis meist nur für einzelne Aufgaben zum Einsatz kommt. Schuld daran ist unter anderem seine mangelnde Fähigkeit, den Ressourcenverbrauch eines Programms zu beschränken. Da kann es schon passieren, daß der Mail-Server zuwenig Rechenleistung bekommt, um Post zu verschicken, weil ein etwas unkooperativer Datenbank-Server gerade mit dem Indexlauf beschäftigt ist. Hinzu kommt die unsaubere Trennung zwischen Anwendungen und System, so daß die Installation einer Server-Software Laufzeitbibliotheken (DLLs) überschreibt, die andere Programme in der ursprünglichen Version benötigen. Die Entscheidung eines Unternehmens für NT geht deshalb in der Regel mit der raschen Vermehrung von Server-Hardware einher.

Microsoft wehrt sich gegen Entwertung von Windows

Auffällig ist bei diesem Konzept aufgabenorientierter Rechner, daß das Betriebssystem dabei in den Hintergrund tritt und der Anwender häufig gar nicht weiß, welches überhaupt zum Einsatz kommt. Als die Oracle-Aktie im vergangenen Jahr einen Einbruch erlebte, stimmte Microsoft lautstark der Einschätzung von Analysten zu, daß Datenbanken inzwischen zu einer überall günstig erhältlichen Allerweltssoftware ("Commodity") geworden seien, mit der sich nur mehr schwer Geld verdienen läßt. Nicht nur aufgabenspezifische Server, auch das Linux-Phänomen zeigt eindrucksvoll, daß Windows auf dem gleichen Weg ist. Das Freeware-System ist nicht zufällig sehr oft Bestandteil der beschriebenen Komplettlösungen - es ist kostenlos, stabil und dort für den Anwender unsichtbar.

Microsoft stemmt sich gegen die Entwertung seiner Haupteinnahmequelle, indem Windows 2000 mit einer enormen Funktionsfülle ausgestattet wird. Mit vielen Features stößt die Gates-Company in Bereiche vor, die bisher Applikationen vorbehalten waren. In den internen Strategiepapieren, die Ende letzten Jahres als Halloween-Dokumente http://www.opensource.org/halloween. html bekannt wurden, nennen Microsoft-Mitarbeiter neben der proprietären Veränderung von Standards eben die Ausweitung des Funktionsumfangs von Windows als Maßnahme zur Abwehr von Linux.

Funktionsreichtum führt zu hoher Komplexität

Das Paradoxe an Microsofts Reaktion ist, daß die Company nicht auf einen fahrenden Zug aufspringt, sondern sich mit viel Engagement vom Marktgeschehen abkoppelt. Das Konzept des Allzweck-Computers wird mit Windows 2000 am Client und am Server noch stärker die Microsoft-Welt bestimmen.

Eine Folge dieses Kurses ist schon jetzt sichtbar. Die ungeheure Komplexität des rund 40 Millionen Zeilen Quellcode umfassenden Systems überfordert den Hersteller selbst und führt zu immer neuen Verzögerungen des Freigabetermins. Anwender müssen damit rechnen, daß sich der gewaltige Umfang von Windows 2000 auch in einer längeren Mängelliste niederschlägt. Außerdem kommt auf IT- Abteilungen ein beachtlicher Lernaufwand zu. Viele Client-PCs werden den Anforderungen des Systems nicht mehr genügen - auch wenn nachher damit wieder nur Texte getippt werden.

Im Server-Umfeld steigt das Risiko von Sicherheitslücken, weil von den zahllosen Funktionen und Diensten per Voreinstellung auch solche aktiviert sein können, die der Rechner für die vorgesehenen Aufgaben zwar nicht braucht, die ihn aber für Hacker angreifbarer machen. Schon mit NT 4.0 ist es deutlich schwieriger, eine verläßliche Firewall einzurichten, als dies mit dafür spezialisierten Systemen der Fall ist.

Microsoft sieht das wuchtige Windows 2000 sogar für Einsatzbereiche vor, in denen es gegen oft nur einige hundert Mark teure spezialisierte Hardware konkurriert. Ein Beispiel dafür sind die zahllosen Funktionen für das Netz-Routing, darunter künftig auch solche für ISDN. Auf einer Microsoft-Konferenz, die Ende vergangenen Jahres in Nizza standfand, konnten Firmenverantwortliche die Frage eines Anwenders nicht schlüssig beantworten, warum er statt eines preiswerten, verläßlichen und einfach wartbaren Hardware-Routers für ISDN einen Windows-2000-PC nutzen sollte. Ähnlich fragwürdig sind in Zeiten intelligenter Speichersubsysteme die ohnehin weniger leistungsfähigen Funktionen für RAID auf Softwarebasis.

Neue Features überholter PC-Konzepte

Auch in anderen Bereichen versucht Windows 2000, durch einzelne Verbesserungen und Zusatzfunktionen überholte PC-Konzepte fortzuschreiben, obwohl sich in der Industrie überzeugende Gegenmodelle abzeichnen. Eine dieser Altlasten ist das massenhafte Ablegen von Informationen im Dateisystem. Derart über Laufwerke und Verzeichnisse verstreute Daten haben gegenüber solchen in Datenbanken den Nachteil, daß sie nur schwer auffindbar sind und sich gegen den gleichzeitigen Zugriff mehrerer Benutzer sperren. In der Vergangenheit litten Datenbanken im Vergleich zu Dateisystemen an einem Geschwindigkeitsnachteil. Er war der Rechenleistung geschuldet, die für die Auswertung und Ausführung von SQL-Statements benötigt wird. Bei Ein- und Ausgabeoperationen (I/O) existiert gegenüber Dateisystemen schon länger kein Rückstand mehr. Die in den letzten Jahren stark gestiegene Rechenleistung versetzt Server zunehmend in die Lage, den zusätzlichen Arbeitsaufwand für Datenbankoperationen zu kompensieren. Oracle trug diesem Umstand mit der Version 8i seines DBMS Rechnung, das Dateisysteme für die Speicherung aller möglichen Daten ersetzen kann.

Microsoft will das Problem des Dateiwildwuchses in Windows 2000 entschärfen, um die Anwender des dafür hauptverantwortlichen Büropakets "MS Office" bei der Stange zu halten. Zu diesem Zweck enthält es unter anderem eine Weiterentwicklung des "Aktenkoffers", den "Synchronization Manager", und Intellimirror. Ersterer richtet sich an mobile Anwender und soll ihnen den Abgleich zwischen Daten auf dem Notebook und PCs in der Firma erleichtern. Intellimirror hingegen spiegelt die auf dem File- Server vorgehaltenen Daten auf der lokalen Festplatte von Desktop- Computern. Notes-Anwender werden sich über die Schlichtheit dieser Replikationsverfahren wundern: Der Synchronization Manager schreibt entweder ganze Dateien zurück, wenn sie einen neueren Datumsstempel aufweisen, oder er läßt es bleiben. Wenn also jemand in Abwesenheit eines Außendienstmitarbeiters das am Server abgelegte ursprüngliche Word-Dokument bearbeitet, kann es ersterem nach der Rückkehr an seinen Schreibtisch passieren, daß er seine Version nicht mehr zurückspielen kann, weil sie älter als das Zieldokument ist. Solche Probleme existieren in Groupware- Umgebungen wie Lotus Notes nicht, weil dort Informationen - einschließlich Office-Dokumente - da abgelegt werden, wo sie hingehören: in einer Datenbank. Und dafür existieren seit Jahren fein abgestufte Replikationsmechanismen, während sich das Datendurcheinander in Dateisystemen viel schwerer in den Griff bekommen läßt.

Auch beim Trend zu 64-Bit-Server-Systemen gilt für das, was Windows 2000 zu bieten hat: ein großer Schritt für die Microsoft- Welt, aber ein kleiner Schritt, verglichen mit dem Stand der Technik. Die ständigen Verzögerungen bei der Fertigstellung von Windows 2000 rücken auch ein mögliches 64-Bit-Windows in weite Ferne. Große Data-Warehouses oder Hochleistungs-Server bei ISPs oder Telcos verlangen enorme Mengen an Arbeitsspeicher, die 32- Bit-Systeme nicht mehr ansprechen können. Während die Unix- Konkurrenz wie Compaq/Digital oder Sun bereits mit ausgewachsenen 64-Bit-Systemen aufwartet, verabreicht Microsoft dem Anwender diese Technik in homöopathischen Dosen. Windows 2000 erlaubt es zwar, Speicher jenseits des für 32-Bit-Systeme gültigen 4-GB- Limits anzusprechen, bürdet die Last dafür aber dem Anwendungsprogrammierer in Form von explizitem Speicher-Management auf. Auf Intels "Xeon"-Chip nutzt Windows 2000 dessen "Extended Server Memory Architecture". Dabei werden wie beim seinerzeitigen "Expanded Memory" (EMS) Speicherblöcke zwischen den Bereichen oberhalb und unterhalb der 4-GB-Grenze hin- und herkopiert.

Windows-Update eine fehlgeleitete Investition?

Insgesamt zeigt sich, daß Microsoft mit Windows 2000 dem PC- Konzept eine Reihe von Verbesserungen angedeihen läßt. Die dem Anwender dadurch in Aussicht gestellten Fortschritte sind indes trügerisch, weil sie ein Computing-Modell fortschreiben, das den großen IT-Trends entgegensteht. Natürlich wird auch der PC weiterhin seinen Platz haben, so wie die früheren Paradigmen des Computerzeitalters neben den aktuellen Ansätzen weiter bestehen. Er verliert aber zunehmend seine bestimmende Position. Großangelegte Updates auf Windows 2000 könnten sich daher für Unternehmen als fehlgeleitete Investitionen erweisen.

Gegen den Strom

-Die imposante Liste neuer Features in Windows 2000 kann nicht darüber hinwegtäuschen, daß Microsoft damit vor allem das in die Jahre gekommene PC-Konzept aufpolieren und fortführen will. Damit widersetzt sich die Gates-Company den großen IT-Trends, die in erster Linie durch das Internet in Gang gesetzt werden:

-DV muß sich zukünftig über die Firmentore hinaus öffnen. Dafür empfehlen sich standardbasierte Anwendungen, die den Web-Browser als Client nutzen. Schwergewichtige Windows-Front-ends sind dafür ungeeignet, auch wenn sie sich zukünftig automatisch installieren lassen.

-Die weltweite Vernetzung versetzt Unternehmen in die Lage, von überall auf zentrale Datenbestände zuzugreifen. Der PC-Server in jeder Filiale und Abteilung wird damit obsolet.

-Viele gängige IT-Services können über Internet-Dienstleister bezogen werden, Firmen müssen sie zukünftig nicht mehr über NT- Abteilungs-Server selbst zur Verfügung stellen.

-Die Ausdifferenzierung bei Clients und Servern bringt eine Reihe von aufgabenspezifischen Geräten auf den Markt, die dem wuchtigen Allzweck-PC Konkurrenz machen. Reduktion von Komplexität ist ihr Anliegen.

-Verzögert durch Microsofts Monopolstellung werden Betriebssysteme erst jetzt immer mehr zu Commodity-Produkten. Linux ist dabei eine treibende Kraft. Die Gates-Company reagiert, indem sie Windows weiter aufbläht und einen enormen Funktionsumfang in die Waagschale wirft.

Bei Servern gibt es einen Trend zu 64-Bit-Systemen, Windows 2000 durchbricht die Limits eines 32-Bit-Systems nur durch Behelfslösungen.