Windows NT/Windows NT und Unix:

Kampf der Systeme oder komplementäres Miteinander?

31.07.1998

Im obersten Workstation- und Server-Segment, dem High-end-Computing, spielen Unix-basierende Systeme klar ihre Stärken aus. Bei Applikationen wie MCAD, CAE, Virtual und Digital Prototyping sind vor allem Faktoren wie hohe Rechenleistung, Skalierbarkeit und hohe Datentransferraten entscheidend.

Bei der Verarbeitung größerer Datenvolumina, die gerade im Bereich Prototyping schnell jenseits von 1 GB liegen, stoßen Personal Workstations, die auf einer PC-Architektur unter NT basieren, an ihr Limit. Die Transferraten reichen nicht mehr aus, um die verschiedenen Peripheriegeräte am System-Bus effizient zu bedienen. Die Situation wird fatal für den Anwender, wenn der Bus als potentieller Flaschenhals das schnelle Einlesen und Verarbeiten der Daten verhindert. Gleichzeitig wird das Memory-Subsystem blockiert, Platten lassen sich nicht mehr auslesen.

Während die hohen Transferraten die NT-Workstations in die Knie zwingen, arbeiten Unix-Vertreter selbst bei Werten von 2 GB noch zuverlässig. Einer der Gründe liegt darin, daß diese Rechner nicht nur aus schnellen Einzelkomponenten bestehen, sondern das System optimal auf eine hohe Gesamt-Performance abgestimmt ist. Ihre Hersteller haben einiges dafür getan, das Zusammenspiel von Subsystemen wie Grafikbeschleuniger, Festplatten, Memory und CPU auf maximale Transferraten für komplexe Anwendungen zu optimieren.

Auch wenn hochgepowerte NT-Systeme mit beeindruckenden Benchmark- und SPEC-Werten (Standard Performance Evaluation Consortium) aufwarten können, zeigen sie im Praxiseinsatz bei High-end-Anwendungen noch deutliche Schwächen. Papier ist geduldig, Anwender sind es nicht.

Diese differenzierten Unix-Systeme, bei denen das Betriebssystem perfekt auf die CPU abgestimmt ist, zeichnet ein weiteres Alleinstellungsmerkmal aus: symmetrisches Multiprocessing. Moderne Unix-Workstations lassen sich mit bis zu 128 Prozessoren bestücken: Rein technisch gesehen könnte zum Beispiel das Unix-Derivat Irix von Silicon Graphics bis zu 1024 Prozessoren in einem System verwalten. Bei NT signalisieren bereits vier, demnächst acht CPUs das Ende des derzeit technisch Machbaren.

Dabei spielt Unix eine weitere Trumpfkarte aus, indem verschiedene Rechenoperationen auf den einzelnen CPUs parallel und nicht nur im Master-Slave-Modus ausgeführt werden können (Symmetrical Multiprocessing = SMP). SMP spielt im Bereich von Decision-Support-Systemen (DSS) wie Data-Warehousing und Data-Mining eine immer wichtigere Rolle, da parallele Abfragen sowie das simultane Verarbeiten verschiedener Lasten maßgebliche Erfolgskriterien für die Informationsgewinnung sind.

Der überproportional wachsende DSS-Bereich zählt damit zu einem der Wachstumsmärkte, in denen Unix die Oberhand gewinnen wird. Zudem ist damit zu rechnen, daß die weltweite Hausse im Maschinenbau, in der Fertigungsindustrie sowie im medizinisch-wissenschaftlichen Bereich (zum Beispiel in der Genom-Forschung) die Nachfrage nach durchsatzstarken Unix-Systemen beleben wird.

Der Markt für NT-Workstations boomt, daran gibt es keinen Zweifel. Hochleistungsfähige Standardprozessoren von Intel in Verbindung mit dem stabilen Betriebssystem Windows NT haben bei einem hervorragenden Preis-Leistungs-Verhältnis neue Dimensionen im Markt für Personal Workstations eröffnet. Zusätzlichen Rückenwind erhält die NT-Generation durch die hohe Anzahl der verfügbaren Applikationen - auch in Bereichen, die bislang proprietären Unix-Lösungen vorbehalten waren.

Der Erfolg ist jedoch keinesfalls auf einen reinen Verdrängungswettbewerb zurückzuführen, denn NT zielt auf ein Marktsegment ab, das Unix-Anbieter nur teilweise angesprochen haben. Dazu zählen beispielsweise 2D-Drafting, CAD/ CAM, einfaches 3D Design, Publishing und Bildbearbeitung sowie der Backoffice-Bereich.

Zahlreiche Unix-Hersteller haben auf das in diesen Bereichen unschlagbare Preis-Leistungs-Verhältnis der NT-Maschinen reagiert, indem sie sich aus diesen Märkten mehr oder weniger kampflos zurückzogen. Das hat den Höhenflug der NT-Workstations weiter begünstigt.

Schon heute ist die Leistung von Personal Workstations im Low-end-Bereich auf dem gleichen Niveau wie bei den Unix-Modellen - bei deutlich geringeren Einstiegspreisen. Extrapoliert man die Leistungskurve der Unix-Workstations im Vergleich zu den NT-Systemen, ergibt sich, daß die Leistung der Wintel-Plattform schneller wachsen wird als die der Low-end-Unix-Systeme.

Schon nächstes Jahr werden NT-Systeme mit einer theoretisch höheren Performance als bei RISC-Rechnern erwartet. Allerdings zeigen die indifferenzierten NT-Rechner noch eine unterlegene Gesamt-Performance im Praxiseinsatz. Ihnen mangelt es an der perfekten Abstimmung der Komponenten.

Die Analysten von Deloitte & Touche bescheinigen Workstations unter Windows NT eine um 39 Prozent niedrigere Total Cost of Ownership (TCO). Das mag für viele Anwender verlockend sein, in der Praxis wird dieser Vorteil wieder relativiert.

Die extrem kurzen Innova- tionszyklen bei Intel bewirken einen ebenfalls extrem dynamischen Zustand im NT-Markt. Beinahe im Drei-Monats-Turnus kommen komplett neue Chipsets, Grafikkarten und andere Komponenten auf den Markt. NT-Anwender sind ständig dabei, ihre Systeme nachzurüsten. Neben den reinen Anschaffungskosten ist der Aufwand für die Administration ein großer Kostenbrocken.

Die Innovationszyklen traditioneller Unix-Workstations sind wesentlich länger, dafür sind die technologischen Sprünge größer. Im Vergleich zu NT lassen sich bei Unix auch größere Installationen relativ einfach - zum Beispiel parallel über das Netzwerk - auf neue Versionen bringen. NT erfordert dafür ein Vielfaches an Manpower. Für größere Aktualisierungen im NT-Bereich fehlen derzeit noch leistungsfähige Administrations-Tools.

Summa summarum kommt die Debatte über TCO bei Unix und NT einem Nullsummenspiel gleich. Einerseits stehen bei NT die niedrigen Einstiegspreise einem hohen Fixkostensatz für die Administration gegenüber, andererseits kompensiert eine letztlich günstigere Systemverwaltung die höheren Hardwarekosten bei Unix.

Unix wird auch mittelfristig als High-end-Lösung für das Abarbeiten hoher Transaktionsvolumina dominieren, wohingegen der Siegeszug von NT im Low-end-Bereich bis in den unteren Midrange-Sektor nicht mehr aufzuhalten ist.

Auf Anwenderseite dagegen sind die Interessen anders gewichtet, denn hier geht es vorrangig um die Lösung konkreter Probleme. Dem Anwender ist es gleichgültig, ob er unter Unix oder NT arbeitet, die Lösung darf nicht vom Betriebssystem abhängig sein.

Das Schlagwort heißt Interoperabilität. Mit Hilfe offener Standards ist die Industrie gefordert, plattformübergreifende Gesamtlösungen für Endanwender bereitzustellen. Für das digitale Prototyping eines Zylinderkolbens ist die Rechenleistung einer NT-Workstation ausreichend; soll aber der komplette Motor visualisiert werden, ist eine Unix-Maschine erforderlich.

Ähnlich komplementäre Anwendungsbereiche ergeben sich im DSS-Bereich bei Banken und Börsen. Für Trendanalysen oder Wechselkursschwankungen können nur hochperformante, SMP-fähige Unix-Server intelligente Algorithmen parallel berechnen, Pattern erkennen und daraus Kaufempfehlungen für Broker generieren. Als visuelles Front-end dagegen reicht die Performance einer NT-Workstation aus.

Standards für offene Schnittstellen wären wünschenswert. Von ihnen würden nicht nur die Endanwender profitieren. Auch für Software-Entwickler eröffneten sie die Perspektive, ohne zusätzlichen Programmieraufwand hohe Stückzahlen für beide Plattformen vertreiben zu können.

Die Karten werden neu gemischt, wenn der neue Merced-Prozessor von Intel mit 64-Bit-Architektur Marktreife erlangt. Nach Ansicht der meisten Unix-Anbieter ist für sie der Übergang zum Merced der richtige Weg. Hier werden sie ihren Vorsprung im 64-Bit-Computing ausspielen können, der auf den Erfahrungswerten von teilweise mehr als sieben Jahren basiert - eine kleine Ewigkeit in der High-Tech-Industrie. So ist es auch nicht weiter verwunderlich, daß Unix-Experten maßgeblich an der Entwicklung von Leistungsmerkmalen wie SMP, Clustering und Skalierbarkeit beteiligt sind.

Weiterhin steht heute schon fest, daß Unix-Derivate auf die Intel-Plattform portiert werden. Der Markt für Unix auf Standardprozessoren wird damit einen Aufschwung erfahren. Gleichzeitig werden Unix-Anbieter auch NT-Systeme mit Standardkomponenten anbieten, um eine Komplettlösung zur Verfügung zu stellen. Inwieweit sich reine Wintel-Spezialisten in den Unix-Markt wagen werden, bleibt abzuwarten. Prominentestes Beispiel ist die Compaq Corporation, die sich durch den Kauf von DEC ein immenses Unix-Know-how einverleibt hat.

In den Anwenderunternehmen liegt die Zukunft bei Unix und NT. Die beiden Betriebssysteme sind komplementär und nicht konträr zueinander einzusetzen. Beide decken ganz bestimmte Anwendungsbereiche ab, in denen sie bislang jeweils unschlagbar sind. Wichtig wird sein, daß beide Plattformen so interoperabel wie möglich interagieren können. Es geht darum, bei der Wahl des Betriebssystems von einem Entweder-Oder zu einem Sowohl-als-auch zu kommen.

Angeklickt

Die Diskussionen um das Betriebssystem der Zukunft halten an. Auf der einen Seite sieht die Wintel-Fraktion durch die hohen Wachstumszahlen im Workstation- und Server-Markt die Überlegenheit von Windows NT bestätigt, auf der anderen Seite pocht die Unix-Fan-Gemeinde auf den technologischen Vorsprung ihres Betriebssystems. Doch die Anwender interessieren sich herzlich wenig für den Glaubenskrieg: Sie benötigen im Berufsalltag für konkrete Probleme und Herausforderungen optimale Lösungen. In den meisten Fällen bedeutet optimal ein Sowohl-als-auch anstelle eines Entweder-oder, denn beide Plattformen verfügen über einzigartige Leistungsmerkmale.

Hans-Peter Scherm ist Produkt-Marketing-Manager bei Silicon Graphics in Grasbrunn.