Desktop-Strategie von Gates schlägt auf Server durch

Anwender richten sich an Intel und Microsoft aus

12.07.1996

Mit der zunehmenden Komplexität in Zeiten sogenannter offener Systeme möchten sich MIS-Manager nicht herumschlagen müssen. Gewinner dieses Trends könnten Microsofts NT-Betriebssystem und Intels Hardwaretechnologien sein. Die Frage ist, ob und wie schnell die Wintel-Allianz den noch immer deutlichen Vorsprung der RISC-Unix-Gemeinde bei Hochleistungs-Servern aufholen kann.

Das Duo Intel-Microsoft hat bei deutschen DV-Leitern, die auf der Suche nach der großen Übersichtlichkeit sind, gute Karten. Analysten der Meta Group wie etwa Brian Richardson monieren zwar, NT weise erhebliche Defizite in puncto Skalierbarkeit sowie der Verfügbarkeit von kommerziellen Anwendungen und Tools etwa für die Systemadministration auf. Nichtsdestotrotz prognostizieren sie, vor allem die Technologieentwicklungen aus dem Hause Intel würden NT in die Hände spielen.

Ähnlich sehen es die Anwender. So urteilt Wolfgang Hermle, DV-Leiter beim Schuhkonzern Bally, es gebe "keine Diskussion mehr darüber, daß NT in Kombination mit der Intel-Technologie in ganz neue Leistungsbereiche vorstoßen wird". Herbert Kollmar von der Degussa AG in Frankfurt stellt fest, daß der Prozessormarktführer im Vergleich etwa zu den RISC-Prozessor-Herstellern seit Jahren das schnellste Entwicklungstempo vorgelegt habe: "Wenn Intel weiterhin diese Innovationskraft zeigt, dann ist es keine Frage, daß sie mit ihren CPUs klar die Oberhand behalten werden."

Beim Thema 64 Bit scheiden sich momentan noch die Geister. So glaubt Rick Westermann von der Meta Group, hier habe Unix gegenüber NT schon allein zeitlich einen Vorteil: "Gates fängt gerade erst an, sich über diese Technologie Gedanken zu machen." Sollte zudem die Initiative einiger Hersteller Früchte tragen, SCO Unixware und Openserver zu einem einheitlichen Unix-64-Bit-System zusammenzuschmelzen, bedeutet dies für NT laut Westermann "einen großen Rückschlag".

Bei der Vorausplanung ihrer DV-Konzepte denken Anwender wie Kollmar von der Degussa durchaus über das 64-Bit-Thema nach. Es sei abzusehen, daß bei einigen Großanwendungen die Vorteile eines über 4 GB adressierbaren Speichers sehr wohl zögen. Hier habe NT auf absehbare Zeit nichts zu bieten. Wenn diese Technologie im Moment auch noch nicht genutzt werden könne, weil es mit Ausnahme der Oracle-Datenbank für die 64-Bit-Architektur weder Anwendungen noch Middleware gibt, stelle sie doch eine Wachstumsoption für die Zukunft dar.

Allerdings lassen sich 64-Bit-Architekturen sinnvoll eigentlich nur für Entscheidungsfindungsaufgaben und Data-Mining-Jobs nutzen, wo Read-Zugriffe auf große Datenbestände in Speichern von Vorteil sind.

Noch in den Kinderschuhen stecken die trotzdem von Anwendern schon aufmerksam verfolgten Bemühungen, Rechnerkomplexe zu Großsystemen zu clustern. Diesbezüglich schmiedet Microsoft bekanntlich mit diversen Herstellern wie DEC, Compaq oder Tandem Pläne, die "Wolfpack"-Cluster-Technologie unter NT aufzuwerten.

Auf den ersten Blick scheint auch hier Unix zeitlich weit voraus. Hersteller wie Data General oder Sequent sind mit Entwicklungen, die zudem das Numa-Konzept (Non uniform memory access) nutzen, schon weit fortgeschritten. Wenn aber leistungsfähige Intel-Rechner erst einmal geclustert werden können, dann sieht Peter Kraemer von der Commerzbank schwarz für Unix-basierte RISC-Systeme: "Solche Intel-Maschinen könnten wir dann direkt hinter unsere MVS-Großrechner hängen." Es sei jetzt schon abzusehen, daß hier über kurz oder lang eine Marktbereinigung stattfinden werde, die zu Lasten der RISC-Anbieter gehe.

Heino Grünjes von der Landeszentralbank Niedersachsen in Hannover sieht es ebenso. Bei den Bankern verfolgt man das Cluster-Thema mit Aufmerksamkeit, weil man ab dem kommenden Jahr die Finanzbuchhaltung auf der Basis von R/3 vornehmen will. Solch eine Anwendung fordere eine hohe Verfügbarkeit der Rechner. Geclusterte Server-Systeme könnten diese - zumindest theoretisch und in Zukunft - in einem gewohnten NT-Umfeld garantieren.

Sein Schweizer Kollege Wolfgang Hermle winkt allerdings bei Überlegungen, R/3 auf Clustern einzusetzen, ab: Er vertritt die Ansicht, Release-Wechsel seien bei der SAP-Software extrem aufwendig. Je komplexer dann noch die zugrundeliegende Hardwareplattform sei, desto schwieriger gestalte sich auch der Übergang auf eine neue SAP-Version.

Von R/3 auf Clustern abgeraten

Ein Verlierer zeichnet sich bei der Diskussion um zukünftige Server-Systeme und deren Betriebssystem heute schon ab. Offensichtlich kehren immer mehr Anwender OS/2 den Rücken und wechseln auf NT. So meinte der Leiter der zentralen DV eines großen Unternehmens aus Nordrhein-Westfalen, daß man das IBM-Betriebssystem schrittweise durch Microsofts Konkurrenzprodukt ablösen werde. Mit OS/2 gerate man in Deutschland zunehmend in eine Minderheitsposition. Das liege auch daran, daß man sich bei den Back-Office-Applikationen vollständig auf Microsoft-Produkte festgelegt habe, was in der Kombination mit OS/2 immer wieder zu Problemen führen würde.

Die Wintel-Allianz macht eine starke Figur

Ein Fall unter vielen. Die Gates-Strategie, mit den Office-Anwendungen den Desktop zu erobern, um dann das Server-Betriebssystem-Segment aufzurollen, scheint ein voller Erfolg zu sein. Anwender trachten zunehmend danach, ihre DV-Landschaften homogen zu gestalten. Aus diesen Gründen wickeln auch Grünjes von der LZB Niedersachsen wie Kollege Kraemer von der Commerzbank OS/2 ab und plädieren für NT.

Während Grünjes als strategisches Ziel allerdings plant, NT nicht nur auf den Clients, sondern auch als Server-Betriebssystem einzusetzen, wird die Commerzbank Microsofts 32-Bit-System nur auf den Tischrechnern verwenden, als Backbone-Betriebssystem jedoch auf AIX vertrauen.

An diesem Beispiel zeigt sich, welche Überlegungen in deutschen DV-Zentralen im Trend zu liegen scheinen: Bei der Festlegung auf zukünftige DV-Strategien geht es im wesentlichen um die Fragen NT oder Unix sowie RISC oder Intel. Die Wintel-Allianz macht dabei eine starke Figur.