Real existierende Hardware und Software Teil 2:

Client-Server-Architekturen verändern die DV-Landschaft

14.12.1990

LAS VEGAS/MÜNCHEN - "Die Revolution ist in vollem Gange", behauptet Charles E. Exley, CEO und Chairman der NCR Corp. Er gehört zu denen, die die EDV-Branche glauben machen wollen, Mainframes seien out und müßten ihren angestammten Platz über kurz oder lang zugunsten von leistungsstarken Netzwerk-Systemen auf Basis von Client-Server-Strukturen räumen. Die Hardwarevoraussetzungen für verteilte Datenverarbeitung - dies zeigte die Herbst-Comdex 1990 deutlich sind in der Tat mittlerweile geschaffen. Nun sind die Software-Entwickler nach ihrem Beitrag gefragt.

In den Brennpunkt des allgemeinen Interesses rückten Multiprozessor-Rechner als Serversysteme erst mit der Vorstellung von Compaqs "Systempro" im November 1989. Um die Möglichkeiten dieses "PCs" für zukünftige unternehmensweite MIS-Planungen zu verdeutlichen, griff Compaq zu dem gern benutzten Mittel der Testlaufvergleiche zwischen unterschiedlichen Systemen und präsentierte Nelson-Benchmark-Zahlen, die die Midrange-Konkurrenz alt aussehen lassen sollten: Ein unter Unix laufendes Systempro-Modell mit zwei 386-CPUs (33 Megahertz) bediente - als Abteilungsrechner definiert - 60 angeschlossene Benutzer.

Beim Showdown mit der Konkurrenz kam das nur noch dem Namen nach als PC zu bezeichnende Compaq-System auf jeweils bessere Leistungswerte, die im Vergleich zu einer VAX 6310 im Verhältnis 6:1 standen, HPs 9000/835 um den Faktor 3 ausstachen und IBMs liebstes Kind, eine AS/400, gar um den neunfachen Wert (beim Modell B 30) übertrafen.

Natürlich müsse, so monierte Ex-Geschäftsführer Frank Berger von DEC postwendend, gefragt werden, unter welchen Betriebssystem-Voraussetzungen die Tests gefahren wurden: "Es ist auch durchaus eine Überlegung wert, ob die Ergebnisse solch eines Benchmark-Laufs unter Unix und unter VMS überhaupt vergleichbar sind." Ob Benchmark-Läufe darüber hinaus etwas über die Leistungsfähigkeit eines Serversystems in

transaktionsorientierten, kommerziellen Umfeldern aussagen scheint ebenfalls fragwürdig.

Der seit seiner Vorstellung mit großer Aufmerksamkeit bedachte Systempro geriet zunächst jedoch unverschuldet zum Rohrkrepierer. Grund hierfür war die nicht vorhandene Systemsoftware, die die Arbeit der beiden CPUs hätte koordinieren sollen. Folge: Compaqs erzielte Verkaufszahlen für den Server blieben weit hinter den Hoffnungen zurück.

Ohne Betriebssystem sind Multi-CPU-PCs tot

Nach Angaben des US-Marktforschungs-Institutes Workgroup Technologies Inc. aus Hampton, New Hampshire, hatten die Texaner bis Mai 1990 weltweit erst 1572 Systempros verkauft und damit nach Meinung von John Dunkle, Vice-President des Analysten-Unternehmens, die prognostizierte Verkaufsrate um 50 Prozent unterschritten.

Ohne Multiprozessor-Betriebssystem stellen die Power-Server jedoch nur totes Kapital dar. DOS als Betriebssystem ist nicht erst bei solchen Rechnern mit seinem Latein am Ende; OS/2, das nur in der zukünftigen Version 2.0 mehrere CPUs betreuen kann, steht erst für Mitte 1991 an; Novells Multiprozessor-fähiges Netware/386 in der Version 3.2 ist noch nicht angekündigt.

Bleibt Unix, zunächst ebenfalls nur ein Betriebssystem für Einprozessor-Rechner. Um potente Serverumgebungen mit mehreren CPUs bedienen zu können, bedarf es erheblicher Kernel-Erweiterungen, die die Software-Entwickler vor nicht triviale Probleme stellen.

Die schon bei der Entwicklung von Multiprozessor-Hardware in den Vordergrund getretene Corollary Inc. hat sich auch hier durch eine Zusammenarbeit mit SCO engagiert und die Betriebssystemerweiterung SCO-MPX entwickelt, die unter SCO Unix V/386 oder der Software-Umgebung Open Desktop arbeitet. SCO-MPX unterstützt ein symmetrisches, eng gekoppeltes Multiprocessing, der Hauptspeicher eines mit mehreren CPUs ausgerüsteten Rechners wird in dieser Unix-Umgebung von allen Prozessoren gemeinsam genutzt.

Nach Angaben von Corollary soll die Betriebssystem-Erweiterung bis zu 16 Prozessoren des Typs 386 beziehungsweise 486 unterstützen. Außerdem wies SCO zu Beginn der MPX-Auslieferung Anfang August 1990 darauf hin, daß die etwa 1000 deutschsprachigen und 3000 weltweit existierenden Anwendungen unmittelbar auf einem Multiprozessor-Rechner eingesetzt werden können.

AT&T selbst reihte sich auf der Frühjahrs-Comdex 1990 mit seinem Vierprozessor-Rechner "Starserver E" zwar auch in die Schar der Hersteller ambitionierter PC-Boliden ein - doch erst vor wenigen Wochen konnte das Gründungsmitglied der Unix International überhaupt die Verfügbarkeit von Unix System V, Version 4, verkünden, die jedoch noch nicht Mehrprozessor-fähig ist. Hier greift Sequent Computer Systems der Unix-Mutter mit der Entwicklung einer Multiprozessor-tauglichen Version unter die Arme. Bislang verfügbar ist die zu AT&Ts System V, Version 3.2, kompatible Ausführung, die dem Release 3 der System V Interface Definition (SVID) entspricht. Das Filesystem ist eine Portierung von BSD 4.3.

Wyse etwa bedient sich bei ihren Rechnern der Serie 9000i ebenso dieser eng gekoppelten, symmetrischen Systemarchitektur wie Unisys bei den 6080-Rechnern, Siemens bei seinen MX500-Systemen und Sequent selbst bei den eigenen Symmetrierechnern.

Zu den Kennzeichen dieser Systemerweiterung zählt die durchgehende Multihreading-Struktur des Betriebssystemkerns und die Verwirklichung eines dynamischen Auslastungsausgleichs.

Sequent soll ferner nach Aussagen von Georg Pöll, Sequent-Marketing-Manager, aufgrund eines strategischen Abkommens mit AT&T auch die Multiprozessorerweiterung für System V, Release 4.0, entwickeln. Diese MP/IP-Version wird angeblich im ersten Qartal 1991 angekündigt. Das Filesystem "baut" Sun auf Basis wieder von BSD 4.3.

Allerdings bietet die neue AT&T-Mehrprozessor-Unix-Version keinen B2-Level gemäß den "Orange-Book"-Spezifikationen des National Computer Security Centers. Eine Zusammenführung von Mehrprozessor-Option und B2-Level wird es nach Bob Mitze, dem europäischen Managing Director der AT&T-Tochter Unix Systems Laboratories (USL), erst im übernächsten Jahr geben.

Mit der Vorstellung ihrer "Decstation 5000" im Frühjahr 1990 präsentierte Digital auch die Version 4 des Unix-Derivats Ultrix, die nach Einschätzung des Marktforschungs-Unternehmens IDC den eigentlich wichtigen Teil der damaligen Ankündigung darstellte. Ultrix, Version 4, enthält Systemerweiterungen, die auch VMS besitzt. Hierzu gehören vor allem die Charakteristika der symmetrischen Multiprozessor-Verarbeitung, des C-2-Sicherheitslevels sowie einer integrierten Ultrix/SQL-Runtime-Datenbank.

Die OSF - um das Bild der verfügbaren Unix-Versionen für die PC-Mehrprozessor-Monster abzurunden - ist bereits einen Schritt weiter als Konkurrent AT&T von der Ul: Ihr OSF/1 auf Basis des Machkernels der Carnegie Mellon University unterstützt ebenfalls mehrere CPUs, hat aber den unbestreitbaren Vorteil, auf dem Markt verfügbar zu sein respektive bereits an Hardwarehersteller ausgeliefert zu werden. Die Software fördert die Verteilung der Rechenkapazitäten auf mehrere CPUs und ermöglicht die dynamische Systemkonfiguration - vor allem aber bietet der Machkernel die Option der Datenspiegelung, ein Merkmal, das in der Midrange- und Großrechnerwelt geläufig und vor allem im kommerziellen Einsatz von Bedeutung ist.

Zudem glänzte die OSF bei der Vorstellung von OSF/1 mit der Unterstützung der "big guys" im Markt: IBM, HP, Groupe Bull, Hitachi, DEC und die SNI avisierten für 1991 entsprechende Produkte, nachdem bei der Präsentation auf deren Rechnern die Unix-Variante bereits "lief". Weiterer Vorzug des Multiprozessor-Unix OSF/1 ist die Source-Kompatibilität zu AT&Ts Unix, Version 3.2 sowie zu BSD 4.3. Last, but not least konnte auch Netzwerk-Hersteller Banyan Systems Inc. das in Zusammenarbeit, mit Compaq entwickelte und auf AT&T-Unix basierende "Vines SMP" präsentieren, das vollständig kompatibel zu seinen anderen Netz-Betriebssystemen sein soll und bis zu acht Prozessoren unterstützt.

Software ist nicht ohne weiteres übertragbar

Ottmar Schneider, bei HP für den Marketing-Bereich Mehrplatzfähiger HP-9000-Rechner der Serie 800 zuständig, hob ebenfalls auf die Softwareproblematik ab, die die als Midrange- und Mainframe-Herausforderer auftretenden PC-Server zu gewärtigen hätten. Verfügbarkeit von Software sei Trumpf, Basis für PCs wäre Xenix und dieses richte sich in erster Linie an Kleinunternehmen und kleine Mittelständler: "Die Software", so Schneider anläßlich der Einführung des Systempro kritisch, "die für Abteilungsrechner benötigt wird, ist in der PC-Welt jedoch nicht vorhanden."

Das eigentliche Problem der Software-Entwicklung scheint aber zu sein, daß PC-Applikationen nicht ohne weiteres auf die Multi-CPU-Server übertragen werden können. Donato S. Casagrande von der Oracle Deutschland GmbH weist auf diese noch zunehmende Hürde der Softwarehäuser hin: "Symmetrische oder asymmetrische Multiprozessoren erfordern zur optimalen Nutzung eine entsprechende Berücksichtigung in der Architektur der Applikationen.

Zwar leisteten Multiprozessor-befähigte Betriebssysteme auf Prozeßebene weitgehend die notwendige Parallelisierung. Trotzdem müßten die Applikationen dazu in mehrere Prozesse aufgeteilt werden und zudem eine eigene Synchronisationslogik verfügen. Sei das nicht der Fall, würden vorhandene CPUs nur insofern vollständig genutzt, als die Anzahl der Benutzer der der Prozessoren entspricht. Konkret bedeutet das aber auch, daß bei der Aufstockung mit zusätzlichen CPUs keine Verbesserung der Antwortzeiten einer jeweiligen Applikation erreicht wird. Spielverderber Casagrande: "Die Unabhängigkeit von der Computerarchitektur kann mir mit einer entsprechenden Architektur der Applikation berücksichtigt werden. Die Ausrichtung auf Monoprozessoren macht deshalb möglicherweise den Einsatz von Multi-CPUs unrentabel." Als Auswege aus dieser Malaise bliebe nur das Redesign der Applikationen - und das ist teuer. Daß NCR-Boß Exley so enthusiastisch das hohe Lied der verteilten Datenverarbeitung auf Basis von Client-Server-Strukturen singen kann, während etwa die IBM erst einmal leise Töne anschlägt, hat übrigens seinen Grund: NCRs Technologiewechsel auf Intelprozessoren vom Laptop bis zum hochparallelen Supercomputer - bei letzterem versicherte man sich übrigens der Hilfe der Teradata Corp. aus dem kalifornischen EI Segundo - wird ihre Geschäftsergebnisse nicht zu sehr beeinträchtigen.

Lediglich neun Prozent ihrer Umsätze von 5,98 Milliarden Mark macht der AT&T-Übernahmekandidat, die National Cash Register Company, nach Exley mit Hard- und Softwareprodukten aus ihren nun vernachlässigten proprietären Mainframe-Aktivitäten.

Die IBM hingegen kann es sich bei etwa 50 Prozent Umsatz (von etwa 64 Milliarden) und 65 Prozent Gewinn aus dem Großrechnergeschäft - wie Business Week im Oktober 1989 auswies - auch bei vorübergehend rückläufigen Erfolgszahlen für das Mainframe-Business buchstäblich nicht leisten, ihre /390Welt abzuhalftern. Big Blue verfiel deshalb auf eine andere Variante, um zumindest terminologisch den Sprung auf den Client-Server-Zug nicht zu verpassen: Bei der Vorstellung ihrer ES/9000-Systeme gab man dem Kind einen neuen Namen und lotete die neue Funktion der Mainframes als Datenbankserver aus.