RISC-Systeme auf Mips-Basis ergaenzen Unix

Kommerzielle Anwender brauchen eine leistungsfaehige Hardware

26.03.1993

Unix-Systeme auf RISC-Basis eignen sich nach wie vor vor allem fuer den technischen Einsatz. Nicht zu Unrecht, denn vor allem bei grafischen Anwendungen machen sich die Floating-Point-Faehigkeiten der RISC-Prozessoren positiv bemerkbar.

Im kommerziellen Unix- Markt - im Bereich der Server und klassischen Mehrplatz-Systeme - stehen dagegen Integer-Leistung und die Uebertragungsrate fuer die Transaktionsverarbeitung als Massgroessen im Vordergrund. Aber auch hier sind RISC-Prozessoren mittlerweile deutlich auf dem Vormarsch.

12koepfiges Gremium wacht ueber die Offenheit

Siemens-Nixdorf hat sich bei seiner RISC-Produktlinie fuer Mips- Prozessoren entschieden. Ausschlaggebend war dabei neben der momentanen Leistungsfaehigkeit und der Wachstumsperspektive die offene Technologie, die gerade bei den Unix-Systemen von erheblicher Bedeutung ist.

Im Gegensatz zu den herstellerspezifischen ("proprietaeren"RISC- Prozessoren kennzeichnet die Mips-RISC-Architektur eine offene Welt, in der mehrere Systemanbieter und Chip-Hersteller eine frei zugaengliche Technologie setzen.

Die Mips-RISC-Architektur wird von der Mips Technologies Inc. (MTI) lizenziert. Ueber die Offenheit wacht das bei MTI geschaffene "Executive Advisory Board" - ein 12-koepfiges Gremium mit wesentlichem Einfluss auf die zukuenftige Weiterentwicklung der Mips-Prozessoren. Darin sind das Mips-Mutterunternehmen Silicon Graphics sowie Siemens-Nixdorf, Olivetti und Microsoft vertreten. Die Fertigung der Mips-Prozessoren erfolgt in Lizenz durch Halbleiter-Hersteller wie NEC, Toshiba und Siemens.

Das bedeutet, dass hinter dem Mips-Prozessor nicht nur ein Hersteller steht. 1992 wird der Weltmarkt nach Angaben der Marktanalysten von Dataquest und IDC etwa 600 000 RISC-Chips aufnehmen. Etwa die Haelfte davon sollen Mips-Chips sein, deren Anteil damit den des bisherigen Spitzenreiter Sparc uebertraefe.

Ist der Mips R3000A - leistungsmaessig vergleichbar mit dem i486/50 Megahertz von Intel - noch ein RISC-Prozessor auf 32-Bit-Basis, so eroeffnet der R4000 als erster RISC-Prozessor die 64-Bit-Aera und bringt einen Performance-Sprung um den Faktor zwei bis drei.

Der R4000 arbeitet mit einer Taktfrequenz von 100 Megahertz (extern 50 Megahertz) und ist voellig kompatibel zum R3000A. Mit diesen Leistungsdaten ist die Mips-Technologie noch nicht ausgereizt.

In Kuerze steht - aufwaertskompatibel zum R4000 - bereits die naechste CPU-Generation R4400 bevor, die sich mit bis zu 150 Megahertz (extern 75 Megahertz) takten laesst und damit noch einmal um bis zu 50 Prozent schneller ist.

Der R4400 wird in 0,6-Mikron-Technologie gefertigt, die die hoehere Taktung ermoeglicht und auf der Chip-Flaeche Platz fuer groessere On-Chip-Caches (je 16 KB fuer Daten und Instruktionen) schafft. Wie schon den R4000 wird es auch den neuen Prozessor in drei Varianten geben (vgl. Abbildung 1).

Die Low-cost-Variante der Mips-Architektur ist auf den Primary Cache (On-Chip) beschraenkt (R4400-PC). Fuer Workstations und Server mit hoeheren Leistungsanforderungen bringt der R4400-SC zusaetzlich die Unterstuetzung eines bis zu 4 MB grossen Sekundaer-Caches mit. Diese zweistufige Cache-Hierarchie ist ein wesentliches Unterscheidungsmerkmal zu anderen RISC-Prozessoren.

High-end-Unix-Systeme mit Multiprozessortechnik werden optimal mit dem R4400-MC unterstuetzt, der zusaetzlich noch eine integrierte Logik zur Sicherstellung der Cache-Kohaerenz aufweist. Zwei der Chip-Lieferanten - NEC und Toshiba - zeigten Muster des R4400 bereits am Tage seiner Ankuendigung auf der Electronica in Muenchen. Bei MTI wird aber bereits am T5, der naechsten Generation des Mips-Chips gearbeitet. Trotz neuer Architektur wie der Verbindung des Superpipelining mit dem Superscalar-Prinzip soll der Prozessor kompatibel zu den Vorlaeufermodellen sein.

Symmetrische Multiprozessor-Systeme

Von entscheidender Bedeutung ist die Moeglichkeit, die heute notwendige Leistung und die zukuenftigen Wachstumsanforderungen des Anwenders durch eine moeglichst breite Skalierbarkeit der Rechenleistung zu sichern. Voraussetzung dafuer ist, dass ein Hersteller komplette Systemlinien anbieten kann. Der High-end- Bereich von Unix erfordert dabei Multiprozessor-Architekturen, um die Leistung des schnellen RISC-Prozessors noch einmal auf ein Vielfaches steigern zu koennen. Diese symmetrischen Multiprozessor- Systeme lassen sich durch den Einsatz zusaetzlicher Prozessoren den steigenden Leistungsanforderungen besonders gut anpassen.

Erst durch Mehrfach-CPUs, vom Betriebssystem mit einer ausgefeilten Multiprozessor-Technik unterstuetzt, wird die echte Parallelverarbeitung unterstuetzt und somit der Systemdurchsatz insgesamt deutlich gesteigert. Beim SNI-RISC-System RM600 beispielsweise ermoeglicht das Betriebssystem eine symmetrische Multiprozessor-Unterstuetzung, bei der alle RISC-Prozessoren gleichberechtigt sind. Der globale Hauptspeicher (bis 1024 MBwird gemeinsam genutzt ("Tightly Coupled Shared Global Memory") und ermoeglicht so das Sharing von Daten und Ressourcen sowie die Interprozess-Kommunikation. Bei jedem Prozessor sorgt ein zweistufiger Cache-Mechanismus mit grossem First- (2x256 KB) und Second-Level-Cache (4 MB) fuer eine weitere Leistungssteigerung (vgl. Abbildung 2).

Die Leistung steigt zwischen vier und 16 Prozessoren linear an und zeigt damit ein geradezu ideales Multiprozessor-Verhalten. Eine Saettigung ist nach unserer Einschaetzung selbst bei 16 Prozessoren nicht erkennbar.

Fuer den kommerziellen Einsatz von besonderer Bedeutung ist dabei die Integer-Leistung, die mit dem ausgewiesenen Wert von 8808 SPECrate.int92 eine Spitzenstellung einnimmt.

Unix System V, Release 4 (SVR4), gilt heute unter den Betriebssystemen fuer offene Systeme als Standard, auch wenn einige Unix-Hersteller den Uebergang dorthin noch vor sich haben. Die Zukunftssicherheit der Softwareloesungen haengt entscheidend davon ab, ob diese auf der Basis von Standards erstellt worden sind, die laengere Zeit gueltig sein werden. Das Unix-Betriebssystem ist dabei nur ein kleiner Teil der zu betrachtenden Schnittstellen.

Je mehr internationale Standards ein Unix-Anbieter auf seinen Systemen bereitstellt, um so groesser ist die Portabilitaet und damit der Schutz der Software-Investitionen. X/Open fixierte heute weltweit Standards fuer offene Systeme, so dass mittlerweile jeder namhafte Unix-Anbieter Miglied in diesem Gremium geworden ist, das 1989 von fuenf europaeischen Herstellern (Bull, ICL, Olivetti, Siemens und Nixdorf) gegruendet wurde.

"Base Level" als Minimalanforderung

Als Minimalanforderung offener Systeme gilt dabei der "Base- Level" des X/Open Portability Guide 3, den bereits viele Unix- Systeme abdecken. Inzwischen besitzen mehr als 500 Unix- Plattformen und -Komponenten von 27 Firmen das X/Open-Etikett. Eine hoehere Investitionssicherheit vermittelt der erweiterte X/Open-Standard "PLUS XPG3" (vgl. Abbildung 3). Dieses Zertifikat garantiert dem Anwender, dass neben dem Unix-Betriebssystem im engeren Sinn auch die wichtigen Zusatzkomponenten wie Datenbankzugriff, Programmiersprachen, Benutzer-Schnittstelle und Kommunikation dem internationalen Standard entsprechen. Weitere Standards von zentraler Bedeutung sind die OSF-Techniken Motif als grafische Benutzerumgebung und DCE fuer die verteilte DV, aber auch die OSI-Kommunikationsrichtlinien.

Seit Anfang Oktober 1992 ist der neue X/Open Portability Guide 4 (XPG4) verfuegbar, der die Anzahl der definierten Standards wesentlich erhoeht. Er enthaelt Spezifikationen fuer 22 Komponenten gegenueber 13 im XPG3. Mit dem XPG4 werden insbesondere weitere Standards eingefuehrt, die auf Basis offener Kommunikations- Schnittstellen die Interoperabilitaet der Systeme verbessern und die Realisierung von Client-Server-Architekturen erleichtern. Beispiele dafuer sind X.400 Message Access und X.400 Gateway, Directory Access, Network File System (NFS), Common Programming Interface-Communications (CPI-C), Byte-Stream File Transfer (BSFT), LMX Server oder Distributed Transaction Processing (XA).

Neu im XPG4 ist, dass neben dem Base-Level (XPG4 Baseeine Reihe von "Profilen" eingefuehrt wird, die dem Anwender garantieren, dass alle fuer einen bestimmten Einsatzbereich benoetigten Schnittstellen standardkonform sind. So gibt es XPG4-Richtlinien fuer den Einsatz als "Server", "Workstation", "Database Platform", "Distributed Computing" und "Communication Gateway".

Der grosse Vorteil von Unix ist die Losloesung der Anwendung von der Hardware. Unix-Anwendungen sind damit - Standards vorausgesetzt - auf unterschiedlichste Hardware uebertragbar (Sourcecode-Kompatibilitaet). Um die Software auf einer bestimmten Hardware des Herstellers X verfuegbar zu haben, muss eine Portierung vorgenommen werden - das ist der Preis fuer die Flexibilitaet. In der Praxis bedeutet dies haeufig, dass der Anwender eines bestimmten Unix-Systems nur einen kleinen Teil aus dem weltweit existierenden Unix-Software-Angebot auch wirklich nutzen kann.

Mit dem Mips-ABI (Application Binary Interface) werden jetzt die Voraussetzungen geschaffen, um - aehnlich wie in der MS-DOS-Welt - Unix-Anwendungen in einer Binaerform verfuegbar zu machen, die auf Hardwareplattformen unterschiedlicher Anbieter ohne zusaetzliche Portierung direkt ablauffaehig sind (Shrink-wrapped Software). Die auf Basis dieser definierten Programm-Schnittstellen erstellten Unix-Softwareprodukte laufen direkt auf allen mit Mips-Prozessoren und Unix System V, Release 4, ausgestatteten Systemen.

Neben den Gruendungsmitgliedern Pyramid, Sony und Siemens-Nixdorf gehoeren zur Mips-ABI-Gruppe heute auch Silicon Graphics, Tandem, NCR, NEC, Olivetti, Concurrent, CDC, Unix International, Unix Software Laboratories (USL), AT&T FS, Oracle Corporation, The SAS Institute, Frame Technology, Unisoft, Pellucid und Mips.

Die Zukunftssicherheit eines Unix-Systems wird wesentlich dadurch bestimmt, in welchem Umfang es sich in moderne Client-Server- Konzepte - der Basisarchitektur der 90er Jahre - einordnen laesst.

Einbindung in moderne Client-Server-Systeme

Die Client-Server-Architektur erlaubt es, Teile der Verarbeitungskapazitaet vom zentralen Host in lokale Server und an intelligente Arbeitsplaetze zu verlagern. Dabei gilt der Client als diejenige Softwarekomponente, die einen Service anfordert und der Server als der Lieferant der Dienstleistung (vgl. Abbildung 4).

Die an dem Client-Server-Verbund beteiligten Rechner, auf denen die Softwarekomponenten ablaufen, werden dementsprechend als Client- und Server-Systeme bezeichnet. Unternehmensweite Client- Server-Netze setzen durchgaengige Interoperabilitaet zwischen den beteiligten Systemen voraus. Eine der zentralen Techniken, die das ermoeglicht, ist die Distributed Computing Environment (DCE) von der OSF. Mit ihr laesst sich mit Hilfe des Remote Procedure Calls (RPC) eine Anwendung modularisieren und die Ausfuehrung auf beliebige Rechner im Netz verteilen.

Ein Einsatzschwerpunkt grosser Server liegt in der zentralen Datenhaltung. Die typische Betriebsart kommerziell genutzter Rechner ist derzeit neben der einfachen Datenbanknutzung das Online Transaction Processing (OLTP), das einer grossen Zahl von Benutzern gleichzeitig den Zugang zu gemeinsamen zentralen Datenbestaenden ermoeglicht.

Solche OLTP-Anwendungen benoetigen neben einem Datenbanksystem als Basis auch einen Transaktionsmonitor, der die Koordinierung der grossen Zahl von Endbenutzern effizient und sicher abwickelt. Auch auf diesem Gebiet werden immer mehr Unix-Produkte angeboten. Ein wesentliches Kriterium fuer die Offenheit solcher Systeme ist die Unterstuetzung der von X/Open definierten XA-Schnittstelle.

Ueber der Diskussion um die Prozessortechnik und die Leistungsdaten sollte allerdings nicht vergessen werden, dass die Softwareseite ganz wesentlich die Funktionalitaet und die Zukunftssicherheit beeinflusst.

Offene Standards und die Faehigkeit, sich gut in Client-Server-Architekturen einzufuegen, sind dabei Mindestvoraussetzungen.

OLTP-Unterstuetzung und die Moeglichkeit, relationale Datenbanksysteme wie Oracle oder Informix einzusetzen, gelten als wichtige Voraussetzung, um Unix-RISC-Systeme fuer kommerzielle Aufgabenstellungen zu verwenden.

Ausschlaggebend fuer den Erfolg ist letztlich die Verfuegbarkeit von kommerzieller Standardsoftware.

*Dr. Herbert Schweikl zeichnet im Produkt-Marketing von Siemens- Nixdorf, Muenchen, fuer den Bereich Betriebssysteme und systemnahe Softwareprodukte verantwortlich.

Abb. 1: Der R 4400-Prozessor wird in drei Varianten auf den Markt kommen. Quelle: Schweikl

Abb. 2: Leistung des RISC-Systems RM600 in Abhaengigkeit von der Prozessorzahl. Quelle: Schweikl

Abb. 3: Der erweiterte X/Open-Standard PLUS XPG3. Quelle: Schweikl

Abb. 4: Die Grundformen der Anwendungsarchitektur im Client- Server-Konzept. Quelle: Schweikl