Höhere Rechenleistungen durch Verzicht auf übertriebene Komplexität: Die RISC-Welle wird über die Computerwelt schwappen

26.02.1988

Höhere Rechenleistungen wurden traditionell durch ein komplexeres Hardwaredesign erkauft. Mit Computern auf der Basis von RISC (Reduced Instruction-Set Computer) werden neue Wege beschritten: RlSC-Systeme erreichen hohe Rechengeschwindigkeiten dadurch, daß ein Befehl eine geringere Ausführungszeit benötigt als bei Rechnern mit herkömmlichen Prozessoren.

Heute liefern rund zehn Computerfirmen Produkte in RISC-Technologie. Einige von ihnen sind junge und innovative Unternehmen wie die im kalifornischen Silicon Valley ansässige Ridge Computers Inc. oder die vom Stanford-Professor Hennessey mitgegründete MIPS Computer Systems. Zu den RISC-Anbietern gehören mittlerweile aber auch Marktführer wie IBM oder Hewlett- Packard. Andere - unter ihnen auch der Telekommunikationsgigant AT&T - werden die RISC-Szene bald bereichern. Das Spektrum reicht vom Prozessorchip(-Set) über Grafikworkstations bis hin zu den sogenannten Superminicomputern mit 5 bis 25 Mips (Millionen Instruktionen

pro Sekunde). Zur Zeit wird der Markt noch von den Systemen mit

ClSC-Architektur (CISC = Complex Instruction-Set Computer) beherrscht; Rechner auf RlSC-Basis haben erst ein bis zwei Prozent am entsprechenden Marktsegment. Aber: Viele Computerlieferanten haben angekundigt, daß zukünftige Produktlinien (zumindest teilweise) auf RISC-Basis realisiert werden sollen.

In Zukunft wird eine regelrechte RISC-Welle über die (CISC-) Computerwelt schwappen. Wer nicht selbst einen RISC-Prozessor entwickelt, kauft Chips, Boards, Know-how oder ganze Systeme von den RISC Pionieren. So, hat zum Beispiel der Newcomer MIPS über zehn Liefer- und Kooperationsverträge mit zum Teilnamhaften Computerlieferanten in seinen Auftragsbuchern stehen; unter ihnen Prime, PCS/Kienzle und Dana Computer.

RISC - New Wave in der Computertechnologie?

Dana ist erwahnenswert, da dieses Jungunternehmen einen Grafiksupercomputer entwickelt und zwei legendare Computerpersönlichkeiten an Bord hat: C. Gordon Bell, den

Hauptarchitekten der VAX-Computer von DEC und Alan Michels, Gründer von Convergent Technologies.

In der Vergangenheit wurden in der Computerindustrie Geschwindigkeitsverbesserungen durch eine Erhöhung der Komplexität des Hardwaredesigns erzielt. Selbst Mikroprozessoren haben sich in ihrer jungen Geschichte zu sehr komplexen Bauteilen - "ein Computer auf einem Chip" - entwickelt. Der erste Mikroprozessor, der Intel 4004, wurde von

einem Mann in neun Monaten entwickelt und hatte knapp über 2000 Transistoren. Der Intel 8086 hatte 29 000 Transistoren, der 80286 rund 130 000 und die neuesten 32-Bit-Chips beherbergen über 250 000 Transistoren. Die Entwicklung solcher mikroprogrammierten CISC-Prozessoren ist somit auch entsprechend aufwendig und teuer. So arbeitete zum Beispiel ein Team von Spezialisten über vier Jahre an der Entwicklung des neuen Intelchips 80386; die Kosten betrugen über 150 Millionen Dollar.

Typische moderne (CISC-)Computer haben eine

mikroprogrammierte Architektur mit einem komplexen Instruktionssatz. Die Hardwaredesigner waren bemüht, möglichst viele (Hochsprachen-)Instruktionen "on-chip" in den internen Mikrocode zu verlegen. RISC-Systeme hingegen haben eine "streamlined" Architektur: einen einfachen, minimalen Instruktionssatz mit optimierter Pipelineverarbeitung zur Beschleunigung der Befehlsausführungszeiten (durch Verringerung der Anzahl der Taktzyklen pro Befehl). CISC-Prozessoren benötigen mehrere Prozessorzyklen, um eine Instruktion auszuführen. So benötigt zum Beispiel der Motorola-MC68000-Prozessor sieben bis elf Zyklen, während ein auf RISC-Technologie basierender Rechner nur ein bis maximal zwei Zyklen benötigt. Bei einer DEC/VAX 11/ 780 kann man von durchschnittlich fünf Maschinenzyklen pro Instruktion ausgehen.

Hier soll nicht unerwähnt bleiben, daß der Code des RISC-Programms etwa 20 Prozent größer sein wird. Dennoch: Legt man diese Werte zugrunde, sieht man, daß ein RISC-Rechner - identische Technologie zum Beispiel CMOS, vorausgesetzt - drei- bis zehnmal schneller als ein konventioneller Computer ist. Das ist eine enorme Geschwindigkeitsverbesserung, die sich allein aus dieser neuen Architektur ergibt. Nunmehr reklamieren einige Hersteller für sich, daß zwischen der Technologie und ihrer Standardarchitektur kein wirklicher Konflikt bestehe. So spricht zum Beispiel Motorola davon, daß einige Features des MC68020 und des neueren MC68030 anhand von "RISC-Design-Philosophien" entwickelt worden sind. Tom Johnsen, Marketingmanager bei Motorola meint denn auch: "Es gibt keine zwei Lager - die CISCs und die RISCs. Beide Technologien können sich durchaus gut ergänzen.'

CISC und RISC können sich gut ergänzen

Die ersten Entwicklungen eines Computers auf RISC-Basis reichen zurück bis in die Mitte der siebziger Jahre, wenngleich das Akronym "RISC" erst 1981 durch Patterson und Sequin von der Universität Berkeley geprägt wurde. In Wirklichkeit ist RISC keine ausreichende Bezeichnung für diese neue Architektur; der reduzierte Befehlssatz ist nämlich - neben einer Reihe von anderen - nur eine der implementierten Techniken dieser neuen Technologie.

Während die meisten Computerbauer an der Entwicklung immer

komplexerer mikrocodierter Systemen arbeiteten, begannen einige Designer, diese Methode der Leistungsverbesserung in Frage zu stellen. So lehnte zum Beispiel der geniale Seymour Cray, Entwickler der CDC-Rechner, die Konzeption einer unaufhörlichen Steigerung der Prozessorkomplexität ab und setzte mit seiner Familie von Supercomputern einen weltweiten Standard für Computerleistung. Wenngleich sehr teuer, sind Cray-Rechner noch heute das Maß aller Dinge, wenn es um hohe Rechengeschwindigkeiten geht.

Auch ein Team von Wissenschaftlern des IBM-Forschungszentrums in Yorktown im US-Staat New York erarbeitete schon Mitte der siebziger Jahre Argumente gegen die CISC-Technik, also einen Verzicht auf übertriebene Komplexität der Prozessorarchitektur. Die IBM-Forscher fanden nämlich in einer Studie die 80:20-Regel (des Italo-Schweizers Vilfredo Pareto, 1848 bis 1923) bestätigt: 80 Prozent eines typischen Computerprogramms benötigen nur 20 Prozent der Instruktionen des Instruktionssets eines Prozessors. In der Tat: Die meistgenutzten Instruktionen eines Programms sind simple Operationen wie Laden und Speichern. RISC-Architektur wird deshalb auch häufig als "Load-store-Architektur" bezeichnet. RlSC-Anhänger weisen überdies zu Recht darauf hin, daß die Hersteller von Compilern häufig den Vorteil des komplexen Maschinenbefehlssatzes nicht vollständig ausnutzen. Die besonderen Merkmale moderner (CISC-)Architekturen werden nie oder selten genutzt. Und der Benutzer bezahlt die übertriebene Komplexität gewissermaßen mit einer Strafzeit für alle oft verwendeten simplen Befehle. Unnötiger Mikrocode wird bereitgehalten, CPU-Zyklen bleiben ungenutzt, und das ganze System wird verlangsamt.

Die IBM-Forscher waren der Meinung, daß eine festverdrahtete, simple Befehlssteuerung einige Vorteile gegenüber den mikroprogrammierten CISC-Techniken hat. Also ging das Team daran, einen Minicomputer mit einem ausgewählten, einfachen (in der Hardware verankerten) Befehlssatz und einem optimierenden Compiler zu bauen. Der Computer hatte die Bezeichnung 801, benannt nach dem Gebäude, in dem das Projekt lief. Während IBM die Entwicklung eines ersten Rechners auf RlSC-Basis weitertrieb, begannen Forscherteams der Universität von Kalifornien in Berkeley und der Stanford-Universität im nur rund 50 Kilometer entfernten Palo Alto mit parallelen Entwicklungen in der RISC-Technologie. Die Berkeley-Gruppe entschied sich dafür, den freien Platz - die Kontroll- und Steuerungslogik des Berkeley-Prozessors RISC I belegt nur sechs Prozent der Fläche - auf dem VLSI-Chip mit schnellen Registern zu bestücken. Diese On-Chip-Register ersparen viele externe Aufrufe und sind für einen Großteil der Leistungssteigerung der Berkeley-Architektur verantwortlich.

Leistung durch On-Chip-Register

Die alternative IBM/Stanford-Methode (Minimum-Hardware) setzt stark auf ausgefeilte Compiler-Technologien. Das Stanford-RISC-Projekt - genannt MIPS (Microprocessor without Interlocking Pipeline-Stages) - kombinierte IBMs Studien über "Optimizing Compilers" mit Berkeleys Entwicklung eines VLSI-RISC-Prozessors. Beim MIPS-Rechner sorgen optimierende Compiler - unter anderem durch Steuerung der Reihenfolge der Instruktionen - für einen ständigen verzögerungsfreien Verarbeitungsfluß (in der Pipeline des Prozessors). Das Projekt MIPS der Stanford-Universität führte zur Gründung der Firma MIPS Computer Systems Inc., die den Prozessorchip zur Verbesserung des "Pipelining" mit reichlich Cache bestückte. Der Chip ist mit 128 KB Cache (25-Nanosekunden static RAM!) ausgestattet: 64 KB für Instruktionen und 64 KB für Daten. John Hennessey, Stanford-Professor und Mitbegründer von MIPS, erläutert die Vorteile dieser Architektur so: "Bei einer RISC-Maschine mit Instruktionscache arbeitet der Cache wie ein dynamisch anpaßbarer Programmspeicher, vergleichbar einem Mikroprogrammspeicher. Mit dieser Methode erhält man eine dynamisch ladbare Mikroprogrammumgebung . "

Dieses Design gestattet eine "Single-cycle execution"; je Maschinenzyklus wird eine Instruktion durchgeführt. Mit derzeitiger CMOS-Technologie erreichen diese RISC-Rechner 10 Mips (Millionen Instruktionen pro Sekunde). Basis ist das Betriebssystem Unix; AT&Ts Unix System V, Release 3 oder bsd 4.3 Unix mit System-V-Zusätzen. An der Stanford-Universität arbeitet das Team von Professor Hennessey derzeit an einem Multiprozessorsystem, das rund 100 Mips schaffen soll.

Starthilfe durch Unix

RISC-Konzepte finden Einzug bei der Entwicklung neuer Computersysteme: Viele Superminicomputer basieren auf RISC Technologie, IBM nutzt das 801-Know-how bei den I/O-Kanälen der neuen Großrechnerfamilie und stellt den RT PC (für: RISC Technology Personal Computer) mit dem Betriebssystem UnixSystem-V vor.

Ein wichtiger Faktor für den Erfolg dieser neuen Technologie ist die Verfügbarkeit des Standardbetriebssystens Unix. "AT&Ts Unix sorgt für eine allgemein akzeptierte Softwarebasis für diese neue Prozessorgeneration", erläutert Professor Hennessey. "Die Kosten für die Entwicklung einer eigenen Systemsoftware wären unerschwinglich hoch gewesen. Überdies hätte die neue Hardware ohne Unix keine oder nur wenig Akzeptanz am Markt gefunden."