Verfuegbare Software ist wichtiger als das Rechentempo In der Debatte ueber CISC oder RISC zaehlt nicht bloss Technik

15.04.1994

Von Arndt Bode*

Beim Technologievergleich zwischen RISC oder CISC steht der Sieger fest. Doch die Software-vielfalt macht den Verlierer zum Gewinner. Aber auch der technische Vorsprung schwindet: Intels Pentium hat einen RISC-Kern.

Folgt man den technischen Argumenten der RISC-Verfechter, muessten heute eigentlich alle Mikroprozessoren fuer PCs, Workstations und eingebettete Systeme zu dieser Architekturklasse gehoeren. Die wesentlichen Vorteile sind:

- Reduktion der Anzahl der Befehle auf diejenigen, die Codegeneratoren der Compiler fuer Hochsprachen haeufig benutzen, sowie

- Vereinfachung der Befehle durch einen Verzicht auf komplexe Adressierungsarten.

Diese Eigenschaften wirken sich positiv auf das Preis-Leistungs- Verhaeltnis aus. Der Aufwand fuer die Prozessorhardware wird, vor allem wegen des simpleren Steuerwerks reduziert, bei dem auf die Mikroprogrammierung verzichtet werden kann. Die vereinfachten Befehle sind aeusserst schnell ausfuehrbar, da ihr gleichartiges Zeitverhalten eine parallele Erledigung nach dem Prinzip des Pipelining ermoeglicht.

Nutzt man diese Vorteile, ergeben sich unmittelbare Konsequenzen: Erstens fuehrt die Reduktion der Komplexitaet bei gleicher Technologie zu einer Verkleinerung der Chipgroesse. Wegen der damit erhoehten Ausbeute reduziert sich der Preis fuer den Prozessor. Ferner haben kleinere Bausteine im allgemeinen auch eine niedrigere Leistungsaufnahme, was vor allem im Zusammenhang mit batteriebetriebenen Geraeten wichtig ist.

Zweitens ist es moeglich, bei vorgegebener maximaler Anzahl von Transistoren pro integriertem Schaltkreis fuer die im Zentralprozessor eingesparte Flaeche zusaetzliche Funktionalitaet auf den Prozessorbaustein zu integrieren: Diese Tendenz ist bei fast allen Herstellern zu beobachten und bezieht sich unter anderem auf folgende Bereiche:

- Integration weiterer verarbeitender Einheiten, die sich alternativ oder parallel betreiben lassen. Solche superskalaren Rechenwerke werden in Zukunft sogar durch Multiprozessortechnik auf dem integrierten Schaltkreis ergaenzt.

- Integration von universellen oder spezialisierten (Cache- )Speichern, die im wesentlichen das Ziel haben, die schnellen Prozessoren mit Instruktionen und Daten zu beliefern. Cache- Speicher ermoeglichen die Verwendung etwas langsamerer Hauptspeicherkomponenten, was sich wiederum positiv auf Preis und Leistungsaufnahme auswirkt.

- Integration zusaetzlicher Peripherie-Steuerkomponenten, zum Beispiel fuer Grafik, Multimedia-Unterstuetzung, Ein- und Ausgabekomponenten.

Trotz dieser technisch sehr einleuchtenden Argumente sieht die reale Welt anders aus: Die Summe aller Mikroprozessoren fuer PCs, Workstations und eingebettete Systeme wird zur Zeit eindeutig von Architekturen dominiert, die eher dem CISC-Prinzip zuzuordnen sind - so vor allem die Familie der Intel-Prozessoren 80x86. Was sind die Gruende fuer diese scheinbar paradoxe Situation?

- Kompatibilitaet: Fuer den Markterfolg eines Mikroprozessors ist nicht die technisch ausgefeilte Hardware entscheidend, sondern seine einfache Anwendbarkeit, die insbesondere davon abhaengt, wieviel Software fuer eine Architektur in Maschinenbefehls- kompatibler Form erhaeltlich ist. Die Kompatibilitaet wird meist gefordert, weil viele Softwarenutzer nicht auf die Quellversionen der Programme zurueckgreifen koennen. Eine Kompilation fuer eine neue Zielarchitektur ist daher prinzipiell nicht moeglich beziehungsweise zu teuer. Dieses Argument favorisiert langlebige Prozessorfamilien mit Maschinenbefehls-kompatiblen Prozessoren, die ein weites Leistungsspektrum abdecken.

- Technologie: Verschiedene Hersteller von Mikroprozessoren beherrschen unterschiedliche Strukturbreiten. Die Groesse eines Prozessorchips und seine Leistungsaufnahme ist daher nicht ausschliesslich von der Anzahl seiner Transistorfunktionen abhaengig, sondern auch von der Faehigkeit der Hersteller, die Prozessoren zu verkleinern und dabei die Ausbeute hoch zu halten.

- Ueberfluss an Leistung und Transistorfunktionen: Ende der 70er, Anfang der 80er Jahre war die Halbleitertechnologie nicht in der Lage, einen ausgewachsenen 32-Bit-Prozessor hoher Komplexitaet auf einem Chip unterzubringen. Heute ist dies prinzipiell moeglich. Das Argument der Einsparung an Transistorfunktionen verliert damit tendenziell an Schaerfe. Aehnliches gilt fuer die Leistungsfaehigkeit der Prozessoren. Wegen der erreichbaren hohen Geschwindigkeit, die fuer viele Anwendungen vor allem im PC- und Workstation-Bereich genuegt, sind einige Prozent mehr Rechentempo weniger wichtig als die Verfuegbarkeit von Software.

- Vermischung von RISC und CISC: Die urspruenglich strikte Trennung von RISC- und CISC-Architektur wird von zwei Seiten durchbrochen. Zum einen werden wegen des Zwangs zur Kompatibilitaet auch aufwaertskompatible Familien von RISC-Prozessoren angeboten, die immer komplexere Befehlssaetze bereitstellen. Zum anderen ist es bei CISC-Architekturen wie dem Intel-Pentium ueblich, die Untermenge des Maschinenbefehlssatzes des Prozessors, die RISC- Prinzipien genuegt, in einem RISC-Prozessorkern, die restlichen komplexen Befehle hingegen nach klassischer Technik mikroprogrammiert zu implementieren.

Noch findet man auf dem Markt mehr als ein Dutzend unterschiedlicher Mikroprozessor-Architekturen. Vor allem im RISC- Bereich ist die Vielfalt sehr gross. Es wird jedoch eine deutliche Marktbereinigung erwartet, aehnlich wie dies bereits in den 80er Jahren im Bereich der CISC-Mikroprozessoren erfolgte.

Die Familie 80x86 wurde zuletzt durch den Pentium mit 3,1 Millionen Transistorfunktionen erweitert. Schon aus Gruenden des enormen Umfangs verfuegbarer Anwendungssoftware ist zu erwarten, dass der Pentium wie sein Vorgaenger 80486 zum Verkaufsschlager wird. Intel legt Wert auf diese Art von Kontinuitaet: Schon vor drei Jahren wurde der "Micro 2000" angekuendigt, der 80x86- kompatible Multiprozessor mit Multimedia-Faehigkeit etc. auf einem Chip fuer das Jahr 2000.

Viel diskutiert wird derzeit der Power-PC, ein RISC- Mikroprozessor, getragen von der Allianz IBM-Apple-Motorola, die dann mit ein Gegengewicht zur 80x86-Familie aufbauen will. Auch der Power-PC soll eine voll Maschinenbefehls-kompatible Familie von Prozessoren umfassen, die das gesamte Leistungsspektrum vom Portable bis hin zum Prozessor fuer Superrechner abdeckt. Trotz RISC-Architektur ist der Power-PC mit 2,8 Millionen Transistorfunktionen nur um zirka zehn Prozent weniger komplex als der Pentium. Das liegt im wesentlichen an dem doppelt so grossen Cache-Speicher (32 KB statt zweimal 8 KB) und den ueppigen Datenpfaden zwischen den Komponenten auf dem Prozessorbaustein. Vor allem fuer die Nachfolgeprozessoren sind technisch sehr interessante Loesungen im Power-PC zu erwarten. Ob er sich auf dem Markt durchsetzen kann, wird allerdings hauptsaechlich dadurch entschieden, ob sich die Allianz IBM-Apple-Motorola gegen Intel- Microsoft durch schnelle Bereitstellung einer grossen Anzahl von System- und Anwendungssoftware behaupten kann.

Die Mitbewerber unterscheiden sich technisch kaum: der DEC Alpha, der vor allem durch seine hohen Taktfrequenzen auffaellt, der Supersparc mit der aufwendigen Berkeley-Registerarchitektur, die HP Precision Architecture, der Mips R4400 und einige vor allem im Bereich der eingebetteten Systeme eingesetzten Prozessoren wie Inmos T9000 und Am 29 000. Alle Prozessoren sind durch superskalare Rechenwerke sowie Cache- und Spezialspeicher in unterschiedlichen Konfigurationen gekennzeichnet. Auch die Floating-Point-Leistung wurde in den meisten Faellen durch spezialisierte Vektor-Rechenwerke gegenueber frueheren Prozessoren deutlich verbessert.

In der nahen Zukunft ist ein weiterer Preisverfall bei gleichzeitig wachsender Leistung der Mikroprozessoren zu erwarten. Die hoehere Integration der Bausteine wird parallele Abarbeitungsmechanismen, Integration von Speicher und Peripherieanschluesse auf dem Baustein ermoeglichen. Die Leistungsfaehigkeit der Hardware muss dabei zunehmend durch optimierende Compiler ergaenzt werden. Auch hier dominiert also der Faktor Software-Entwicklung die Marktchancen zukuenftiger Produkte.

Als Fazit bleibt also: Welches Produkt sich auf dem Markt der Mikroprozessoren behauptet, bestimmen weniger technische Merkmale als vielmehr maechtige Allianzen. Es regiert das Prinzip: Wo viel ist, kommt viel hin.