Überschuß an Rechenleistung soll Computer an den Menschen anpassen:

User dürfen nichts von der Architektur merken

13.03.1987

HANNOVER (ch) - Die Leistungsfähigkeit künftiger Computersysteme wird weniger von ihrer Architektur als von ihrer Kommunikationsfähigkeit in Rechnersystemen abhängen. Diese provozierende These vertrat Professor Georg Färber, Inhaber des Lehrstuhls für Prozeßrechner an der Technischen Universität München, auf dem traditionellen CeBIT-Fachpresseabend von Mannesmann-Kienzle.

Die Impulse zur Erzielung höherer Durchsätze kommen künftig in wesentlich höherem Maße aus der Halbleitertechnologie als aus der Weiterentwicklung der Architektur. Wenn diese insgesamt an Bedeutung verliert, ist es nur folgerichtig, daß die Frage nach dem Prozessortyp ebenfalls an Relevanz einbüßt. Diese Tendenz wird nach Professor Färber ferner dadurch verstärkt, daß auch die Prozessoren untereinander immer ähnlicher werden.

Der Referent räumt vor allem RISC-Anordnungen wegen ihrer insgesamt höheren Leistung einen Vorteil gegenüber herkömmlichen CISC-Maschinen ein. Durch die Verwendung solcher RISC-Prozessoren vergrößert sich jedoch die "semantische Lücke" zwischen der Maschinensprache und den immer leistungsfähigeren Hochsprachen. Daraus resultiert die Forderung nach entsprechend komplexen Compilern, die als Verbindungsglied zwischen der Anwender- und der Maschinenwelt fungieren.

Besonders gut für den Einsatz mit RISC-orientierten Maschinen eigne sich wegen der Einfachheit ihrer Grundbefehle die Sprache Lisp. Daher und wegen zunehmender Popularität von KI-Applikationen werde Lisp in Zukunft an Bedeutung gewinnen, erklärte Färber.

Oft können die durch die RISC-Technik erzielten Vorteile schneller CPU-Hardware nicht voll ausgespielt werden, weil die Daten nicht in der erforderlichen Geschwindigkeit zur Verfügung stehen. Der Speicher entwickelt sich in herkömmlichen Systemen zum Flaschenhals. Die Lösung sieht Färber nicht nur in schnelleren Speichern, sondern vor allem in Multiprozessorkonzepten.

In kommerziellen Anwendungen werden solche Systeme mit nur wenigen Prozessoren bis in die Mitte der neunziger Jahre vorherrschen. Danach wird sich allmählich die "massive" Parallelverarbeitung durchsetzen - zunächst allerdings in speziellen Applikationen wie Bild- und Symbolverarbeitung, Simulation und dergleichen. Exotischen Architekturen wie etwa dem Datenflußrechner, Datentypenrechner oder Assoziativcomputer sagt Färber allenfalls ein Nischendasein voraus.

Die bedeutsamsten Verbesserungen in der Zeit bis etwa 1995 werden auf dem Feld der Halbleitertechnik erzielt. Zum größten Teil auf ihr Konto gehen die jährlichen Verdoppelungen der Verarbeitungskapazität, die für die absehbare Zukunft zu erwarten sind. So werden die zulässigen Taktraten bei CMOS wohl die Marke von 100 Megahertz erreichen.

Bipolare Halbleiterfamilien wie ECL oder TTL befinden sich wegen ihrer höheren Wärmeentwicklung und, daraus resultierend, ihrer geringeren Packungsdichte gegenüber CMOS im Nachteil. Aber ihren Geschwindigkeitsvorsprung werden die bipolaren Techniken halten: Mit ihnen ließen sich, so Professor Färber, Rechner mit Arbeitsgeschwindigkeiten von 200 Megahertz erzielen.

Noch einmal doppelt so hohe Taktfrequenzen sind mit der Gallium-Arsenid-Technik erzielbar. Das Problem dabei sind jedoch nach wie vor die äußerst niedrigen Ausbeuten bei der Herstellung. Im Betrachtungszeitraum rechnet der Referent mit der Entwicklung und dem Einsatz erster optischer Schaltkreise. Biochips hingegen ließen noch bis ins nächste Jahrtausend hinein auf sich warten.

Der wichtigste Grundsatz, schreibt Färber Entwicklern und Systemarchitekten ins Stammbuch, besteht jedoch darin, daß neue Architekturen nur dann Erfolg haben können, wenn der Anwender nichts davon merkt und sich daher auch nicht mit der Umstellung herumschlagen muß. In den vergangenen 25 Jahren hätten wir Menschen uns selbst viel zu stark an den Computer angepaßt. In Zukunft werde die überschüssige Rechenleistung dazu benötigt, den Computer an den Menschen anzupassen.