Wohin gehen die Trends in der Hardware-Entwicklung:

Computertechnologie im Jahr 2000

28.10.1988

Welches sind die großen Trends in der Computertechnologie? Welche Art von Systemen wird die Computerszene im Jahr 2000 beherrschen? Solche Fragen beschäftigen die Hersteller und die Benutzer gleichermaßen. Die Antworten sind bisher nur spärlich an die Öffentlichkeit gedrungen.

Sehr lange dauert's nicht mehr bis zum Jahr 2000. Wir meinen zwar immer, die Computerindustrie sei stark in Bewegung, aber die Jahrtausendwende ist tatsächlich nur noch drei oder vier Produktzyklen von uns weg.

Wenn wir andererseits gleich weit zurückgehen und die Computerindustrie vor zwölf Jahren Revue passieren lassen, so sehen wir, daß sie sich von der heutigen sehr stark unterscheidet. Wir hatten damals andere Werkzeuge, und die Art, Computer zu betreiben, war ebenfalls nicht die gleiche: 1976 hieß die Devise "Timesharing"; dieses Aufteilen der Ressourcen eines Computersystems unter den verschiedenen Benutzern ersetzte zusehends die herkömmliche Stapelverarbeitung, bei der die Maschinen einem einzigen Anwender exklusiv zur Verfügung stehen.

Der rapide Preisverfall sorgte zusätzlich dafür, daß die Rechner zugänglicher wurden: Viele Benutzergruppen besaßen bereits damals ihre eigenen Maschinen und kamen so auch vermehrt mit der Technik in Berührung. Doch nun zur Zukunft der Computerindustrie. Drei Punkte sollen dargelegt werden: Zuerst werden die Trends in der Hardwareentwicklung ausgelotet, dann wird auf die Anwendungen eingegangen, insbesondere auf die qualitativen Änderungen, die da zu erwarten sind, und schließlich wird zu erklären versucht, was der Begriff "Architektur" für die Computerleute bedeutet und wie er die weitere Entwicklung planen hilft.

Ein nützlicher Blick in die Vergangenheit

Wenn man verstehen will, was in der Computerwelt auf uns zukommt - zum Beispiel wie sich die Basistechnologien im Laufe der Zeit ändern -, ist es nützlich, die Entwicklung bis zu den Anfangszeiten der Computerindustrie zurückzuverfolgen.

Unsere Erfahrung zeigt, daß es auf diesem Gebiet etwa 15 Jahre dauert, bis eine gute Idee realisiert und gewinnträchtig vermarktet werden kann. Natürlich gibt es mehrere Zwischenstufen: Erst muß man ja mal einen Prototypen bauen, mit dem man den Markt testen kann. Das Echo führt meist zu einer Reihe von Verbesserungen des Prototyps. Wenn das Produkt einmal marktreif ist, dauert es nochmals eine Weile, bis es mit Gewinn vermarktet werden kann. Da jeder dieser Schritte rund fünf Jahre dauert, nennen wir das die 5-5-5-Regel. Die folgenden drei Beispiele zeigen, wie das funktioniert (Bild 1):

Nehmen wir die Computernetze: 1964 war zum ersten Mal davon die Rede; Fachleute diskutierten darüber, was solche Netze sein könnten und wie man sie einsetzen könnte. Die Idee wurde publiziert, und ein paar Jahre später wurde Arpanet, der erste Prototyp, gebaut. Eine ganze Reihe von Details wurde damals ausgearbeitet. Die ersten kommerziellen Computernetze, Decnet und Telenet, kamen in den siebziger Jahren auf den Markt. Rund 20 Jahre nach dem zündenden Funken gab es die ersten lokalen Netze, eine Weiterentwicklung der ursprünglichen Idee.

Rezepte gibt es nicht aber eine Richtschnur

Die 5-5-5-Regel ist kein Rezept: Sie sagt nicht, was man tun muß, sondern nur, daß es eine Weile dauert, bis eine gute Idee wirklich einschlägt und von Erfolg gekrönt wird.

Wenn wir heute von neuen Supraleitern hören, wird es noch ein paar Jahre dauern, bis diese das Computer-Business beeinflussen werden. Wir können die Entwicklung verfolgen: Erste Versionen der Systeme, die wir Mitte der neunziger Jahre einsetzen werden, gibt es bereits heute. Was dann neu in die Produktion geht, existiert als Prototyp ebenfalls schon. Und Ideen für Dinge, die Ende der neunziger Jahre auf den Markt kommen werden, gibt es wohl auch schon. Welche Systeme dann im Einsatz sein werden, wissen wir jedenfalls schon heute.

Natürlich gibt es auch eine Reihe von Technologien, die in den späten neunziger Jahren nicht zum Einsatz kommen werden. Welche es sind, weiß niemand genau. Die 5-5-5-Regel hilft da leider auch nicht weiter: Sie kann nicht zwischen Gewinnern und Verlierern unterscheiden. Immerhin kennen wir dank der Regel die ganze Palette der Möglichkeiten, und das ist auch schon sehr nützlich. Eine Auswahl davon steht in den folgenden Tabellen.

Die reifen Technologien kennen Sie natürlich - auf ihnen basieren ja die meisten heutigen Computersysteme. Wahrscheinlich haben Sie auch von Gallium-Arsenid-Halbleitern und optischen Speichern gehört - Technologien, die sich langsam, aber sicher durchsetzen. Dann gibt es noch Zukunftstechnologien wie die neutralen Netze oder "molekulare Schalter", die sich noch in einem sehr frühen Stadium befinden.

Auf dem Softwaresektor haben wir eine analoge Situation (Tabelle 3): Zu den kommenden Technologien gehören bestimmt die verteilten Systeme sowie die Expertensysteme. Letztere sind eine erste kommerzielle Anwendung der Künstlichen Intelligenz. Andere Technologien wie die Erkennung und die Verarbeitung natürlicher Sprache liegen aber noch in weiter Ferne. Ebenfalls ins Stadium von Vorprototypen gehören phantastische Ideen wie jene, Dutzende oder gar Tausende von Prozessoren parallel arbeiten zu lassen und so die Verarbeitungszeiten auf einen Bruchteil zu senken.

Hardwarefortschritte kann man abschätzen

Der Fortschritt einer Technologie zeigt sich in Diagrammen wie jenen in Bild 2. Es verfolgt die Preisentwicklung von Magnetplattenspeichern im Laufe der Jahre.

Solche Kurven lassen sich für die Hardware sehr bequem konstruieren: Man zeichnet zum Beispiel einfach die Entwicklung einer Leistungsgröße im Laufe einer bestimmten Zeit auf. Für die Software ist das schwieriger, weil sie nicht meßbar ist; wir jedenfalls wissen nicht genau, was man da sinnvollerweise aufzeichnen könnte.

Die Grafik in Bild 2 steht auf einem halblogarithmischen Papier. Dieses hat aus einer gekrümmten Linie eine Gerade gemacht, die man leicht extrapolieren kann. Ob die Projektion auch stimmt, wissen wir allerdings nicht. Wir nehmen es aber an, weil die Entwicklung in der Vergangenheit sehr stabil und vorhersagbar war. Was der Chart natürlich auch nicht sagt, ist, welche Magnetplattenspeicher-Technologie im Jahre 2000 einen Speicherpreis von zwei bis drei Dollar pro Megabyte ermöglichen wird.

Neben den heute üblichen Harddisks gibt es auch noch andere Speicher, die diesen in Zukunft Konkurrenz machen könnten: zum Beispiel Halbleiter-Memories, wie sie heute als Hauptspeicher im Computer zum Einsatz kommen (siehe Bild 3). Aber auch die zukunftsträchtigen optischen Speicher könnten eines Tages die Magnetplattenspeicher ablösen. Wie die Kurve für die optischen Speichermedien aussieht, kann man heute erst vermuten; wir haben zur Illustration einfach mal eine eingezeichnet.

Interessant an diesem Diagramm ist, daß sich die drei Geraden irgendwann in den neunziger Jahren alle einmal schneiden. Zwar wissen wir nicht, wo genau sie das tun. Aber die Tatsache, daß es so ist, sagt uns, daß wir etwa Mitte der neunziger Jahre mit einem Wechsel in der Speichertechnologie rechnen müssen. Welche als Sieger hervorgeht, hängt vom Preis-Leistungs-Verhältnis ab. Am besten stellt man sich schon jetzt auf einen (oder mehrere) Wechsel in der Speichertechnologie ein. Für die Prozessorleistung können wir ein ähnliches Diagramm zeichnen. Bild 4 zeigt die Leistungsentwicklung von Zentraleinheiten (central processing units; CPU) bei konstantem Preis. Es wird dargestellt, wie viele NUPS (Millionen Instruktionen pro Sekunde) man im Laufe der Jahre für eine Million Dollar erhält.

Im Jahr 2000: Nur noch 100 Dollar pro MIPS

Von 1985 an gibt es zwei Kurven, weil es zwei verschiedene Arten von Computern gibt: jene mit einem Einchipprozessor, der zur normalen Zentraleinheit einer Arbeitsstation geworden ist, und die Minicomputer, die es schon vor dem Zeitalter der Mikroprozessoren gegeben hat.

Wenn man die für Workstations charakteristische Kurve verfolgt, so fällt zunächst einmal auf, daß sie eine Stufe höher liegt als die andere Kurve. Der Grund dafür ist, daß der Wechsel vom Mini zu der Workstation technologisch gesehen ein großer Fortschritt ist. Als zweites fällt der Knick in der Workstationskurve auf. Das liegt einfach daran, daß wir vorsichtiger extra-polierten, als wir dies aufgrund der bekannten Daten hätten tun können. Aber auch so ist das Ergebnis beeindruckend: Im Jahre 2000 wird Prozessorleistung zum absolut phantastischen Preis von nur 100 Dollar pro MIPS erhältlich sein.

Diese Zahl bezieht sich allerdings nur auf den Zentralprozessor, nicht auf das ganze Computersystem: Die 100 Dollar schließen weder Investitions- und laufende Betriebskosten noch die Kosten für die Lösung eines bestimmten Problems auf diesem Rechner ein. Umgekehrt darf man aber doch sagen, daß wir in zwölf Jahren für wenig Geld sehr viel Computerleistung werden kaufen können.

Leistungsfähiger und benutzerfreundlicher

Nun schauen wir uns aus einer historischen Perspektive noch die Entwicklung der Computerindustrie als Ganzes an. Tabelle 4 vergleicht zum Beispiel die Systemfunktion von 1985 mit jener 15 Jahre vorher und nachher. Man sieht, daß sich das Benutzermodell sehr stark geändert hat. 1970 war das System eine einzige Maschine. Anfang der achtziger Jahre wurde daraus ein ganzes Netz von Computern.

Heute sind wir der Ansicht, daß wir in Zukunft mit sogenannten verteilten Systemen arbeiten werden. Bei diesem neuen Konzept sind sehr viele Maschinen untereinander vernetzt, wobei die Ressourcen (Daten, Programme, Speicher) über das gesamte Netz verteilt sind.

Auch bei den Benutzerschnittstellen hat sich sehr viel getan. Am Anfang arbeiteten die DV-Leute noch mit Lochstreifen und Telexgeräten; der charakteristische Fernschreiberton klingt vielen von uns noch heute in den Ohren. Mitte der achtziger Jahre tauchte dann das sogenannte "Windowing" auf, bei dem der Benutzer die Bildschirmfläche in Fenster aufteilen und auf verschiedene Programme gleichzeitig zugreifen kann.

Computer müssen immer einsatzbereit sein

Das neue Konzept der "Sicht" (englisch: "view") erwarten wir um das Jahr 2000. Statt irgendwelche Symbole auf einem flachen Bildschirm werden wir dann realitätstreue Bilder von Dingen sehen. Der Blick auf den Bildschirm wird uns etwas "Echtes" zeigen, perfekt in den Farben, den Proportionen und der Perspektive - auch wenn es in Wirklichkeit gar nicht existiert.

Die Benutzer sind auch nicht mehr die gleichen wie früher. 1970 waren es noch die eigentlichen EDV Spezialisten, denen man seine Wünsche anmelden mußte. In den achtziger Jahren wurden die Computer dann zum gängigen Arbeitshilfsmittel in den Abteilungen. Im Jahr 2000, so glauben wir, wird jedermann Zugang zu Computern haben; diese werden praktisch zu einer Infrastruktur wie heute die öffentlichen Telefonapparate.

Unsere Einstellung zur EDV hängt auch von deren Zuverlässigkeit ab. Beim Telefon erwarten die Leute daß es funktioniert, wenn sie jemanden anrufen möchten. In den siebziger Jahren hofften wir bloß, daß der Computer funktioniert, erwartet haben wir es damals noch nicht. Heute sind wir in dieser Beziehung anspruchsvoller geworden, werden aber öfter mal enttäuscht, wenn die Technik umsteht. In zwölf Jahren aber sollte das nicht mehr passieren; dann werden Computer immer einsatzbereit sein.

400mal schnellere Arbeitsstationen

Nun wenden wir uns den Trends bei den Arbeitsstationen und leistungsfähigen Personalcomputern zu (Tabelle 5). Als Ausgangspunkt in der 1987er-Kolonne nehmen wir ein modernes, kommerzielles Desktop-System: den Macintosh SE von Apple Computer. Ich bin zwar nicht ganz sicher, ob ich dieses Gerät als Workstation klassifizieren soll, immerhin hat es die meisten Eigenschaften einer solchen, mit Ausnahme von Hochgeschwindigkeitsgrafik und einer Umgebung mit verteilten Computerressourcen.

Der Macintosh SE kostet etwa 9000 Mark; dafür bekommt man eine Computerleistung von 0,75 MIPS (750 000 Instruktionen pro Sekunde). Nun mögen diese MIPS ja gut sein um den Bedienungskomfort zu gebieten; für Simulationsaufgaben hingegen kommt es mehr darauf an, wie viele FLOPS (Gleitkommaoperationen pro Sekunde) die Maschine ausführen kann. Beim Macintosh SE sind das rund 100 000 (falls er mit speziellen Arithmetikchips bestückt ist). Nun stellt sich die Frage, wohin man kommt, wenn man diese Zahlen bis ins Jahr 2000 hochrechnet. Wie man in der Tabelle sieht, ist diese Extrapolation auf zwei Arten möglich: entweder mit konstantem Preis oder mit einer Leistungsmaximierung, die keine Rücksicht auf den Preis nimmt. In der Kolonne mit dem konstanten Preis erhalten wir einen Faktor 30 in Computerpower; auch die Speicherkapazität vergrößert sich gewaltig.

Wenn es hingegen um eine reine Leistungsmaximierung geht, erhalten wir für viermal mehr Geld ein System, das mindestens 400mal leistungsfähiger ist als der Macintosh SE. Nur beim Massenspeicher ist der Faktor mit 200 geringer.

Wozu braucht man das alles? Natürlich ist es ziemlich naiv, sich einfach über das Mehr an sich zu freuen und dann im nachhinein nach geeigneten Anwendungen zu suchen. Tatsächlich existieren schon heute Dutzende von Anwendungen, für die man fast nicht genug Computerleistung bereitstellen kann.

Ein Beispiel dafür ist die Methode der finiten Elemente, bei der man die Lösung schwieriger technischer Probleme aus einer Vielzahl von Teillösungen zusammensetzt, die für elementare Bausteine gelten. Das Zusammensetzen, eine riesige Fleißarbeit, besorgt der Computer. Wenn man in einem typischen Fall 500 Elemente, 500 Knoten und 1000 Freiheitsgrade berücksichtigen muß, dauert das bei einer Verarbeitungsgeschwindigkeit von 100 000 Gleitkommaoperationen pro Sekunde viel zu lange, nämlich mehrere Stunden. Heute setzt man deshalb dafür Supercomputer ein - im Jahr 2000 könnte man solche Probleme mit der 3000-Dollar-Arbeitsstation auf dem Pult zwar schon in 10 Minuten lösen; die Hochleistungsversion für 12 000 Dollar aber braucht dafür weniger als eine Minute.

Die Ingenieure werden also in Zukunft weniger darauf angewiesen sein, einen Teil der begehrten Rechenzeit auf einem Cray-2- oder einem anderen Supercomputer zu bekommen, sondern ihre Informatikprobleme ganz unbürokratisch auf dem eigenen Rechner lösen. Das spart Zeit und Geld; außerdem fördert die so gewonnene Flexibilität die Motivation von Forschern und Konstrukteuren, einer Aufgabe mehr auf den Grund zu gehen und auf geänderte Bedingungen schnell zu reagieren.

Anspruchsvolle Simulation auf der Workstation

Ich bin überzeugt, daß solche Systeme die Qualität künftiger Produkte und Konstruktionen verbessern werden. Stellen Sie sich zum Beispiel vor, Sie hätten als Architekt die Möglichkeit, auf dem Computer durch einen Raum zu schreiten, den es noch gar nicht gibt, und dabei alle Varianten von Inneneinrichtung und Beleuchtung auszuprobieren, bevor sie den Plan definitiv ausarbeiten - das wäre bestimmt eine große Hilfe.

Verteilten Computernetzen gehört die Zukunft

Schon heute entwickelt man komplizierte Produkte wie Brücken oder Flugzeuge weitgehend auf dem Computer, stellt sie in Farbe dreidimensional auf dem Bildschirm dar und unterwirft sie verschiedensten Simulationstests. Die Rechenkapazität, die es dazu braucht, liegt komfortabel innerhalb der Spezifikationen für künftige Arbeitsstationen. Was dürfen wir also von der Workstation des Jahres 2000 erwarten? Nun, sie wird heutige Supercomputer-Leistungsdaten haben, etwa in der Größenordnung eines Cray-1 oder zumindest eines bedeutenden Teils davon. Sie wird sehr bedienungsfreundlich sein, auch komplexe Aufgaben in kurzer Zeit erledigen und phantastische Grafikmöglichkeiten aufweisen.

Ein weiteres Merkmal des künftigen Informatikeinsatzes werden die verteilten Computersysteme sein. Was das genau ist, wäre eine längere Ausführung wert. Hier die Kurzversion davon: Stellen Sie sich vor, eine weltweit tätige Firma wie Digital Equipment Corporation stelle Leiterplatten im CAD/CAM-Verfahren her. Wenn sie das mit einem verteilten Computersystem macht, so sieht das schematisch aus wie in Bild 5.

Eine Datenbank für alle Anwender

Links sehen Sie eine virtuelle Datenbank; der Begriff "virtuell" besagt lediglich, daß sie physisch nicht an einem einzigen Ort untergebracht ist. Davon merken die Benutzer allerdings nichts.

Zu diesen Benutzern gehört der Designer, der im DEC-Hauptsitz in Massachusetts eine Leiterplatte entwirft. Aber auch der Komponenteneinkäufer benutzt die gleiche Datenbank, damit sichergestellt ist, daß die vom Designer eingeplanten Bauteile auch wirklich greifbar sind. Auch die Leiterplattenfertigung konsultiert dieselbe Datenbank, genauso wie die Leute, die errechnen, wo man auf der Leiterplatte die Komponenten plazieren könnte.

Wenn nun in Europa eine Leiterplatte mit den gleichen Spezifikationen gebaut werden soll, so ist das nicht etwas Neues, sondern es ist dieselbe Applikation. Das hat nichts damit zu tun, daß man einfach Daten über den Atlantik transferiert. Es geht vielmehr darum, daß jeder Mitarbeiter, sei es nun in den USA oder in Europa, auf seinem Computer Zugang zur gleichen Datenbank hat. Das ist die Quintessenz des Konzepts der verteilten Systeme. Wenn es richtig funktioniert, ist es ziemlich egal, wo im System die Dinge physisch sind. Die Benützer teilen die Ressourcen auf ähnliche Weise, wie wir heute die Ressourcen in einem einzigen Timesharing-System teilen. Neu ist lediglich, daß sie über die ganze Welt verteilt sind.

Computerarchitektur als Fixpunkt

Nun wenden wir uns noch der Computerarchitektur zu. Bild 6 zeigt ein typisches Schema, das wir "invertierte Pyramide" nennen. Das Konzept, daß die Computertechnologie aus verschiedenen Schichten besteht, ist von zentraler Bedeutung. Die Schichten beschreiben Funktionen, nicht einzelne Komponenten.

Wir bauen Computersysteme nach dem Schichtenmodell. In der untersten Schicht der Pyramide finden wir die Basistechnologie der Hardware die Prozessoren, Speicher und so weiter.

Die Schnittstelle zwischen der Hardware und der ersten Softwareschicht wird definiert durch den Befehlssatz der Maschine und andere, ähnliche Parameter. Die Stichworte hier heißen Betriebssystem, Benutzerschnittstelle und Datenmanagement.

Die Hardwareschicht zeigt ein konstantes Verhalten: Wenn wir die Basishardware mit anderen Bauteilen realisieren, wird die Software immer noch funktionieren - egal, ob nun Transistoren, Röhren oder irgendwelche anderen Komponenten zum Einsatz kommen.

Auf der Stufe der Systeme haben wir die Fenstersysteme, die grafischen Sprachen, die Benutzerschnittstellen und so weiter. Und an der Spitze finden wir Anwendungen wie wissenschaftliches. Rechnen oder Labor-Informationsmanagement, CAD/CAM oder elektronische Post.

Was ist denn nun der große Vorteil, Computersysteme so und nicht anders zu bauen? Nun, das hat in erster Linie mit der Komplexität zu tun, die wir da antreffen. Wenn es an sich schon schwierig ist, sich in einer komplexen Welt zurechtzufinden, so braucht man sich bei der Lösung von Problemen ja nicht noch zusätzliche Schwierigkeiten aufzubürden. Das Konzept des Schichtenmodells erlaubt uns nicht nur, die Komplexität in den Griff zu bekommen, sondern hilft uns auch, die Dinge einfach und klar zu halten.

Eine vernünftige Architektur verhilft uns zu einem gewissen Maß an Freiheiten, deren Grenzen wir genau kennen. Wir wissen dann, was möglich ist und was nicht. Das verhindert, daß wir am falschen Ort "kreativ" werden. Das ist ja das große Problem: Oft sind wir zuwenig kreativ, wenn wir es sein sollten, dann haben wir die ausgefallensten Ideen, wenn wir uns an Regeln und Normen halten sollten.

Die Architektur legt die Grundregeln fest. Sie schreibt auch vor, wo man sich an die Regeln halten muß und wo es möglich oder wünschbar wäre, etwas Neues zu erfinden. Eine gute Architektur garantiert die nötige Kontinuität, auch wenn die Technologie rasant fortschreitet: Detailänderungen sind jederzeit möglich, ohne daß das ganze Gebäude zusammenfällt.

So kann man zum Beispiel Komponenten auswechseln und neue Hardware- oder Software-Basistechnologien implementieren, ohne das ganze Computersystem ändern zu müssen. Die Anwendungen laufen immer noch wie vorher. Nur so ist es möglich, das System laufend zu verbessern, ohne es grundsätzlich in Frage zu stellen.

Systemarchitektur ist der Fixpunkt

Schließlich liefert die Architektur auch ein Modell, aus dem man Details für Systemimplementationen ableiten kann. Man kann zum Beispiel das Modell fragen: "Wie soll ich dieses Problem lösen?" Wenn das Modell gut ist, wird man darauf eine vernünftige Antwort kriegen.

Weil die Architektur ein Fixpunkt ist, bedeutet das, daß die Lösung der gestellten Aufgaben eine fundamentale Kontinuität aufweist - auch wenn sie an verschiedenen Orten, in verschiedenen Situationen und zu verschiedenen Zeiten durchgeführt werden.

*ichard Rubinstein ist leitender Mitarbeiter in der Forschungsabteilung von Digital Equipment Corporation AG. Dieser Artikel basiert auf einem Referat, das Rubinstein im letzten Herbst vor einer CIM-Studiengruppe der Ford Motor Company gehalten hat. Die Übersetzung und Bearbeitung des Textes besorgte Felix Weber. Der Beitrag erschien in der Technischen Rundschau Nr. 25/88.