Schwindelerregende Entwicklungen bis Ende des Jahrzehnts:

Rechenleistung wird sich weiterhin exponentiell steigern

07.01.1983

FRANKFURT - Für das Ende des Jahrzehnts prognostizieren die Großrechnerspezialisten der Honeywell Bull AG schwindelerregende Aussichten: Chips. die eine Million Bits auf einem Quadratzentimeter speichern. einen Computer. der hundertmal mehr als die 3081 leistet und Kostenvorteile, von denen Anwender heute erst träumen dürfen. Dies sind die "Trends in der Computerentwicklung". die der DV-Hersteller Jungredakteuren vom Fach in einem Seminar zu vermitteln suchte.

Den Ausblick auf die Entwicklung der EDV-Technologie bis zum Jahr 2000 gab dem Redakteurnachwuchs Honeywell-Bull-Marketingdirektor Claus P. Grimm, der als Ausgangspunkt seiner Zukunfts-Schau die in der Vergangenheit exponentiell verlaufenen Entwicklungsphasen in der Elektronik wählte: Wurden noch in den Computer-Anfängen 20 000 bis 30 000 Komponenten montiert, hat sich das Bild heutzutage gründlich gewandelt: Bei der "Very Large Scale Integration" (VLSI) braucht man nämlich nurmehr eines dieser Bauteile.

Das Kostenverhältnis verändert sich dabei ebenfalls beeindruckend: Allein innerhalb der vergangenen zehn Jahre hat sich ein Kostenvorteil von 1 zu 100 ergeben. Doch die Entwicklung wird hier nicht stehenbleiben. So glaubt Grimm zu wissen, daß bereits 1984 Hauptspeicher zur Verfügung stehen werden, die 256 KBit-Chips einsetzen, und bis 1987 soll der Einsatz von 1024-KBit-Chips erfolgen.

Äquivalent dazu, so betont der Großrechnerspezialist, läuft die Plattenspeicherentwicklung. Heute schon finden 100 000 Bits auf einem Quadratzentimeter Platz, und morgen werden es eine Million sein.

Meantime between failure noch ungenügend

Doch bei den Speichern tun sich die Computerbauer noch schwer. So sei der Bubblespeicher zwar mit einer Ausfallzeit von 30 Jahren geradezu narrensicher, denn der bislang ; im Einsatz befindliche Magnetplattenspeicher gibt immerhin alle drei - bis neuntausend Betriebsstunden seinen Geist auf, doch haben die Blasen einen anderen entscheidenden Nachteil: Sie sind zu teuer. Der Grund liege darin, daß Bubblespeicher bisher nicht in Serie gefertigt wurden - weshalb der Anwender nun das Nachsehen hat.

Als erster Schritt hin zu optischen Speichern mit erhöhter Kapazität und besserem Meantime-between-failure-Verhalten wertet Grimm die Bildplatte. Doch bislang wird dieses Produkt in Europa ausschließlich von Philips angeboten. Aber auch bei Honeywell existieren Überlegungen die Bildplatte als Standardelement mit ins Programm aufzunehmen, dahinter stecken aber weniger technische Probleme als Marketing-Gedanken.

Auch hier zeichnen sich Fortschritte ab: Waren diese Bildplatten bislang ausschließlich zu Archivierungszwecken zu verwenden, da sie nur das Lesen gestatten, sind jetzt Versuche in Laboratorien gegluckt bei denen ein Mehrfachbeschreiben dieses Speichermediums möglich wurde - bis zu 40mal. Dies geschient durch eine Variation der Einbrenntiefe. Doch einmal am Grund der Platte angelangt, geht dann bis aufs Lesen nichts mehr.

100 MIPS sind geboten

Für technisch-wissenschaftliche User gibt neben der Speicherkapazität vor allem die Schnelligkeit der Maschinen den Ausschlag für ihre Computer-Kaufentscheidung. Dabei ist einer der schnellsten zur Zeit am Markt erhältlichen Rechner der Cray-1. Er hat Grundschaltzeiten von 0,25 Nanosekunden. Hier halt Grimm es für möglich, mit der heutigen Technologie schon Geschwindigkeiten von 0,1 Nanosekunden zu verwirklichen. Dies entspreche dann einer Leistung von bis zu 100 MIPS (Millionen Instruktionen pro Sekunde).

Diese superschnellen Rechner nützen jedoch dem kommerziellen Anwender wenig: Die Betriebssysteme sind nämlich relativ einfach ausgestaltet und nicht für eine große Bedienergemeinde ausgerichtet. Sie sind vielmehr auf lange Rechenprogramme spezialisiert. Wer dagegen Dialogverarbeitung benötigt, bekommt von den Herstellern andere Betriebssysteme für die gleiche Hardware. Zur Erhöhung der Rechnerleistung dienen so konventionelle Methoden wie eine Multiprozessoranlage, wo zwei oder mehr Rechner von einem Betriebssystem gesteuert werden oder auch der Pipeline-Prozessor. Dieser kann, so Grimm, einzelne Anwendungen zwei- bis dreimal schneller machen. Doch er ist, genauso wie die Vector- und Array-Prozessoren, ebenfalls nicht für kommerzielle Anwendungen geeignet.

So würden zum Beispiel zwei Tabellen, die miteinander verarbeitet werden sollen, bei kommerziellen Programmen mit einer Schleife verarbeitet, also jedes Element mit jedem nacheinander (sequentiell) ausgerechnet. Die für mathematisch-naturwissenschaftliche Anwendungen ausgerichteten Computer erledigen diese Rechnung dagegen "auf einen Schlag".

Riesenbabys wurden erwachsen

Als erfreulich präsentieren sich auch die Änderungen in den rein räumlichen Maßen für den Anwender: Wurden in den fünfziger Jahren noch ganze Stockwerke für das "Riesenbaby" reserviert, kommen die meisten Nutzer heute mit einem Computerraum aus.

Doch gerade hier gestalten sich die Aussichten verblüffend. So hat der "Josephson-Junction-Computer" auf dem Reißbrett nur noch einen Umfang von fünf mal fünf Zentimenter und Leistungen, die unvorstellbar sind: Eine Milliarde Instruktionen pro Sekunde ( = 1 GIPS). Dieses "Wundertier" ist, laut Grimm, heute schon realisierbar, doch dafür muß sehr, sehr viel Geld ausgegeben werden.

Vor allem auch durch das US-Raumfahrtprogramm wurde vieles finanziell möglich. So verlief auch die Entwicklung bei den Dichten exponentiell: Sind heute bei Großrechensystemen noch 500 logische Schaltkreise pro Chip üblich, so wurde für das US-Raumfahrtprogramm ein Chip entwickelt, der bis zu 30 000 logische Schaltkreise auf sich vereint, und zwar bei den "Very High Speed Integrated Circuits" (VHSIC) der Stufe 2.

Nach so vielen MIPS und MOPS, Nano- und Picosekunden brummte dem teilnehmenden Redakteurnachwuchs dann doch der Schädel. Und die Frage, wer denn eigentlich in Zukunft diese enormen Leistungen werde brauchen können, fand eigentlich nur in der Vergangenheit ihre Antwort. Denn vor zwanzig Jahren hatten auch nur wenige Insider gesehen, welch enormes DV-Anwendungspotential noch ungeweckt vor sich hinschlummerte.

Die Generationen der elektronischen Rechenanlagen

Benennung Technologie Anwendung

1. Generation (1950) Röhren Laborcomputer

2. Generation (1960) diskrete Stapelverarbeitung

Halbleiterbauelemente

3. Generation (1970) Integrierte Schaltkreise Multidimensionale Datenverarbeitung

4. Generation (1980) Mikropackages Distributed Data Processing

5. Generation (1990) ? Künstliche Intelligenz: Lernen, Ableiten, Übertragen

Quelle: Honeywell Bull AG