Eine neue Hardware- Revolution?

08.07.1977

Was nützt es, daß Computer neuer Systemarchitektur (Vektor-Prozessoren, Feldrechner) durch Parallelverarbeitung und "Pipelining" noch größere Rechnerleistung erbringen, wenn zu ihrem Betrieb entsprechend neuartige Software benötigt wird? Erhöhte Rechengeschwindigkeit allein wird in aller Regel die Kosten für die Datenverarbeitung nicht senken, wenn die neue Hardware inkompatibel zu bestehender Software ist Von Spezialanwendungen für den wissenschaftlichen Bereich abgesehen, wird es weit über den Zeitraum üblicher Langfristplanung hinaus keine "Revolution" im Hardware- Markt geben. Selbst Marktführer IBM müßte die Planung der 60er Jahre für ein "ganz anderes" Future System aufgeben, denn eine - Totalumstellung, wie - sie die Einführung der Serie 360 erforderte, ist den Anwendern heute nicht mehr zuzumuten.

Immerhin wurden weltweit von Anwendern rund 200 Milliarden Dollar, die gigantische Zahl von einer halben Billion Mark, in Software und Ausbildung für Datenverarbeitung auf Basis der System- 360- Architektur investiert. Noch größere Summen wären erforderlich, wenn die Anwender auf Systeme einer radikal anderen Architektur umstellen müßten. Die Wirtschaft würde sich bedanken - vermutlich selbst dann, wenn es die Hardware geschenkt gäbe.

Voraussetzung dafür, daß in der kommerziellen Praxis neue Rechner mit einer effizienteren Systemarchitektur eingesetzt werden können, wäre eine Modularisierung der heute noch unüberschaubar komplexen Betriebssysteme, so daß im Rahmen bestehender Software- Lösungen neuartige Computer für spezielle Aufgaben (Number Crunching, Datenbankverwaltung} eingesetzt werden können.

Dedizierte Intelligenz

IBM hat beim MVS- Betriebssystem erste Schritte in diese Richtung gemacht. Immerhin einige klar definierte Schnittstellen und erste selbständige Funktions- Module tragen zu einer Entflechtung der System- Software bei. Im Laufe der Zeit dürften mehr und mehr funktionale Komponenten der Betriebssysteme eigenständig werden, so daß auch spezielle Hardware diesen - Funktionen zugeordnet werden kann. Denkbar, daß in solchen "zentralen Systemen verteilter Intelligenz" beispielsweise spezielle Datenbank- Verwaltungsrechner mit neuer System- Architektur zum Einsatz kommen. Bekanntlich werden im Codd'schen Relationen - Modell Dateien in Tabellen und gleichartig strukturierten Ketten (Arrays) gespeichert, die für Datenbank- Operationen Parallelverarbeitung durch Vektor-Prozessoren und Feldrechner erlauben. Für die Anwendungssoftware könnte dies ohne Konsequenzen bleiben, die Software- Investitionen wären nicht gefährdet.

Die Zukunft der Datenverarbeitung wird als "Tangente zum Bestehenden verlaufen", erklärte Dr. Gene Amdahl kürzlich vor der National Computer Conference in Dallas. Die Richtung dieser Tangente allerdings wird erneut IBM festlegen. Interessant dabei ist, daß künftig nicht mehr mögliche Effizienz - Verbesserungen bei der Hardware die Entwicklung bestimmen, sondern daß durch die mittlerweile erheblich komplexeren Software- Systeme die Grenzen des Machbaren abgesteckt werden.