National-Computer-Conference:

Keine Zukunft für Distributed Processing?

01.07.1977

"Die heutigen Erwartungen an Distributed Processing übertreffen bei weitem das, was erreicht werden kann", warnte Dr. Gene Amdahl, einst Architekt der IBM 360- Serie, heute

Kopf der Amdahl-Corp. und zudem Vorsitzender der Computer & Communications Industrie Association, vor der National Computer Conference in Dallas, Texas. Eine "Explosion der Erwartungen lasse übersehen, daß auf absehbare Zeit die Softwareprobleme eine Realisierung überregionaler Systeme verteilter Computer-Leistung und verteilter Datenbanken von solcher Komplexität sind, daß deren. Effizienz bestritten werden muß. Schon heute entfielen, laut Amdahl, bei Universal-Rechnern auf Betriebssysteme bis zu 60 Prozent der Hardware-Leistung; die Aufgaben verschiedener Rechner, verschiedener Betriebssysteme und verschiedener Datenbanken in einem Distributed Processing-Netz zu koordinieren, könne nahezu die

Gesamt-System-Kapazität erfordern.

Kleinere Brötchen

Die heute enthusiastisch propagierten großen Lösungen dürften mit Sicherheit nicht als Netze von Minicomputern, sondern nur als Netze von größeren Rechnern funktionieren, ihre Wirtschaftlichkeit sei damit in Frage gestellt.

In seiner viel beachteten Ansprache vor über 1000 Zuhörern, die die Fachpresse als Höhepunkt des NCC-Konferenz-Programms wertet, verglich Amdahl die Distributed Processing-Euphorie mit einer "Mode" oder "Welle", wie es sie in der Datenverarbeitung schon mehrfach gab. Einer ersten Phase außergewöhnlich hoher Erwartungen werde Enttäuschung, dann für Jahre Ruhe folgen und schließlich wird es Losungen geben, die erheblich weniger realisieren, als das, was erstmals Traum war. Keine Frage ist für Amdahl, daß Distributed Processing letztendlich kommt, aber das wird in der Praxis noch einige Jahre, wenn nicht mindestens fünf Jahre dauern. Und das Ergebnis wird eher sein, daß nicht in großen, sondern eher kleinen Netzen örtliche Konzentratoren in der Art intelligenter Terminals regionale Computer-Leistung bieten, ohne daß in der Praxis der überregionale Lastverbund oder gar Datenbank-Verbund Alltag werde. Den heute schon machbaren Netzen verteilter Intelligenz rund um den großen Zentralcomputer (wobei noch fraglich ist, wie wirtschaftlich sie arbeiten) werden die ganz großen globalen Systeme, von denen heute geträumt wird, sicherlich einmal folgen. Aber das wird möglicherweise ein Jahrzehnt und gar länger dauern, denn Voraussetzung dafür seien noch schnellere Hardware-Bausteine und eine verbesserte Technologie zur Beherrschung der überaus komplexen Software-Probleme.

Moden und Wellen

Amdahls Warnung vor übertriebenen Erwartungen, die nur von der Lösung des derzeit machbaren ablenken, erscheint durchaus berechtigt. Wer erinnert sich nicht an die "MlS-Euphorie"? Eine ähnliche "Mode" war der Glaube an die Riesen-Multiprozessor-Systeme von Dutzenden zusammengeschalteter Zentraleinheiten. Auch hier war die Komplexität der Software die Barriere, denn oftmals - so Amdahl - zeigte sich, daß nach dem Verbund von vier Prozessoren die Leistung geringer war, als im vorherigen System von drei MP-Computern. Und ähnlich verlief auch die "Erwartungs-Welle" bei den ganz großen Timesharing-Systemen, bei denen sich ebenfalls zeigte, daß die Komplexität Hunderte von nichtintelligenten Terminals zu verwalten, mit Effizienz nicht mehr zu vereinbaren war.

Das Vorhandensein von Pionier-lnstallationen für futuristisches Distributed Processing in nicht kommerziellem Bereich lasse leicht übersehen, daß bei Pilot-Projekten meist nicht auf Wirtschaftlichkeit geachtet werden müsse. Hinzu komme, daß Lösungsvorschläge, die von den brillantesten Köpfen der Avantgarde konzipiert wurden, immer dann zur Utopie werden, wenn tatsächlich weniger qualifizierte der Praxis sie zu realisieren beginne.

Ob die Fachwelt aus den Erfahrungen und Warnungen Erfahrener lernen wird? Selbst wenn Hersteller und Informatik-Avantgardisten das Gegenteil propagieren?