Distributed Processing:

"Die Theorie stimmt, die Praxis steht noch aus"

16.12.1977

Fritz Opel, Diebold Deutschland GmbH

In der Datenverarbeitung hat man. sich daran gewöhnt, die wesentlichen Meilensteine der technologischen Entwicklung nicht unter dem Vorzeichen des "Ob-Überhaupt" sondern des "Wann-und-Wie" zu betrachten. Dies insbesondere dann, wenn es sich um Ankündigungen des Marktführers handelt. Oder will man ernsthaft bezweifeln, daß dies e Aussage für virtuelle Speichertechnik, für MVS und gleichermaßen für Vertriebsstrategien eines Unbundling uneingeschränkt zutrifft?

Ist das Konzept des Distributed Processing ein weiterer Schritt dieser Art? Handelt es sich abermals um eine Entwicklung, die primär den Interesse 1 der Hersteller entgegenkommt, die dem Anwender allenfalls über den Umweg kunstvoller Hilfsargumentationen dient? Bei vordergründiger Betrachtung sind diese Fragen wohl zu bejahen. Denn abermals stimmt das Grundmuster im Vorlauf der Hersteller-Initiativen, im unsicheren Reagieren der Anwenderschaft, im verzögerten, aber konsequenten Einschwenken der

- vorübergehend - janusköpfigen IBM.

Folgerichtig wird man Distributed Processing erst dann verstehen, wenn man es nicht von den Preisunterschieden für 100 KB in der einen oder der anderen Verpackung ableitet sondern von der Notwendigkeit, sich spezifischer als bisher, unabhängiger

als bisher und schneller als bisher auf arbeitsplatzorientierte Lösungen einzustellen. Denn eines steht fest: Um ein DV-Budget von 0,9 auf 0,8 Prozent vom Umsatz zu trimmen, hätte man sicher kein Distributed Processing gebraucht. Entscheidend ist die Frage nach der richtigen Infrastruktur für die organisatorische Bewältigung und Sicherung der 100 Prozent Aufgabenbreite des Gesamtunternehmens.

Vor diesem Hintergrund muß das Konzept des Distributed Processing als bestechend erscheinen. Es hat sämtliche Argumente auf seiner Seite: Von der Vielfalt alternativer Angebote für DV-Leistung am Arbeitsplatz über die Entzerrung hoffnungslos blockierter Online-TP-Systeme herkömmlicher Prägung bis zur psychologischen Befriedung des Endbenutzers, der die Hoheit über seine Daten und Betriebsabläufe

zurückerhält. Demnach alle Chancen beim Anwender des Distributed Processing?

Im Prinzip ja, könnte man sagen. Das nachfolgende Aber ist mit einer Reihe von Vorbehalten verknüpft. Um nur die wesentlichen zu nennen:

- Distributed Processing muß soll es zum Erfolg führen, frei von jeder Ideologie betrachtet werden. In der Praxis stößt man auf eklatante Beispiele, bei denen vermeintlich sachlich begründete Entscheidungen über dezentrale Spezialsysteme oder über weitere Aufrüstung zentraler Ressourcen in Wahrheit I aus rein subjektiven Interessen J einzelner Beteiligter zustande I kommen. Dies kann nicht die geeignete Basis zur Auseinandersetzung mit neuen Konzepten sein.

- Distributed Processing darf nicht als Alibi für ein Fallenlassen komplexer integrierter Systeme dienen, die - sofern sauber und entsprechend der Spezifikationen konstruiert - einen hohen Rentabilitätsgrad erwarten lassen. Hier ist die Versuchung nur allzu groß, unter der Last der eigenen Planung einen Wechsel auf eine andere, bei ehrlicher Betrachtung jedoch nicht klarer umrissene Zukunft zu unterschreiben. Hinterher stimmt beides nicht: weder der ursprünglich kalkulierte und an eine bestimmte Funktionsbreite gebundene Nutzen noch das DV-Gesamtkonzept, das mit viel Aufwand und dem Segen des Vorstandes verabschiedet wurde.

- Distributed Processing darf keine neuen "Erbhöfe" schaffen. Dabei sind die oft beschworenen Insellösungen noch das kleinere Übel. Kritisch wird die Angelegenheit, wenn man - jetzt dezentral und auch noch an mehreren Stellen - die mühseligen und kostspieligen Lernprozesse der "Großen EDV" am kleinen Objekt nochmals nachvollzieht. Ein Patentrezept dagegen existiert nicht. Pragmatiker halten die Zentralisierung der Systementwicklung einstweilen für allein geeignet neuerliche Fehlentwicklungen zu vermeiden.

Wo Chancen sind, da sind auch Risiken. Auf der SYSTEMS 77 fiel das Schlagwort von der Zeitbombe der Inkompatibilität. Gemeint war die Zunahme an Programmiersprachen, Betriebs- und Datenbanksystemen, die man sieh gegenwärtig nahezu zwingend einhandelt, will man die Optionen des Marktes voll ausschöpfen.

Hier nun steht der Käufer vor dem bekannten Dilemma, das mit jeder Nullserie auf ihn zukommt: Die Theorie stimmt, die Praxis steht noch aus. Dem Anwender nützt es freilich wenig wenn er hört, daß konsistente Datensicherungs- und Recovery-Software für Distributed Systems in der Theorie befriedigend beschrieben wird. In der Praxis trifft ihn voll, wenn er an einem Ende seines Spaghettitellers zieht und es überall wackelt, nur nicht da, wo er es erwartet hat.

Soll man also warten, bis die Nullserie der Distributed Systems ihre Feuertaufe bestanden hat? Soll man weiterhin die Berichte über das Citibank-Projekt verfolgen, teils wohlwollend, teils skeptisch, immer aber aus sicherer Distanz und voller Genugtuung, wenn es auch dort nicht so recht vorwärtsgeht? Soll man warten bis die zählebige "Master-Slave"-Architektur weit verbreiteter Betriebssysteme einer angemessenen neuen Generation von Netzwerksteuerungen gewichen ist?

Die Antwort auf diese Fragen wird - sofern sie allgemeingültig überhaupt zu formulieren ist - aus mehreren Teilen bestehen:

- Der Weg zum Distributed Processing ist zwingend vorgezeichnet, will man nicht an den Forderungen nach der nächsten Qualitätsstufe im Angebot von DV-Unterstützung am Arbeitsplatz vorbeigehen. Die Frage des "Ob-Überhaupt" gehört der Vergangenheit an.

- Die Frage des "Wann-und-Wie" führt zu dem bekannten Puzzlespiel, wie ein Maximum an Chancen mit einem Minimum an Risiken zu kombinieren sei. Auf die Konzeptarbeit der Systemplaner bezogen, wird es darauf hinauslaufen, daß ein langfristiger Prozeß der zunehmenden Verlagerung von Verarbeitungsintelligenz "nach außen" einzuleiten ist, keinesfalls schlagartig, sondern abgesichert "step by step".

Wo das Pendel zwischen den im Konzept des Distributed Processing vereinigten Prinzipien schließlich stehen bleibt läßt sieh heute kaum exakt abschätzen. Insofern scheinen diejenigen auf die richtige Karte zu setzen, die sieh bei der Planung künftiger Systeme möglichst viele Optionen offenhalten. Dazu allerdings bietet das Distributed Processing - erstmals - ideale Voraussetzungen. Möglicherweise haben dabei solche Unternehmen den entscheidenden Vorsprung, die sich rechtzeitig die geeigneten organisatorischen Maßnahmen einfallen lassen. Wie kürzlich ein amerikanisches Industrieunternehmen, das einen "Manager Distributed Systems" etablierte.