The Waves of Change

Distributed Processingn Trends

27.02.1978

In der dezentralisierten Datenverarbeitung wird es bei IBM auch weiterhin bestimmte 370-Host-Abhängigkeiten geben, wobei sichergestellt werden muß, daß der Ausfall einer Zentraleinheit nicht das ganze Netzwerk lahmlegen kann

Daher die Dezentralisierung von Verarbeitungsfunktionen wie Datenerfassung, Editing, Formatierung und Dateifortschreibung. Auf diese Weise können - wenn auch nur in begrenztem Umfang - Vor-Ort-Operationen auch bei Ausfall der Zentraleinheit weitergeführt werden. Das Ergebnis ist ein Kompromiß zwischen totaler Host-Abhängigkeit und völliger Dezentralisierung.

Am Anfang dieses Kapitels (CW Nr. 3 vom 13. 1. 1978) wurden die wichtigsten Impulse für den derzeitigen Trend zur dezentralisierten Datenverarbeitung kurz charakterisiert. Hinzu kommt eine ganze Reihe weiterer Faktoren, die damit mehr über die eigenen Informationsanforderungen.

- Das Verhältnis von Systemeffizienz und menschlicher Arbeitsleistung (Hardwareleistung pro Dollar und Arbeitsproduktivität).

- Politische Überlegungen: Aus den komplexen, dezentralen Organisationsstrukturen unserer Zeit sind zentral ausgelegte Informationssysteme für die Unternehmungsleitung heute nicht mehr wegzudenken. Gleichzeitig hat durch diese Zentralisierung das Top-Management keine Kontrolle mehr über die eigenen Informationsanforderungen.

- Wissen ist Macht: Kontrolle von Informationen ist gleichbedeutend mit politischem Machtzuwachs (nicht umsonst verweist Owell in 1984 auf die enge Verflechtung zwischen realer Geschichte und Kontrolle der Geschichtsbücher).

- Moderne Unternehmen sind in zunehmendem Maße von Datenverarbeitungssystemen abhängig. In bestimmten Wirtschaftsbereichen (wie etwa der Luftfahrt) sind System-Zuverlässigkeit und -Verfügbarkeit geradezu von ausschlaggebender Bedeutung.

- Die Datenverarbeitung stellt einen immer größer werdenden Anteil am Unternehmensbudget. Daraus resultieren Bemühungen, die Ausgaben für diesen wichtigen Bereich einer stärkeren Kontrolle zu unterziehen.

- Technologische Entwicklungen und Verbesserungen (Mikroprozessoren, Minicomputer und E/A-Geräte) haben dazu geführt, daß sich heute auch kleinere Bereiche eines Unternehmens ihren eigenen Computer, zumindest aber hochentwickelte Terminalsysteme mit autonomen Verarbeitungs-Kapazitäten leisten können.

- In der Datenfernübertragung konnte das Preis-Leistungs-Verhältnis nicht so entscheidend verbessert werden wie in den anderen DV-Bereichen. Der Zugriff auf eine zentrale Datenverarbeitungsanlage ist immer noch kostenintensiv. Allein schon diese Tatsache erklärt in vielen Fällen das Phänomen "Distributed Processing" oder den Siegeszug der Minis und Mikros.

- In einer Zeit, in der Anschläge extremer Politischer Gruppen durchaus im Bereich des Möglichen liegen, ist die Sicherheit von DV-Ressourcen für nicht wenige Unternehmen Grund genug, ihr organisatorisches Nervenzentrum - zusammen mit den Datenbanken - weiter zu dezentralisieren.

Angesichts der vielfältigen Angebote an DP-Systemen mit den unterschiedlichsten Zielsetzungen ist der Versuch einer umfassenden Definition von Distributed Processing von vornherein zum Scheitern verurteilt. Die DP-Produkte der verschiedenen Anbieter weisen oft gleichzeitig bemerkenswerte Ähnlichkeiten und größte Unterschiede auf. Dezentralisierte DV-Systeme gibt es jedenfalls schon seit Mitte bis Ende der fünfziger Jahre - wenn wir hier auch organisierte Hardware/Software-Verbundsysteme einbeziehen, wie sie seit dieser Zeit im militärischen Bereich, bei Behörden und großen Unternehmen eingesetzt werden.

Stern- oder ringförmige Netzwerke gibt es, wie rudimentär auch immer, bereits seit über 10 Jahren. Die ersten Timesharing-Systeme mit Remote-Batch-Prozessoren scheinen bereits genau das gewesen zu sein, was wir uns heute unter dezentralisierter Datenverarbeitung vorstellen. Wäre es möglich, daß Distributed Processing gar kein neues Produkt, sondern eine alte Philosophie ist?

Eine Konzeption, deren allgemeine Realisierung nur noch abhängig ist von der Senkung der Kosten für Hardware- und Datenfernübertragung und von einer Verbesserung der Software, mit der

Sich diese DV-Ressourcen dann Wirtschaftlicher nutzen lassen?

Diese Fragen lassen sich mit einem klaren Ja beantworten. Die entscheidenden Kostensenkungen konnten bereits erzielt werden, die bessere Software - zweite Bedingung für den endgültigen Siegeszug des Distributed Processing - steht noch aus.

Charles P. Lecht ist Gründer und Vorsitzender der Advanced Computer Techniques Corporation (ACT).

Wird fortgesetzt