Die Industrialisierung der Informationsverarbeitung

12.09.1980

Von Diplomkaufmann Thomas H. Adenauer, Professor an der Fachhochschule Rheinland-Pfalz

Folge 10

Bei dieser Serie handelt es sich um den Vorabdruck einer Auftragsarbeit für den schwedischen Computerhersteller Datasaab.

Früher einmal war Multiprogramming eine Verfahrenstechnik, die zum wirtschaftlichen Betrieb eines Computers beitragen konnte, weil sie die Leistungsunausgewogenheit zwischen der Geschwindigkeit peripherer Elemente und den Zentraleinheiten abbaute. Mit diesem Ziel ließ sich der überhöhte Selbstverwaltungsaufwand in der Zentraleinheit unter wirtschaftlichen Aspekten in Kauf nehmen. Wegen der absolut stufenlosen Konfigurierbarkeit der Zentraleinheiten bei gleichzeitiger erheblicher Steigerung der Ein-/Ausgabegeschwindigkeiten namentlich der externen Magnetspeicher hat die Funktion der zeitlichen Pufferung durch Multiprogramming ihre Bedeutung und Wirtschaftlichkeit völlig verloren.

Der Aufwand für Multiprogramming und Multiprocessing steht heute nur noch im Dienste der scheinbar oder wirklich gleichzeitigen zentralen Direktverarbeitung mehrerer Probleme, die daneben noch weitere verfahrenstechnische Elemente von Unwirtschaftlichkeit verursachen.

Ich habe eben von transaktionsorientierter zentraler Direktverarbeitung gesprochen. Bei den Gebieten der Anwendung von Computern als Steuerungshilfsmittel in der kaufmännischen Datenverarbeitung vorherrschend, werden die Daten, die eine Verarbeitung auslösen, fast immer von Hand über Tastaturen eingegeben. Deswegen und weil auch die wirklich zeitkritischen Gebiete (in der Prozeßsteuerung ist das etwas anderes, aber da werden meist ohnehin kleinere Spezialrechner eingesetzt) Verarbeitungs-, Antwortzeiten in der Größenordnung mehrerer Sekunden vertragen, könnte man eigentlich relativ langsame und damit billige Kanäle und Direktzugriffsspeicher einsetzen. Wenn man dabei aber mit einer Maschine mehrere Probleme zugleich fährt, müssen die externen Zugriffszeiten besonders niedrig sein und die Kanäle extrem schnell ausgelegt werden, weil sich sonst trotz raffiniertester Interrupt-Techniken das System allzu schnell in seine Warteschlangenprobleme verstricken würde.

Schließlich ist zu erwähnen, daß bei den Direktzugriffsspeichern über die Diskrepanz zwischen ihrer theoretischen technischen Zugriffsgeschwindigkeit und der um viele Male niedrigeren Transaktionsgeschwindigkeit, daß über diese sogenannte Redundanz an Verarbeitungsvorhaltung hinaus die Daten in den Direktzugriffsspeicher mit eher, bezogen auf das einzelne Datum, unglaublich niedrigen Zugriffshäufigkeit dauerhaft vorgehalten werden müssen.

Zusammenfassend: Zentrale Direktverarbeitung kostet Redundanz für

- Datentransport

- Ressourcenselbststeuerung und -verwaltung,

- Vorhaltung externer Speicher.

Bei zentraler Direktverarbeitung steigt der verfahrenstechnische Aufwandsanteil am Gesamtaufwand rapide. Der eigentliche produktive Aufwand, also der Maschinenaufwand für die eigentliche Datenproduktion, die dem versorgten Unternehmen wirklich zugute kommt, kann schnell auf recht kleine Bruchteile des Gesamt- und des verfahrenstechnischen Aufwandes fallen.

Die COMPUTERWOCHE hat 1979 mit liebevoller Akribie dem Streit zwischen den Anhängern zentraler Direktverarbeitung mit Jumbocomputern und den Anhängern autonomer Sofortverarbeitung mit Minicomputern breiten Raum gegeben.

Es wurden im wesentlichen zwei Argumente ins Feld geführt: Argument 1: Nur mit direkter Zentralverarbeitung lassen sich Planungsdaten für die weitblickende Steuerung der anwendenden Unternehmen produzieren. Dazu: Es hatte sich vorne schon gezeigt, daß im Bereich der kontrollierenden strukturellen Informationsversorgung Daten zusammengetragen werden müssen. Die aber ergeben ihrer Natur nach gerade typischerweise Stapelverarbeitungen. Wird fortgesetzt