Unternehmensberater Hamburg

Fiktiver Abriß der EDV-Geschichte von 1960-1985

26.11.1976

Der hier vorliegende Beitrag ist nur auf den ersten Blick amüsant; auf den zweiten wird sich vielleicht mancher erfahrene EDV-Mann das Lachen verkneifen müssen. Aber trösten wir uns: Das alles hat schließlich nichts mit der täglichen Praxis zu tun, sondern ist reine Fiktion.

Phase 1: Lochkarten und Batchverarbeitung

Die Phase 1, 1960-1970, die Phase der Lochkartenorganisation, zählen, listen, ein bißchen rechnen usw., ist jedem hinreichend bekannt. Das lochkartensequentielle Denken, genannt Batchverarbeitung, beherrscht noch bis in die späten siebziger Jahre weithin das Programmieren. Wer kennt nicht modernste Buchhaltungspäkete, wo ein Band nach dem anderen wieder auf Bänder umgeschaufelt wird und Neuzugänge und Änderungen noch vom Operator fallengelassen werden können. Wer kennt nicht jene System/3-Installationen vom Ende der siebziger Jahre, wo der Programmierer (!) noch 24 Stunden die Woche damit beschäftigt war, mit dem Lochkartensortierer Karten umzuschaufeln. Natürlich wurden auch in der Batchverarbeitung Fortschritte gemacht. Zu dem Lochkarten gesellten sich Bänder und gar an mancher Stelle Magnetplattengeräte, die man durchaus sequentiell verarbeiten konnte.

Wenn man die Datenverarbeitung sozio-ökonomisch betrachtet, so zeigt sich, daß sie bis auf wenige Berufe die Arbeit langweiliger macht. Hatte ein Lagerverwalter vorher eine Menge dispositiver und operativer Möglichkeiten, so sagte ihm nunmehr der Computer, was er wann zu bestellen hätte. Daß er nicht an Langeweile starb, verdankte er den Ausfällen und Fehlern.

Phase 2: Zwitterverarbeitung-Batch und TP

Anfang der siebziger Jahre kapierten einige, daß die EDV so eigentlich nicht viel bringt. Die Nachteile des zentralen Flaschenhalses und der Informationseinbahnstraße sollten beseitigt werden. Man verfiel dabei auf die glorreiche Idee, der Monstermaschine, Stolz eines jeden Unternehmens, noch mehr aufzuhalsen: nämlich TP-Anwendungen. "Der Bildschirm bringt auch Ihnen Computerleistung" (vielleicht sogar an den Arbeitsplatz). Jetzt sollten also -zig Programme gleichzeitig laufen. Die Folge: Die Maschinen machten noch mehr zu.

Man entdeckte die Vorzüge der direkten und indexsequentiellen Organisation. Mit dem Erfolg, daß einige CPU-Zeit bei Sortierläufen gespart, durch Reorganisationsläufe für die raffinierten Datenbanken aber wieder aufgefressen wurde, die bisweilen sogar mit den TP-Anwendungen gleichzeitig funktionierten. Alles in allem, man kam vom Regen in die Traufe. Aber Hardware war ja schließlich billig. Man kaufte und kaufte und bekam noch immer nicht viel mehr als Listen (teilweise immerhin schon auf Mikrofiche).

Phase 3: Zurück zu den Anfängen

Ende 1976 machten die Manager der First National City Bank den entscheidenden Schritt: Sie warfen den Großrechner raus und holten sich dafür acht Minis zum halben Preis rein. Andere folgten, schmissen die Riesenmaschinerie raus und kauften statt dessen einige kleine Maschinen, mit denen die Ingenieure unten im Betrieb schon ganz gut gefahren waren. Sie stellten eine Reihe von Prozeßrechnern, die untereinander verbunden waren, als integrierend - integriertes Supersystem auf und versuchten die Computerleistung nun wirklich am Arbeitsplatz zu haben. "Verteilt/verbunden" war die Devise und man fuhr bis heute eigentlich recht gut damit. Die Fachabteilungen kriegten was sie wollten, mußten dafür bezahlen und überlegten sich, was sie wirklich brauchten,

Die Sache mit der zentralen Managementinformation lief auch gut, weil die Dinger ja miteinander verbunden waren und sind. Die Anfangsinvestitionen waren teilweise enorm (insbesondere die Software), weil jedoch nunmehr der Flaschenhals abgeschafft war, die Organisation vereinheitlicht und zentral, alle Informationen da verarbeitet wurden, wo sie erstellt und benötigt . Wurden, und dennoch die Möglichkeit zentraler Dienste bestand (Datenbanken für statistische etc. Informationen), hatten sich diese bald amortisiert.

All dies bewirkte, daß die Maschinen endlich das lieferten, was IBM immer versprochen hatte.

Die heutige Situation der EDV stellt sich wie folgt dar:

Die Zentralen haben sich weitgehend in einem Diffusionsprozeß aufgelöst, Computing Power hat sich räumlich verteilt. Es existiert ein durchdringendes Netzwerk, das Informationsverarbeitungsaufgaben integriert löst. Integriert heißt hier: Die EDV ist nicht mehr gesonderte Maschine irgendwo, sondern die Netzwerk, bestehend Speicherzentren, Verarbeitungskapazität menschlich oder maschinell, löst die anfallenden Aufgaben. Informationen präsentieren sich nicht mehr nur als Listen, die zwei Wochen zu spät kommen, sondern werden in vielfältigster Weise dargestellt (graphisch, gesprochene Sprache, schriftlich). Computer und Menschen kommunizieren miteinander, zum Teil über lange Strecken. Fehler, die irgendwo gemacht werden, haben nur lokale Auswirkungen. Ausfälle im maschinellen Subsystem können leicht durch andere Stationen ausgeglichen werden, das maschinelle Input-Output-Denken ist abgelöst worden durch eine Struktur, die adaptive und evolutionäre Intelligenz besitzt.