Datenverarbeitung direkt vom Schreibtisch aus

29.04.1977

Das Konzept der "verteilten Datenverarbeitung" - neuenglisch "distributed processing" - beherrscht hierzulande in diesen Monaten die meisten EDV-Projekte. Es ist auch ein weiteres Mal das Hauptthema der in Hannover vertretenen Computer-Industrie. Die Handelsunternehmen brauchen sich auf das Für und Wider zwischen zentraler und dezentraler Datenverarbeitung nicht besonders einzustellen. Bei ihnen gibt seit eh und je ohnehin die dezentrale Datenverarbeitung den Ton an. Neue Akzente hängen dabei weitgehend von den Möglichkeiten ab, welche die Systementwicklungen der Computer-Industrie und in den Anwendungsbetrieben selbst erschließen.

Die Datenverarbeitung "direkt vom Schreibtisch aus" ist ja im Grunde die älteste Methode, und die Zentralisation muß auf diesem Gebiet als Kind der Lochkartenära gelten. Seit den Zeiten Holleriths wuchsen bis in unsere Tage Datenverarbeitungskapazitäten heran, die sich nur zentral wirtschaftlich ausnutzen ließen. Erst die in jüngster Zeit heranreifenden Kleinsysteme mit niedrigem Kostenniveau und zugleich mit Leistungen, die noch vor zwei Jahrzehnten für Großrechner typisch waren, erst diese Möglichkeiten führten zur Umkehr.

Die CeBIT-Fachschau spiegelt durch eine Vielzahl peripherer Ausrüstungen jedoch die Notwendigkeit wider, den Begriff "arbeitsplatzorientierte Datenverarbeitung" neu zu interpretieren und nicht mehr so eng auszulegen. Das gilt auch für die Konzepte im Handel.

Bisher ist dieses Schlagwort mit den Konzepten für Terminal-Netzwerke und Computer-Verbundsysteme gleichgesetzt worden. Längst aber sind dem Ziel, die Datenverarbeitung stärker in die Sachaufgaben zu integrieren, auch Ausrüstungen gewidmet, in denen die Kommunikation mit einem Jumbo-Rechner nur untergeordnete Bedeutung hat. Zur Verteilung der Datenverarbeitungsleistung tragen heutzutage neben den Terminals vor allem auch die Datenerfassungssysteme, die Daten- und Dokumentationsbanken mit lokal verfügbaren Programmen und Dateien, sowie Datenvorverarbeitungs- und Datenoutput-Systeme bei. Und in weitgespannten Netzwerken wird mehr und mehr "Intelligenz" auch in Systeme verlagert, die zwischen zentralen Rechnern und Terminals liegen: etwa in die Terminalcomputer, Leitungsrechner und Konzentratoren. All das geschieht schon, um der Bundespost ein Schnippchen zu schlagen. Denn durch Vorverarbeitung und Vorverdichtung der zu übertragenden Daten werden außer den zentralen Rechnern auch die Postleitungen entlastet - sprich: Ausgleich für überhöhte Leitungskosten.

"Das Rechenzentrum tritt in den Hintergrund"

Weil Datenverarbeitung nirgends Selbstzweck sein sollte, ist die Optimierung der Sachbereiche und Arbeitsplätze in den Fachabteilungen das Kernziel der Dezentralisierung. Die Programm- und Verarbeitungsleistungen, Programme und Termine sollen wieder flexibel nach den Bedürfnissen jener Stellen geplant werden können, welche die Daten erfassen und die Informationen verwenden. Je mehr nun dieses Ideengut in die Betriebspraxis vordringt, desto deutlicher zeichnet sich für die zentrale Datenverarbeitung eine neuartige Rolle ab: Das Rechenzentrum tritt in den Hintergrund. Es büßt seine dominierende Rolle in der Abwicklung und Kompetenz für Sachaufgaben ein. Und die Sachbearbeiter brauchen sich nicht mehr nach im Grunde sachfremden Zwängen zu strecken, die bisher vom Belegaufbau bis zur EDV-gerechten Datenaufzeichnung, vom Ablaufplan bis zum Termin gingen.

Als negatives Element führt die Dezentralisation jedoch zweifellos auch zu einem ernsten Risiko, zur Verzettelung und zur Rückkehr in einen System-Mix, den viele Betriebe in diesen Jahren gerade erst überwinden konnten. Um solche Fehlentwicklungen auszuschließen, geht es nicht ohne ein gemeinsames Dach.

Die arbeitsplatzorientierte Datenverarbeitung braucht immer weniger zentrale "Intelligenz", auf alle Fälle aber immer mehr zentrale Kompetenz für die Rahmenbedingungen, die zu einer geordneten DV-Planung in den Sachbereichen zwingen. Nur hierdurch lassen sich desolate Verhältnisse vermeiden, in denen isoliert und nebeneinanderher entwickelt wird.

"Mehr zentrale Kompetenz"

Mit diesen Einsichten gewappnet, erscheinen die meisten "intelligenten" Kleinsysteme im CeBIT in neuem Licht. Sie müssen als Resultate einer Entwicklung gelten, die keineswegs mit solchen evolutionären Zielen begann.

Bei den Datenerfassungssystemen ging es vielmehr um mehr Vorsorgen gegen Erfassungsfehler. Diese Systeme sind programmierbar geworden, um die manuelle Dateneingabe durch Prüfsysteme, Tabellenabfragen, Plausibilitätskontrollen, Bildschirm-Dialog und Protokolldruck absichern zu können. Bei den Terminals bestand das Hauptziel darin, sich gegen zentrale und leistungsbedingte Betriebsausfälle zu wappnen. Beides aber hat zu peripheren Datensystemen geführt, die durch eigene Programme und Dateien vor Ort offline betrieben werden können.

"Pionierrolle fällt dem Anwender zu"

In einem weiteren Entwicklungsabschnitt sind dann Subsysteme und autonome Systeme herangereift, jene peripheren Ausrüstungen, die heute in vielfältigen Erscheinungsformen zur verteilten Datenverarbeitung führen. Einem nächsten Entwicklungsschritt bleiben die Feldrechner-Konzepte vorbehalten. In den 80er Jahren erwartet die Fachwelt den Übergang auf Minicomputer-Netzwerke, in denen gleichrangige Systeme miteinander im Datenaustausch stehen.

Auf dem Wege zur arbeitsplatzorientierten Datenverarbeitung haben immer wieder die Anwender selbst die Pionierrolle übernommen, darunter zahlreiche Betriebe des Handels. In diesem Wirtschaftszweig sind zum Beispiel viele Terminalcomputer zuerst realisiert worden, ohne die heute der Übergang auf POS-Systeme nicht denkbar wäre. Bei den Datensammelsystemen werden der eigentlichen zentralen Datenverarbeitung immer häufiger wichtige "Jobs" vorweggenommen: Prüfprogramme, Datenvorverdichtungen und erste Datenauswertungen. Zur Zeit mehren sich die Anwendungsfälle, in denen diese Systeme ohne nachgeschaltete Datenverarbeitung vollen Nutzen bieten. Das ist etwa in der Lieferschein-Herstellung und Kommissionierung der Fall, das gilt ebenso in der Datenverwaltung und -abfrage. Inzwischen gehen aus diesem Anlagentyp sogar autonome Bildschirm-Auskunftssysteme und interaktive Programmentwicklungssysteme hervor.

Inmitten einer Vielzahl meist aufgabengebundener, also nicht zu verallgemeinender Systeme, zeichnen sich einige Eigenschaften und Vorteile ab, die der dezentralen Datenverarbeitung bereits vom Ausgangskonzept her zugeschrieben werden können. Dazu zählt, daß sie in der Regel dort Systemkosten einspart, wo sie am teuersten sind. In vielen Fällen haben periphere Datensysteme durch Ausgliederung geeigneter Aufgaben den Übergang auf ein nächstgrößeres Computermodell überflüssig gemacht. In betriebsexternen Datennetzen konnten durch Vorverarbeitung am Ursprungsort der Daten bis zu 20 Prozent Leitungsgebühren eingespart werden.

"Exotische Programmiersprachen"

Generell gilt aber neben diesen Systemoptimierungen der Nutzen für die Sach- und Fachbereiche als Vorteil. Die Computer-Leistungen sind ihnen zugänglich, wenn sie im Zuge von Sachabwicklungen benötigt werden. Sie stehen in einer Form zur Verfügung, die den Sachaufgaben entspricht. Die meisten dezentralen Systeme lassen sich im Bruchteil der Zeit neu- und umprogrammieren, die sonst im schwerfälligen zentralen Apparat angesetzt werden muß. Leider aber müssen sich viele Anwender hierbei noch "exotischer" Programmiersprachen bedienen.

Auch 1977 kommt es im CeBIT wieder zu relativ wenigen Systempremieren. Für die meisten Messebesucher ist das nur vorteilhaft.

Herbert F. W Schramm ist freier EDV-Fachjournalist.