Distributed Data Processing:\Wirtschaftlich sinnlos?

21.03.1980

Die Dezentralisierung der Datenverarbeitung in Form des "Distributed Processing" ist derzeit der häufigste Eingriff in DV-Organisationen - wirtschaftlich jedoch fast stets sinnlos. Dies behauptet Ludwig Kottmann, Leiter der Abteilung EDV und Organisation bei der Singer GmbH, Eschborn. Kottmann sagt: "Trotz erheblichen Preisverfalls sind mehrere selbständige Computereinheiten mit vernünftiger Konfiguration immer noch teurer als der Ausbau der zentralen EDV." Kottmann sagt weiter: "Man muß sich fragen, wer außer den Computerherstellern vom ´Distributed Processing´ wirklich profitiert." Zwei weitere CW-Leser nehmen zum Distributed Processing-Thema Stellung.

Herbert Gärtner

DV-Leiter Vereinigte Aluminium-Werke AG Grevenbroich

Zunächst sollte Distributed Processing unterschieden werden in die zentrale Lösung mit Hauptrechner und einem Netzverbund sowie eine Offline-Lösung mit einer Vielzahl kleinerer Geräte, die jedoch mit dem Hauptrechner Datenaustausch betreiben können.

Bei der zentralen Lösung sind umfangreiche Voraussetzungen zu schaffen, die in einem mehr oder weniger großen Netzwerk mit Terminals und/oder Satelliten-Rechnern enden. Dieser Sprung in eine sehr komplexe Form der Datenverarbeitung verunsichert viele Anwender. Vor allen Dingen ist das Risiko wegen des nicht ausreichend vorhandenen Personals mit der entsprechenden Qualifikation und der häufig fehlenden Gesamtkonzeption kaum kalkulierbar.

Zwar bieten die Hersteller Konzepte wie SNA oder TRANSDATA an, jedoch stellen sie damit nur die Hilfsmittel für die technische Realisierung zu Verfügung. Mit dem Hauptproblem, Aufbau und Vorbereitung der entsprechenden organisatorischen Struktur, steht der Anwender in der Regel alleine da. Der Aufbau eines entsprechenden Datennetzes und die gleichzeitige Schaffung der erforderlichen Organisationsstruktur überfordert viele Anwender. Manche EDV-Systeme sind heute nur noch mit großem Aufwand steuerbar und haben eher zu einer Zwangsjacke denn zu einer Befreiung in der DV geführt.

Der Aufwand, der zur Zeit noch zur Betreibung eines Online-Systems erforderlich ist, schreckt ab.

Distributed Processing wird im wesentlichen verhindert durch:

- fehlende abgestimmte Gesamtkonzepte. Traditionell gewachsene Organisationsformen müssen oftmals mit großem Aufwand neu gestaltet werden;

- die Schwierigkeit, personelle Voraussetzungen zur Realisierung neuer Konzepte in qualitativer und quantitativer Hinsicht zu schaffen;

- eine fehlende Entwicklungsgruppe, die außerhalb der laufenden DV-Arbeiten, ausgestattet mit entsprechender Rechnerkapazität, neue Projekte bis zur Einsatzreife entwickeln kann;

- mangelnde Qualität und Anwenderfreundlichkeit der Systemsoftware;

- ständig steigende Kosten für die Aus- und Weiterbildung der Mitarbeiter;

- große Unsicherheiten bei der Planung der zukünftigen Gesamtkosten.

Neben dieser Form des "Zentralen Distributed Processing" entwickelt sich in zunehmendem Maße eine Form von Offline-Lösungen, die zur Zeit vielfach als DV-Insellösungen abgelehnt werden. Hier bieten sich jedoch für viele Anwender oftmals sinnvolle und vor allen Dingen wirtschaftliche Lösungen an, wobei außerdem das Risiko kalkulierbar in einem überschaubaren Rahmen ist. Um die Gefahr eines DV-Wirrwarrs zu vermeiden, ist es unerläßlich, daß der DV-Einsatz zentral unter Beachtung eines Gesamtkonzeptes gesteuert wird.

Die Diskussion über Distributed Processing als Zentral- oder Teillösung wird uns noch bis weit in die 80er Jahre beschäftigen. Die zur Zeit noch sehr großen Unsicherheiten beim Anwender und oftmals in der Praxis mißlungene Lösungen sind zur Zeit kein großer Ansporn, Distributed Processing mit aller Gewalt anzustreben. Hier die Warnung vor lnsellösungen, dort die Diskussionen zum Thema Datenbanken und künftiger Hardware, führen zwangsläufig zu einer gewissen abwartenden Haltung der Anwender. Die technischen Möglichkeiten müssen in vielen Fällen erst einmal organisatorisch bewältigt werden.

Zur Sicherstellung eines sinnvollen und wirtschaftlichen DV-Einsatzes in den 80er Jahren sollte auf jeden Fall vom Anwender die Zeit genutzt werden, Konzepte für ein zentrales und/oder auch dezentrales Distributet Processing zu entwickeln.

Ludwig Kottmann

EDV- und Organisationsleitung Singer GmbH, Eschborn

Man muß sich fragen, wer außer den Computerherstellern vom Distributed Processing wirklich profitiert.

Die EDV-Abteilung, noch voll mit der Realisierung der technischen Neuerungen von gestern und heute beschäftigt, sieht sich mit neuen Forderungen aus den Fachbereichen nach eigenem Computer konfrontiert. Haben die Hersteller-VBs in den Anwenderbereichen und deren Fachpresse neue Ansprechpartner gefunden? Offensichtlich ist durch den Einzug des Bildschirmes am Arbeitsplatz mit dem direkten Zugriff auf die im zentralen Computer gespeicherten Daten der Hunger nach noch mehr Informationen und, bezogen auf die ich zu verlangsamenden Zugriffszeiten, nach eigenen Computern gewachsen. Doch dieser Verselbständigungs-Tendenz folgt meist ein ernüchterndes Analyse-Ergebnis.

Trotz erheblichen Preisverfalls sind mehrere selbständige Computereinheiten mit vernünftiger Konfiguration immer noch teurer als Ausbau der zentralen EDV.

Der vermeintlich schnellere Zugriff auf eigene Dateien wird durch die längeren Wartezeiten bei Zugriffen auf extern gespeicherte Informationen wieder ausgeglichen. Diese Technik scheint mir in der Praxis noch nicht ausreichend erprobt. Sollte es möglich sein, alle notwendigen Masterdateien in einem Fach-Abteilungs-Computer unterzubringen, so entsteht zwangsläufig das Problem der Maintenance von Mehrfachdateien und deren Aktualitätsstandard.

Dezentralisierte Verarbeitung bedeutet aber auch erhöhten Personalbedarf. Bei der allseits bekannten Personalmarkt-Situation ist man froh, sein geschultes EDV-Personal konzentriert an einer Stelle zur Verfügung zu haben. Jede Anlage bedarf einer Pflege - oder kann man die Reorganisation von Dateien beziehungsweise Restartprozeduren dem Personal der Fachabteilung überlassen?

Die größten Gegner einer verteilten Computerintelligenz sind erfreulicherweise bei den Anwendern selbst zu erkennen.

Noch sitzen die Fachabteilungen am gemeinsamen Computertisch und erhalten das serviert, was sie sich á la carte bestellt hatten. Wichtig ist doch nur, daß das Essen schmeckt (Qualität in den Programmen) und pünktlich (termintreu in der Verarbeitung) auf den Tisch kommt. Solange dies so ist, kommt keiner auf den Gedanken, sein eigenes Süppchen zu kochen.

Man hat vielmehr erkannt, die EDV-Leistungen auf dem Gebiet der optimalen Dateneingabe zu verbessern. Für diese Vorfeldverarbeitung bieten sich eine Anzahl von Mini-Computern, intelligenten Terminals oder sogenannten Frontendprozessoren an, die vom Zentral-Computer Daten abrufen, dort aber nichts verändern oder zerstören können. Die Zwischenspeicherungsmöglichkeiten bei solchen Geräten decken nicht nur das Sicherheitsbedürfnis bei Leitungs- oder Computerausfällen ab, sondern bieten zusätzlich die Möglichkeit, Daten ohne große Unterbrechung weiter erfassen zu können.

Die sich in den letzten Jahren laufend verbessernden Datenaufbereitungstechniken sowohl in der Hard- als auch in der Software haben sich, vorläufig jedenfalls, hemmend auf die Idee des Distributed Processing ausgewirkt.

Von Seiten der Fachabteilung wird kein Interesse für eine eigene Verarbeitung aufkommen, solange von der zentralen EDV deren Wünsche befriedigt werden können. Wenn man die Produktion verteilen will, so ist damit zwangsläufig auch die Verteilung der Verantwortung über Sicherheit, Verfügbarkeit der Daten und Ordnungsmäßigkeit der Verarbeitung verbunden.

Welcher Abteilungsleiter aus der Fach-Abteilung will sich diese zusätzliche Last aufladen? Dazu gibt es ja schließlich die Kollegen aus der EDV und, ob berechtigt oder nicht, ist es leichter, Verzögerungen und Pannen auf andere abschieben zu können und wenn es auch nur eine Maschine der zentralen EDV ist.

Dieter Rücker

Leiter des EDV-Centers Grace GmbH, Worms

Die Systementwicklung, Programmierung und Verarbeitung der Daten geschah bei Grace bis 1975 unabhängig voneinander in den einzelnen Werken. Eine Zusammenarbeit zwischen den Rechenzentren fand nicht statt.

Anfang der siebziger Jahre wurde eine europäische Managementgruppe aufgebaut mit dem Hauptziel, wirksamere und gemeinsame europäische Geschäftsstrategien und Methoden einzuführen und deren Durchführung zu kontrollieren. Eine Studie der damaligen EDV-Situation ergab, daß die bis zu diesem Zeitpunkt entwickelten Systeme wegen ihrer unterschiedlichen Methoden und Zielsetzungen nicht ausreichend waren, um das europäische Management bei seiner Aufgabe zu unterstützen.

Schließlich wurde entschieden, ein neues Datenverarbeitungs-Konzept einzuführen mit dem Ziel, gemeinsame Computer-Systeme - unter Verwendung von Datenbanken - für alle europäischen Werke zu entwickeln.

Als Konsequenz dieser Entscheidung wurden die in den einzelnen Werken installierten Computer-Anlagen mittlerer Größe abgebaut und durch zwei große Rechenzentren in Verbindung mit Terminal-Computern in den Werken ersetzt.

Im Verlauf des Jahres 1981 sollen die bestehenden IBM/370-158 und /370-135-Anlagen in den Rechenzentren Worms und Paris durch je zwei IBM 4341- 4 Megabyte-Anlagen ersetzt werden. Die zur Zeit in den Werken installierten vierzehn PDP-Rechner werden nach und nach gegen IBM 8100 Terminal-Computer ausgetauscht.

Die EDV-Organisation reflektiert die Probleme, die ein solches EDV-Konzept in einer geographisch weitverzweigten Firmengruppe mit sich bringt.

- Die Analytikergruppe ist dezentralisiert. Die Systementwicklung geschieht weitgehend durch Analytiker, die in den einzelnen Werken arbeiten. Die Projektleitung wird dem Werk übertragen, in dem die schwierigsten Konditionen zu finden sind.

- Die Programmierung erfolgt durch eine der beiden Programmierergruppen in den Rechenzentren Worms oder Paris.

- Die System-lmplementierung wird durch Projektgruppen koordiniert, die sich zusammensetzen aus Analytikern, Vertretern der Fachabteilungen, Mitarbeitern des Rechenzentrums und der Computer-Operations in den Werken.

Der Entwicklungsplan umfaßt Anwendungen für fast alle Geschäftsbereiche; wie Finanz, Produktion, Marketing, Personalwesen, Forschung und Entwicklung. Für die Anwendungen werden weitgehend "Distributed Data Processing"-Techniken eingesetzt. Da dieser Begriff sehr unterschiedlich interpretiert wird, ist es zweckmäßig, ihn in diesem Zusammenhang kurz und stark vereinfacht wie folgt zu definieren:

"dezentralisierte EDV" = Dateien und Verarbeitungsfunktionen dezentral

"zentralisierte EDV" = Dateien und Verarbeitungsfunktionen zentral

"Distributed Data Processing" = eine Kombination der beiden obigen Begriffe

Für Online-Systeme sind Datensichtgeräte in den Fachabteilungen der Werke installiert und direkt mit dem Zentralcomputer und den zentralen Datenbanken verbunden.

Das neue Konzept bringt in fast allen Bereichen der EDV eine weitaus erhöhte Komplexität mit sich. Daraus resultieren eine Reihe von Erkenntnissen und Problemen, die ein Umdenken aller davon Betroffenen erforderlich gemacht hat.

- Unbedingt erforderlich ist ein EDV-Gesamtplan (´Long Range Plan´), der vom Firmen-Management und den EDV-Gruppen verstanden und akzeptiert werden muß. Dieser Gesamtplan muß die Prioritäten bei der Systementwicklung, die Methoden bei der Entwicklung und Verarbeitung sowie die Hardware- und Basis-Software-Planung festlegen.

- Weiterhin erforderlich ist ein zentrales EDV-Management und eine zentrale Gruppe von EDV-Spezialisten zur Koordinierung und Lösung technischer Probleme.

- Die Entwicklung und Einführung neuer Systeme erfordern strikte, formelle Regeln in Verbindung mit richtiger und Kompletter Dokumentation der Systeme für EDV-Personal und die Fachabteilung.

- Ebenso wichtig ist ein abgestimmtes Trainingsprogramm für alle EDV-Mitarbeiter, das Firmen-Management und die wichtigsten Fachabteilungs-Mitarbeiter.

Im täglichen EDV-Betrieb ergeben sich durch das komplexe Umfeld eine Reiche von Problemen, zum Beispiel

- Termingerechte und gleichzeitige Einführung neuer Programmversionen

- Entwicklung, Einführung und Änderung gemeinsamer Operation-Standards, Techniken und Prozeduren

- Termingerechte Kontrolle der sachlichen Richtigkeit der Verarbeitung, bedingt durch die größere Anzahl von Verarbeitungsschritten

- Fehlerdiagnosen und Korrekturen

- Erstellung und Einhaltung eines realistischen, Verarbeitungszeitplanes

- System- und Installations-Sicherheit

- EDV-Kostenerfassung, Kontrolle und Verteilung (technische und legale Schwierigkeiten)

- Kommunikationsprobleme durch verschiedene Landessprachen und Landesgrenzen.

Als Resultat dieser gesteigerten Komplexität ergeben sich aus der Sicht der Fachabteilungen eine ganze Reiche von Nachteilen:

- Die Entwicklung und Einführung von Systemen dauert wesentlich länger als beim vorherigen dezentralen Konzept

- Gemeinsame Systeme erfordern häufig Lösungen, die aus der Sicht der einzelnen Fachabteilungen umständlich und überflüssig erscheinen

- Lokale EDV-Wünsche oder Sonderprogramme werden häufig zurückgestellt, da sie mit dem Gesamtkonzept im Konflikt liegen

- Das EDV-Personal in den Werken empfindet sich häufig als frustriertes Opfer zwischen lokalen EDV-Wünschen und den Erfordernissen des Gesamtkonzeptes.

Das immer größer werdende Angebot billiger kleiner und mittlerer Computer in Verbindung mit fertigen Anwendungspaketen ist eine ständige Verlockung für die Fachabteilungen, das Gesamtkonzept in Frage zu stellen, um durch isolierte Anwendungen schneller die Probleme der eigenen Abteilung zu lösen.

Trotz dieser für EDV und besonders für Fachabteilungen großen Hindernisse und Probleme ist die derzeitige Form von ´Distributed Data Processing´ die Antwort auf die vielfältigen und weitverzweigten Datenverarbeitungs-Erfordernisse der europäischen Grace Firmengruppe.

Ein anderes, wirksameres Konzept ist zur Zeit nicht in Sicht.

Es gibt keine Alternative zur Kooperation bei der Systementwicklung und zu einem gemeinsamen Systemkonzept.