The Waves of Change

Zentral contra dezentral

03.02.1978

Alle Distributed Processing-Systeme stimmen in folgenden Eigenschaften überein:

- Verteilung der Funktionen entweder "lokal" auf die einzelnen Komponenten des Computersystems (E/A-Prozessoren, Front-end-Prozessoren) oder innerhalb eines Kommunikations-Netzes, also auf intelligente Terminals, die bestimmte Funktionen übernehmen können.

- Verteilung der Verarbeitung mit Hilfe von vor Ort oder entfernt installierten Satellitenrechnern, die mit dem Hostrechner in einer Master/Slave-Beziehung stehen und eigene Datenbanken besitzen können.

- Dezentralisierung von Verarbeitung und Kontrolle: Beispiel hierfür ist die dezentralisierte Netzwerk-Architektur beim Arpanet von Univac und beim Cybernet von Control Data. In diesen Systemen ist auch die Kontrolle dezentralisiert: Jeder Computer im Netz kontrolliert und steuert seine Operationen selbst.

Drei wichtige Aufgabenbereiche des Distributed Processing sind zu nennen: Datenverarbeitung, Daten-Management und Applikationsentwicklung. Hier ist vor allem zu entscheiden, in welchem Umfang diese Funktionen zentralisiert oder dezentralisiert werden sollen. Diese Entscheidung ist von mehreren Faktoren abhängig - wobei die organisatorische Struktur eines Unternehmens an erster Stelle genannt werden muß.

Ein weiterer wichtiger Faktor ist die logische Struktur der Applikations-Segmente und -Funktionen, die zu erledigen sind. (Besteht zwischen den einzelnen Funktionen eine wechselseitige Abhängigkeit oder stellen sie voneinander unabhängige logische Einheiten dar?)

Als nächster Punkt ist die logische Beziehung zwischen den verschiedenen Datenbanken zu klären: Handelt es sich um integrierte oder separate Datenbanken ?

Es wird deutlich, daß der Entscheidung für Distributed Processing in jedem Fall eine detaillierte Problemanalyse vorausgehen muß. Eine Vielzahl unterschiedlichster Faktoren ist sorgfältig gegeneinander abzuwägen:

- Kosten für die Erstellung der gewünschten Verarbeitungs-Funktionen,

- Kosten für Entwicklung und Implementierung eines bestimmten Anwendungsverfahrens,

- Der dafür erforderlich Aufwand an Wartung und Kontrollen,

- Nutzwert und relative Priorität dieses Verfahrens (oder einer bestimmten Funktion),

- Die zu erwartenden Ergebnisse und Risiken bei einem zentral gesteuerten oder dezentral kontrollierten System

In der folgenden Tabelle sind potentielle Vor- und Nachteile eines zentralen und dezentralisierten DV-Approachs gegenübergestellt. Selbstverständlich haben die verschiedenen Parameter je nach Anwendungsfall unterschiedliche Prioritäten Eine der wichtigsten Fragen in diesem Zusammenhang ist das Verhältnis von Arbeitsproduktivität und Hardwareleistung. Hier können Entscheidungen indes nicht mehr quantitativ begründet werden. Es sind vielmehr auch subjektive Faktoren in Betracht zu ziehen.

Zentralisierte DV

- Große Hardware-, Software- und Speicher-Kapazitäten,

- Management- und Kontroll-Erleichterungen bei Verarbeitung, Applikationsentwicklung und Datenbankverwaltung.

- Großes Wachstumspotential hinsichtlich Hauptspeicher und E/A-Komponenten,

- Verbesserte Gesamtkompatibilität,

- Großes Verarbeitungspotential für komplexe Anwendungen,

- Keine Vervielfältigung von Systemkomponenten und Ressourcen,

- Geringere Verfügbarkeit und Systemzuverlässigkeit,

- Wartezeiten, höherer Overhead, Kontrollprobleme.

Distributed Processing

- Geringere Kosten bei der Datenkommunikation,

- Höhere Verfügbarkeit und Zuverlässigkeit,

- Flexiblere Reaktion, geringerer Overhead, weniger Kontrollprobleme,

- Geringere Kosten bei Systemerweiterungen und größere Unabhänigkeit vom Hostrechner,

- Bessere Orientierung an den Benutzer-Bedürfnissen,

- Weniger Abhängigkeit von der DV-Abteilung,

- Billigerer und effizienterer Backup-Betrieb,

- Leichter und schneller Zugriff auf dezentrale Dateien,

- Flexible Anpassung an neue Anforderungen,

- Höhere Kosten aufgrund der Vervielfältigung von Hardware, Software, Daten, Speicherplatz,

- Höherer Personalbedarf,

- Kompliziertere Management- und Kontroll-Techniken bei Verarbeitung, Applikations-Entwicklung und Datenbank-Verwaltung,

- Begrenztes Wachstumpotential hinsichtlich CPU-Leistung, Speicherkapazität und Einsatz von E/A-Komponenten,

- Inkompatibilitätsrisiken,

- Begrenzung von Größe und Komplexität der Applikationen,

- Vervielfachung von E/A-Operationen und -funktionen.

Charles P. Lecht ist Gründer und Vorsitzender der Advanced Computer Techniques Corporation (ACT).

Übersetzung: Reinhold Falkner

Wird fortgesetzt