Multiserver-Computing ist heute keine Utopie mehr

21.02.1992

Downsizing ist für viele Unternehmen zur strategischen DV-Aufgabe der 90er Jahre geworden. Die durchschnittliche DV-Welt größerer Unternehmen wird heute gekennzeichnet durch proprietäre Systeme mit einem hohen Pflege- und Wartungsaufwand, wodurch die Kapazitäten für Neuentwicklungen stark eingeschränkt sind. Eine Vielzahl von Insellösungen und starren Softwaresystemen, die sich an wechselnde Fertigungsorgansationen kaum anpassen lassen, sind noch immer die Regel.

Die Vernetzung heterogener Systemlandschaften ist bereits

technisch relativ einfach zu realisieren. Einen wirtschaftlichen Nutzen daraus zu ziehen bereitet dagegen weitaus größere Probleme. Schließlich werden die gleichen Daten in verschiedenen Systemen erfaßt, so daß sich Datenredundanzen nicht ausschließen lassen. Zu schwierig und komplex ist die Integration des Informationsflusses bei sich teilweise überlappenden Funktionen.

Wer die Zeichen der Zeit erkannt hat, wählt den einzig gangbaren Weg ans dieser Sackgasse, einen radikalen Schnitt mit einem neuen IT-Konzept und einem integrierten Informationssystem auf der Basis offener Systeme. Ein solcher Schritt erfreut sich heute noch keiner großen Beliebtheit. Deshalb sei in aller Deutlichkeit gesagt: Es kann und soll nicht darum gehen, mit einem einzigen Unix-System einen Großrechner zu ersetzen.

Trotz der Leistungsfähigkeit gegenwärtig verfügbarer Unix-Systeme wäre bei einem solchen Ansatz schnell das Ende der Fahnenstange erreicht. Die Lösung liegt vielmehr in der gezielten "Dezentralisierung" von Großrechnerfunktionen sowie in der Neuorganisation von bisher im Low-end-Bereich angesiedelten PC-Insellösungen. Dazu gehören die Entscheidung über die Integration der PCs (zum Beispiel für Client-Server-Konzepte) sowie die Ablösung von nicht wirtschaftlich integrierbaren Inseln durch ein neues System.

Die Realisierung einer Multiserver-Landschaft ist heute nicht mehr so problematisch, wie vielerorts vermutet wird. Dabei ersetzt ein Netzwerk aus gleichen oder verschiedenen Unix-Rechnern die bisherige Mainframe-orientierte Systemlandschaft. Die Integration entsprechender Maschinen, ob sie nun von Hewlett-Packard, Siemens-Nixdorf, IBM oder einem anderen Hersteller stammen, wirft dabei de-facto keinerlei technische Probleme mehr auf.

Für die Connectivity kann ein Ethernet-LAN mit TCP/IP sorgen. Als Arbeitsplätze lassen sich neben ASCII-Terminals auch PCs und Workstations in das Konzept einbinden. Der Unix-Rechner vereint dabei die Aufgaben, gleichzeitig Anwendungs- und Datenhaltungs-Server zu sein. In Verbindung mit "intelligenten" Arbeitsplatz-Terminals ist der Client-Server-Betrieb zu realisieren.

Verteilte Datenverarbeitung und auch verteilte Datenhaltung können in Form von Front-end- und Back-end-Prozessen stattfinden. Bekanntlich sorgt die Entlastung des Servers für eine bessere Performance. Farbe, Grafik in Verbindung mit schnellerem Bildschirmaufbau und Mausbedienung sind in der Regel die Vorzüge des Clients, vorausgesetzt, die Software unterstützt eine solche Verarbeitung.

Das Multiserver-Computing, bei dem die Anwendung auf mehrere Unix-Systeme verteilt wird, stellt heute - entgegen dem Urteil sogenannter Marktkenner - keine Utopie mehr dar. Entsprechende Software, die einerseits die verteilte Datenverarbeitung unterstützt und andererseits unter so verschiedenen Betriebssystemen wie AIX, HP-UX oder Sinix läuft, ist am Markt bereits erhältlich. Ebenso läßt sich die gemeinsame Datenbasis logisch verteilen.

In der Praxis gehört nicht selten zu jedem Unix-System, das in die Multiserver-Umgebung eingebunden ist, eine andere Datenbank. In diesem, Fall kann mit einem integrierten Informations- und Logistiksystem dafür gesorgt werden, daß von jedem Arbeitsplatz im Netzwerk aus ein integrierter SQL-Zugriff auf die verschiedenen relationalen Datenbanken (zum Beispiel Oracle, Informix, Sybase, Ingres) möglich ist - also auch auf diejenigen Datenbanken, die physikalisch auf einem anderen Unix-System liegen. Eine solche Software existiert heute bereits. Das bedingt natürlich ein durchdachtes Zugangs-Kontrollsystem. Gleichwohl lassen sich die bisher getätigten Investitionen schützen.

Die Verteilung der Funktionen eines integrierten Informations- und Logistiksystems könnte folgendermaßen aussehen: Auf dem ersten Unix-System installiert man die Komponenten Produktionsplanung und -steuerung, Hauptproduktionsplan, Materialbedarfsplanung, Kapazitätsbedarfsplanung, Projektverwaltung, Produktkonfigurator (Variantenfertigung) Chargenverfolgung und -verwaltung, CAD-Zeichnungsverwaltung (CAD-Schnittstelle zur Konstruktion) und 4GL-Tools für benutzerspezifische Erweiterungen.

Das zweite Unix-System wird mit Modulen zur Produktions-Feinplanung und -Steuerung ausgestattet, darunter der Leitstand, die Betriebsdatenerfassung und die Lagersteuerung. Ein dritter Rechner, ebenfalls eine Unix-Plattform, liefert kommerzielle Anwendungen für die Bereiche Einkauf und Materialwirtschaft, Verkauf mit elektronischer Auftragsverarbeitung mittels Edifact, Wartung und Instandhaltung sowie Bürokommunikation.

Kostenrechnung, Finanz- und Anlagenbuchhaltung, Personalzeitwirtschaft sowie Lohn- und Gehalts- abrechnung sind auf dem vierten Rechner installiert. Auf den verschiedenen Systemen erfolgt in unserem Beispiel die Datenhaltung in C-ISAM beziehungsweise B-ISAM (C-ISAM mit Transaktions-Manager) in relationalen Datenbanken (Oracle, Informix Online).

Organisatorisch läßt sich die Multiserver-Umgebung mit Hilfe eines Gesamtkonzeptes planen. Darin ist festzulegen, inwieweit die Anwender in einer Abteilung auf Anwendungen einer anderen zugreifen können. Das ist zum Beispiel bei der einheitlichen Nutzung der Bürokommunikationslösung mit Textverarbeitung, Tabellenkalkulation, Geschäftsgrafik, E-Mail etc. wichtig.

Der Weg zum Multiserver-Computing, so läßt sich abschließend feststellen, führt nur über hochmoderne flexible Informationssysteme die system- und datenbankunabhängig konzipiert sind und die neuen Techniken wirtschaftlich nutzen. Eine 4GL-Entwicklungsumgebung und eine komfortable Benutzeroberfläche mit Window-Technik zählen für solche Systeme schon zum Standard.

Denkt man an Konzernunternehmen und weltweite Netzwerke, kommt noch eine weitere Anforderung hinzu, den die Software erfüllen muß: Internationalität.

Dazu gehört neben der Verfügbarkeit in mehreren Sprachen, die auch im Parallelbetrieb zur Verfügung stehen, ein internationaler Support. Das richtige Logistiksystem einzusetzen bringt einen strategischen Wettbewerbsvorteil.