Rechnerverbund erhöht die Leistung jeder einzelnen Maschine:

Supermini-Netze machen sich bezahlt

01.04.1988

Welche Alternativen bieten sich dem Mainframe-Anwender, der einen gestiegenen Bedarf an Rechnerleistung decken muß? Dabei wird von vornherein unterstellt, daß der Mainframe-Anwender auf das Arbeiten mit einem oder mehreren Großrechnern nicht verzichten will.

Auch ein Sonderfall ist ein Fall - selbstverständlich. Doch welchem Anwender würde es schon weiterhelfen, die Frage zu diskutieren, ob und warum die komplette Ablösung eines Mainframe durch einen Supermini-Netzverbund sinnvoll sein könnte oder sich bereits in einem Einzelfall als sinnvoll erwiesen hat? Sonderfälle eignen sich zum Weitererzählen am Stammtisch oder in der Zeitung. Ansonsten fordern die Routine und die Realität des Alltags ihr Recht.

Unsere Annahme, daß der Mainframe-Anwender auf das Arbeiten mit einem Großrechner nicht verzichten will, beruht darauf, daß es in größeren Wirtschafts- oder Organisationseinheiten regelmäßig einen Bereich wirklich zentraler Aufgabenstellungen gibt. Und für den ist der Mainframe der geeignete Rechner. Das hat nichts mit der gelegentlich vertretenen These zu tun, daß die Anwender sich ihrem Großrechnerlieferanten in geradezu irrationaler Weise verbunden fühlen und sich darum nicht selten auf zweitrangige Lösungen einlassen.

Unter diesen Prämissen nochmals gefragt: Wie kann der Mainframe-Anwender seinen Rechner-Mehrbedarf decken? Er kann, sollten alle Aufrüstmöglichkeiten der vorhandenen Maschine(n) erschöpft sein, einen größeren oder einen zusätzlichen Mainframe erwerben - natürlich. Er kann seinem Mainframe auch diverse Front-End- oder Back-End-Rechner zuschalten. Oder er kann - und das ist realistischer - sich dazu entschließen, den Mainframe von den ihm nicht gemäßen Aufgaben zu befreien und diese Aufgaben auf Abteilungsrechner zu übertragen, die in aller Regel zu verknüpfen wären - sowohl untereinander als auch mit dem Mainframe und mit Workstations beziehungsweise PCs.

Netze sind im Kommen

Der folgende Ansatz ist realistisch - und dies in mehrfacher Hinsicht:

Die Zahl der Großanwender, deren DV-Bedarf sich im wesentlichen auf zentrale und Massendaten beschränkt - und damit auf Mainframes - , dürfte nicht allzu groß sein. Es überwiegt eindeutig der Anwender, der sich in gleichem Maße mit zentralen wie mit dezentralen Aufgabenstellungen konfrontiert sieht.

Für dezentrale Aufgaben geeignete Rechner sind am Markt erhältlich. Das Leistungsspektrum wie auch das Preis/Leistung-Verhältnis weist den Rechnern vom Schlage der Superminis, Supermikros, Workstations oder PCs hier eine herausragende Rolle zu.

Die Standards wie auch die Netzsoftware, die einen sicheren Betrieb lokaler wie großflächiger Netze gewährleisten, sind heute vorhanden.

Es gibt bereits eine beträchtliche Zahl von Anwendern, die angesichts dieser Sachlage in Rechnernetze investiert haben und ihre Mainframes damit von bestimmten Aufgaben entlasten.

Die dezentralen Aufgaben oder Abteilungsanwendungen, von denen hier die Rede ist und die aus einer ganzen Reihe von Gründen auf einem Mainframe nicht besonders gut, weil viel zu kostspielig, aufgehoben sind, umfassen - über Anwendungen wie Einkauf, PPS und Lagerbestandsführung hinaus - vor allem das Abrechnen von Aufwendungen aller Art, große Bereiche der Softwareentwicklung und Dinge, für die der Experte Schlagworte wie "Filesharing", "Updating" oder "Ad-hoc-Abfrage" verwendet.

Möglichkeiten und Risiken

Die Einsatzgebiete, auf denen sich der Mainframe bewährt und von den Superminis nicht viel zu befürchten hat, sind

- Massendatenverarbeitung (Number-Crunching), vornehmend im Stapelbetrieb, und

- Führung der zentralen Datenbanken, insbesondere der "empfindlichen" Unternehmensdaten.

Es ist offenkundig, daß beispielsweise der Disponent im Auslieferungslager die von ihm benötigten Daten nirgendwo teurer speichern und abfragen kann als auf dem Mainframe.

Aus dem Gesagten den Schluß zu ziehen, daß nur noch der Schritt in die Welt der (Super-)Minis und -Mikros vollzogen werden muß, um der dort zu erwartenden Segnungen teilhaftig zu werden, wäre etwas voreilig. Die neuen Rechnergenerationen nämlich haben dem Anwender das beschert, was er noch vor wenigen Jahren vergeblich suchte: Vielfalt und Gestaltungsmöglichkeiten, vice versa aber auch Risiken und "Schrott".

Das bedeutet: Der Anwender muß im eigenen Interesse exakt analysieren, wie sein Bedarf strukturiert ist - und dies nicht nur kurzfristig. Von dieser Grundlage aus muß er "seine" jeweilige Arbeitsumgebung so präzise wie noch nie zuvor in seiner Informationsverarbeitung abbilden. Ein präzises Abbild wird er nur dann erhalten, wenn er die Veränderungen in der realen Welt von seiner betrieblichen Informationsverarbeitung flexibel und dynamisch nachvollziehen kann.

Vorteile der Gemeinsamkeit

Es gehört in der Tat nicht allzuviel seherisches Vermögen dazu, vorherzusagen, daß die vom "durchschnittlichen" Anwender benötigte Rechnerleistung in Zukunft höher sein wird als heute. Wachstumsvorgänge sind bekanntlich nie ganz schmerzfrei. Im hier vorliegenden Fall aber kann man die Schmerzen in Grenzen halten, etwa indem man sich gezielt mit Computern bestückt, die "im Feld" aufrüstbar sind.

Solche Rechner sind am Markt verfügbar - gleichgültig ob der Anwender sich für lose oder eng gekoppelte Systeme entscheidet. Lose Kopplung bedeutet, daß jeder Rechner im Netz seinen eigenen Hauptspeicher und sein eigenes Betriebssystem hat, wohingegen bei der engen Kopplung mehrere Prozessoren unter einem Betriebssystem einen gemeinsamen Speicher und einen gemeinsamen Peripheriepool nutzen. Der Vorteil einer "inkrementellen" Konfiguration liegt vor allem in der guten System-Performance, während bei "loosely coupled" Rechnern, die auch zu einem internen Lastenausgleich in der Lage sind, mehr Selbständigkeit und geringere Auswirkungen bei Ausfällen zu verzeichnen sind. Und warum soll der Anwender diese Systeme in einem Netz zusammenbinden? Einfach weil die ökonomischen Vorteile, die aus einer vereinfachten, verbesserten und beschleunigten Kommunikation, aus gemeinsamer Datenhaltung (keine wiederholte Dateneingabe) und aus gemeinsamer Nutzung teurer Ressourcen (Beispiel: Laserdrucker) erwachsen, vernünftigerweise keine andere Systemkonfiguration empfehlenswert erscheinen lassen.

Betriebssystem-VielfaIt

Die große Vielfalt der Systemvarianten und -philosophien, denen der Anwender sich bei der Netz-Hard- und -Software gegenübersieht, beschert ihm auf der anderen Seite ein ganz erhebliches Entscheidungsproblem. Unter welchem Betriebssystem sollen seine Netzrechner laufen? Unterstellt, der Mainframe kommt aus der MVS-, VM- oder VSE-Welt und die Entscheidung über das Netzdesign fällt "auf der grünen Wiese", so hat der Anwender die Wahl zwischen 1:1-IBM-Kompatibilität, SNA-Kompatibilität (mit den Stufen Dialog, Peer-to-Peer, Batch und Filetransfer), Unix/Pick oder herstellereigenen Betriebssystemen, wie sie auf vielen Supermikros, Minis, Superminis und anderen Rechnern implementiert sind.

Die letztgenannte Alternative steht dann zur Verfügung, wenn alle Netzrechner vom selben Hersteller stammen. Der Vorteil dieser "Proprietary"-Betriebssysteme besteht darin, daß sie speziell auf die jeweilige Hardware abgestimmt sind und daher viel effizienter sein können als ein offenes System wie Unix. Existiert beim Anwender jedoch bereits ein Hardware-Mix aus Systemen unterschiedlicher Hersteller, so bewegt sich sein Entscheidungsspielraum in aller Regel zwischen Unix und der Beibehaltung der Proprietary-Betriebssysteme unter Verwendung des OSI/X.25- oder des SNA-Netzstandards.

Vollkommene Transparenz

Entscheiden muß der Anwender sich auch über die Art der Vernetzung, die er vornehmen will. Handelt es sich um eine PC-PC-Verbindung? Oder um eine PC-Host-Verbindung? Oder um eine Host-Host-Verbindung? Üblicherweise geschieht die Vernetzung nach dem vom jeweiligen Rechnerhersteller gewählten Verfahren, beispielsweise im Wege einer Bus-zu-Bus-Verbindung unter einem herstellereigenen Netzbetriebssystem. Bei hochentwickelten Netzen darf der Anwender vollkommen transparent, also absolut änderungsfrei ablaufende Anwendungssoftware und hohe Übertragungsraten von über 10 Megabit pro Sekunde, erwarten.

Weit verbreitet sind jedoch die Multivendor-Konfigurationen, deren Vernetzung in den meisten Fällen nach einem der offiziellen (X.25) oder De-facto-Standards (SNA) zu erfolgen hat. Weitergehende Erörterungen (etwa auch von Protokollen wie TCP/IP oder von Kabeltechniken) müssen hier unterbleiben.

Die Frage, ob er seine Datenbanken zentral oder dezentral führen soll, verlangt dem Anwender die nüchterne Erwägung ab, wo er die wichtigen Unternehmensdaten am sichersten weiß, und ob - pointiert gesagt - das Price-Look-up der Datenkasse über die mehrere hundert Kilometer entfernte zentrale Datenbank zu laufen hat.

Es gibt Standard-Datenbanksysteme wie etwa "Oracle" und andere weltweit verbreitete Standardsoftware wie etwa "Windows", SQL, Cobol-85 oder das 4GL-Softwareentwicklungssystem "CorVision", dessen netzweiter Einsatz sich für den Anwender schnell auszahlt. Das Stichwort heißt hier "Portabilität". Wenn eine Anwendung auf einem der Superminis im Netz in Oracle geschrieben worden ist, dann kann sie auch auf einem anderen Rechner - etwa auf einem der anderen Superminis im Netz - ablaufen, zumindest aber sehr schnell ablauffähig gemacht werden - sofern Oracle auf diesem Rechner ebenfalls implementiert ist.

Lohn der Freiheit

Portabilität dieser Art kann von Hersteller-Betriebssystemen herüberreichen zu Unix- und zu anderen Hersteller-Betriebssystemen. Es kommt nur darauf an, daß die zugrunde liegenden Standards jeweils implementiert sind. Und dies ist auch zunehmend der Fall. Es ist nicht einzusehen, daß der Anwender auch nur einen Bruchteil der Freiheit, die solche Standards ihm verschaffen, irgendwelchen Partikulärinteressen (auch: -schwächen) opfern soll.

Warum soll der Anwender sich herumplagen, wo der Markt doch Hard- und Softwareprodukte mit offener Systemarchitektur bereithält, die durchgängig auf anerkannten Standards basieren oder zu ihnen hin offen sind?

Den Mainframes droht keine Gefahr. Doch die Superminis haben begonnen, Teile des Marktes zu erobern.