Großrechner müssen sich neueren Techniken öffen

Einbindung von Mainframes in Client-Server-Umgebungen

26.04.1991

Immer wieder verurteilte "Saurier" der DV-Branche verspottet. Neue Technologien mit kleineren Rechnern machen ihnen ihre bisher zentrale Stellung streitig. Trotzdem sieht Peter Pagé Chancen für die Großrechner, sich auch künftig zu behaupten - als Teil einer Client-Server-Umgebung.

Bevor Unix-basierte "offene" Systeme auftauchten, schien die DV-Welt wohlgeordnet. In den Unternehmen existierte - eine strategische "Groß-DV" mit den für den Geschäftsverlauf wichtigen Anwendungen, darunter lag die lösungsorientierte "mittlere DV", die ihre Stärke aus dem Angebot von vorgefertigten Lösungen bezog. Schließlich gab es noch die benutzergerechte "persönliche DV", in deren Rahmen der Endbenutzer auf dem PC seine eigenen Daten und Programme zu Lösungen zusammenstellen konnte. Diese Welten existierten mehr oder weniger friedlich nebeneinander, und gute Gründe sprachen dafür, diese Trennung aufrecht zu erhalten.

Mit der Client-Server-Technologie wurde es - besonders in der Unix-Welt - möglich, mehrere Maschinen zu verbinden, Anwendungen beziehungsweise Benutzer (Clients) sowie Daten und allgemeine Dienstleistungen (Server) auf getrennten Maschinen unterzubringen und damit das Rechnernetz quasi als integrierten Gesamtrechner nutzbar zu machen. Es ist absehbar, wann auch das Leistungsspektrum von Mainframes durch derartige Netze dargestellt werden kann.

Bisherige Investitionen müssen einbezogen werden

Angesichts der klaren Preisvorteile in der Unix- und OS/2-Welt drängt sich die Frage auf, wie man die neuen Welten der Intel-, Motorola- und RISC-Chips erschließen kann, ohne dabei die bestehenden Anwendungslösungen und bewährten Verfahren für deren Betrieb in Frage stellen zu müssen. Für die Anwender ist es besonders verwirrend, daß die bisherigen Konzepte und Architekturen der Hardwarehersteller - von IBMs SAA und Digitals NAS bis zum Siemens-Betriebssystem BS2000 oder VS von Wang die Unix-Welt nicht klar einbeziehen. Allerdings nehmen auch die Unix-Anbieter die existierende kommerzielle DV kaum zur Kenntnis.

Wenn "offene" Systeme dem Anwender helfen sollen, wettbewerbsfähiger zu werden, indem er mit ihrer Hilfe DV wirtschaftlicher betreiben kann, müssen sie die bisher getätigten DV-Investitionen einbeziehen. Es erscheint daher voreilig, wenn einige Anwender angesichts der steigenden Systemkosten im Mainframe-Bereich bereits zu radikalen Maßnahmen greifen und für Unix eine völlig neue DV-Landschaft mit neuen Lösungen aufbauen.

Der Mainframe ist heute für die Abwicklung der traditionellen Batch-orientierten Routinearbeiten im Transaktionsbereich (TP) zuständig, in dem eine große Zahl von Benutzern online mit Anwendungslösungen unterstützt werden muß. Größenordnungen von mehr als 500 Benutzern sind durchaus üblich.

Der Schlüssel liegt in der Verbindung

Demgegenüber waren Unix-Umgebungen ursprünglich darauf ausgelegt, einem einzelnen Benutzer - meist einem Software-Entwickler - im Timesharing die gesamte Rechnerumgebung anzubieten. Heute bedienen Unix-Systeme als sogenannte Server mehrere Benutzer parallel, wobei für die Bearbeitung einer Anwenderfunktion außerhalb von Datenbanksystemen noch keine besonderen Techniken angewandt werden, damit die Benutzer im Sinne eines TP-Systems möglichst viele Ressourcen gemeinsam nutzen können. Deshalb können Unix-Rechner trotz der enormen Prozessorleistung im Online-Betrieb nur eine relativ kleine Zahl von Benutzern (zirka 150) parallel bedienen.

Die besondere Leistung des Mainframes liegt also in der weitgehenden Automatisierung des Betriebs bei Routineaufgaben und der Unterstützung von vielen Benutzern. Unix wiederum stellt dem einzelnen Anwender eine wesentlich größere Rechnerleistung zur Verfügung, läßt ihn bei der Nutzung aber weitgehend auf sich gestellt. Aufgrund dieser unterschiedlichen Leistungsmerkmale dürfte es in absehbarer Zukunft nicht möglich sein, alle Großrechner durch Unix- oder OS/2-Umgebungen für organisierte Routinearbeiten und TP-Anwendungen zu ersetzen. Der Schlüssel liegt also in einer Verbindung beider Welten.

Proprietäre Systeme als "offen" vermarktet

Bestehende, durch herstellerspezifische Architekturen wie etwa OS/2 geprägte Konzepte ergänzen die Großrechner-Welt durch Workstations. Der Mainframe übernimmt die Verarbeitung von Anforderungen, während die Workstation zum Beispiel prozessorintensive grafische Aufbereitung der Ergebnisse beziehungsweise die Vorverarbeitung der Anforderung abwickelt.

Diese Rollenverteilung wird zwar häufig als Client-Server-Konzept bezeichnet, sie ist jedoch "geschlossen". Da sie auf Basis proprietärer Kommunikationsprotokolle existiert, repräsentiert sie nur die Teilwelt eines einzigen Hardwareherstellers. Das Verhältnis zwischen den Rechnern läßt sich daher richtiger mit der Bezeichnung Master-Slave beschreiben, da zwischen den Komponenten keine Gleichberechtigung besteht.

Damit wird das eigentliche Ziel einer "offenen" Unix-Architektur nicht erreicht - insbesondere nicht die Verbindung der Mainframe-Welt mit den "genormten" OSI-Kommunikationsprozeduren. In der "offenen" Client-Server-Welt, die im Prinzip nicht an Unix als Betriebssystem gebunden ist, wird die gesamte Rechnerleistung des Netzes quasi zu einem einzigen System zusammengefaßt (Network Computing). Darin kann jeder Nutzer auf alle Ressourcen und Anwendungen zugreifen, unabhängig davon, wo diese implementiert sind.

Innerhalb der nächsten fünf Jahre dürfte diese neue Welt der vernetzten Clients und Server die Prozessorleistung und Plattenkapazität großer Mainframes erreichen und damit eine der führenden DV-Techniken werden. Obwohl "Standards" zur Verbindung der Mainframe-Welt mit Client-Server-Netzen auf absehbare Zeit nicht verfügbar sein werden, können bereits heute durch geeignete Softwarebrücken die Portabilität und die Verbindung zwischen den verschiedenen Welten erreicht werden.

Um ein evolutionäres Wachstum zu gewährleisten, müssen schon heute neue Großrechner-Anwendungen so gestaltet werden, daß sie sich auch als Client-Server-Komponenten betreiben lassen. Da sich die Funktion eines Servers in der Unix-Welt heute meist auf Mehrbenutzer-Datenbanksysteme beschränkt, wird der Mainframe dort, wo er in die Client-Server-Welt eingebunden werden soll, konsequent als Datenbankserver gesehen.

Dieser Ansatz berücksichtigt zwar, daß der Großrechner in der Tat den Großteil der produktiven Daten verwaltet, vernachlässigt aber, daß er auch alle wesentlichen Anwendungen betreibt. Aus Gründen des Investitionsschutzes müssen diese auch bei einer Umstellung der DV-Organisation zugänglich bleiben.

Neue Anwendungen sollten unbedingt so implementiert werden, daß sie auf verschiedene Umgebungen portierbar sind. Hier ist der Einsatz von Werkzeugen der vierten Generation zu empfehlen.

Falls das nicht möglich oder gewünscht ist, sollten Applikationen wenigstens so strukturiert sein, daß alle Funktionen herausgelöst werden können, die auf Systemressourcen zugreifen.

Der Grund: In keiner existierenden DV-Umgebung sind heute die Schnittstellen zur Nutzung von Systemressourcen wie Datenbanken, Programm-zu-Programm- oder Bildschirm-Kommunikation so "stabil" normiert, daß sie bereits eine Zukunftssicherung darstellen. Das belegen schon die selbst in der Produktpalette eines Herstellers unterschiedlichen SQL-Schnittstellen. Auch sind die Kommunikationsschnittstellen für ein und dieselbe Funktion trotz SAA in ESA-, MVS-, OS/2-, VSEund VM-Umgebung noch völlig unterschiedlich.

Normierung ist noch nicht weit fortgeschritten

Durch die Verwendung aktiver Systemschnittstellen helfen Systeme der vierten Generation, die Folgen der Systemunterschiede vom Benutzer fernzuhalten. Verwendet der jedoch Sprachen der dritten Generation wie Cobol, dann muß der Anwender selbst geeignete Schnittstellen schaffen, die in den in Frage kommenden Umgebungen stabil sind.

Zwar existieren bestimmte höhere Kommunikationsprotokolle, die die Anwendung von den technischen Details der Kommunikation abschirmen. Die Normierungen für deren Inhalte (wie zum Beispiel EDI) ist jedoch noch nicht besonders weit fortgeschritten.

Bei der Verbindung des Mainframe mit Unix- beziehungsweise OS/2-Umgebungen kommen zudem jeweils unterschiedliche Zeichen- und Zahlendarstellungen (EBCIDIC beziehungsweise ASCII) zum Einsatz. Die unterschiedlich dargestellten Daten können zum Teil nur durch aktive Schnittstellen übersetzt werden, die die Formate der Inhalte kennen.

Des weiteren sollten Client-Server-geeignete Anwendungen so strukturiert sein, daß die einzelnen Funktionen möglichst gekapselt existieren und über solche Schnittstellen verbunden sind, die - wenigstens konzeptionell - auch über eine Kommunikationsschnittstelle abgebildet werden können. Hier gelten dieselben Gesetze wie in der "objektorientierten" Programmierung und Datenstrukturierung.

Integration bisheriger Mainframe-Anwendungen

Es sollen nicht nur künftige, sondern auch bereits bestehende Anwendungen in den Client-Server-Betrieb übernommen werden. Dazu müssen wir die Begriffe und Funktionen des Servers erweitern, damit er nicht nur Daten, sondern beliebige Ressourcen verwaltet und im Netz anbietet.

So könnten existierende Anwendungen als Server begriffen werden. In der Folge würde aus einer Benutzer-Schnittstelle eine Server-Schnittstelle, so daß Anforderungen von Funktionen aus dem Client-Server-Netz empfangen und weitergeleitet werden können.

Ein "aktiver Kommunikationsserver" setzt die Anforderungen aus dem Netz in einen 3270-Zeichenstrom um, wie er von der Anwendung verstanden wird. Techniken für einen solchen Anschluß sind zum Beispiel in der Open Function Server Technologie der Software AG realisiert.

Das Schicksal des Großrechners

Welche Rolle spielt also künftig der Mainframe in der Client-Server-Welt? Natürlich dient er noch für einige Zeit als Plattform für den Betrieb von Anwendungen, die für mehr als 200 Benutzer parallel verfügbar sein müssen.

Daneben wird er als "Datenserver" dem Rechnernetz seine Daten anbieten müssen und schließlich als Anwendungsserver fungieren, der bestehende Anwendungen im Netz verfügbar macht und daneben die Infrastruktur zur weitgehend automatisierten Abwicklung von wiederkehrenden Batch-Arbeiten bietet.

Die heute noch "geschlossene" Welt des Mainframes wird sich öffnen - ob sie das will oder nicht. Der beginnende Wettbewerb mit den neuen Technologien bietet aber auch die Chance zu beweisen, daß es Anwendungen im Client-Server. Netz gibt, die nur über den Mainframe optimal zu nutzen sind. In diesem Sinne verfügt der Mainframe zumindest über das Potential, längerfristig zu einem gleichberechtigten Partner in einer Client-Server-Umgebung zu werden.