IT-Rezentralisierung/Super-Server: Will erst noch einer werden und ist doch schon einer

Rezentralisierung findet immer günstigere Rahmenbedingungen

30.06.2000
Nicht nur weil ihre Beschaffungs- und Betriebskosten mittlerweile moderat genannt werden können, ergeben sich für die Mainframes immer bessere Chancen, die Zufluchtstätten, die ihnen das Überleben ermöglicht haben, in Angriffsbasen zu verwandeln: Enterprise-IT-Implementierungen mit dem Mainframe als Trägersystem, das für die Core-Applications einschließlich des E-Business verantwortlich ist, sind in deutschen Unternehmen Gegenstand ernsthafter Erwägungen.Von Jochen Ewe*

Es gibt sie schon - die Super-Server, und das nicht nur der günstiger gewordenen Kostenstruktur wegen, sondern auch aufgrund der Tendenz zur Server-Konsolidierung, ferner wegen der sprichwörtlichen Zuverlässigkeit der Mainframe-Plattform und wegen ihrer relativen Offenheit: Der Mainframe kann mit so ziemlich jedem heterogenen System.

Über Unternehmen, die den Mainframe in das Zentrum ihrer IT gestellt haben und eben auch moderne E-Business-Anwendungen über diese Plattform fahren, berichtet beispielsweise IBM-Sprecher Hans-Jürgen Rehm - ohne jedoch konkrete Installationen zu nennen. Amdahls S/390-Produkt-Manager Friedrich Hauger sagt: "Große produktive Einsätze des Super-Servers sind mir nicht bekannt; aber diese Option ist nicht mehr nur im Entwicklungsstadium. Anders gesagt: Ich weiß definitiv, dass bei den Anwendern über den Mainframe als Super-Server nicht bloß nachgedacht wird." Volker Zdunnek, bei Bull Produkt-Manager Zentraleuropa für die gesamte Peripherie und für das Betriebssystem GCOS8, spricht ehrlicherweise von einem Angebot, das den Bull-Kunden seit einigen Monaten zur Verfügung stehe, auf das aber im deutschsprachigen Raum noch kein Interessent eingegangen sei.

Das liege nicht etwa daran, sagt Zdunnek, dass Bull auf dem Gebiet der Verknüpfung heterogener Systeme ein Neuling sei. "Wir haben die Betriebssysteme GCOS7 und GCOS8 schon lange für offene Systeme zugänglich gemacht. Dazu setzen wir Interoperabilitätskomponenten ein, und die bewirken, dass die Anwendungen auf beiden Plattformen miteinander kommunizieren können. Das alles haben wir längst implementiert." Zdunnek berichtet von Kunden, die auf der GCOS-Seite Transaktionsanwendungen installiert haben, die mit den lose (über TCP/IP) angekoppelten Unix-Systemen Applikationsdaten austauschen. Überhaupt seien auf Softwareebene mittlerweile so viele Funktionalitäten entwickelt worden, "dass die bei einem Kunden existierenden Unix-surrounded und NT-surrounded Welten ohne weiteres an eine Mainframe-Plattform angebunden werden können", so der Bull-Manager .

"Unser Ziel aber ist der Rechner, der zwei über ein Fast Link gekoppelte Hardwarearchitekturen, zwei Betriebssysteme und nur eine Systemsteuerung umfasst. Er vermittelt nicht nur den Eindruck einer geschlossenen Welt; er stellt eine solche Welt tatsächlich dar und trägt den Namen Super-Server darum zu Recht", betont Zdunnek. Was die Leistung der CMOS-Prozessoren betrifft, so sieht der Bull-Manager keinen Anlass, eine Alleinherrschaft der Intel-Prozessoren zu fürchten (und darum vom dualen Hardwareansatz abzurücken): "In diesem Jahr wird unsere CMOS-Technologie das Leistungsniveau der bisherigen ECL-Prozessoren erreichen; und die Entwicklung geht stürmisch voran."

Aber taugt der Mainframe nicht seit langem schon als "Zentralbahnhof für sämtliche Regional- und Fernzüge"? Taufrisch ist die Offenheit des Mainframe jedenfalls nicht. Die erste Unix-Implementierung auf dieser Plattform datiert bereits aus den 70er Jahren: Amdahls Mainframe-Unix namens UTS. Seit längerem gibt es auch das MVS-Feature "Open Edition", das IBM unter dem Stichwort "Unix Systems Services" in das Betriebssystem OS/390 integriert und somit die Unix-Oberfläche unter OS/390 standardmäßig verfügbar gemacht hat. Bull verknüpft seine GCOS-Server jetzt in einer Twin-Architektur mit dedizierten AIX-Prozessoren, an die auch Workstations und Clients angebunden werden können - die zum Beispiel unter NT laufen.

Auch Linux ist auf der Mainframe-Plattform kein Exot mehr. IBM - und das ist nur eines unter vielen Beispielen - kündigte im vergangenen November in einem Statement of Direction die Unterstützung dieser Opensource an - ein Versprechen, das inzwischen eingelöst wurde. Wer auf Anwendertagungen geht, kann dem Thema Linux ohnehin nicht entkommen. Was NT betrifft, so gibt es am Markt Middleware, die NT-Applikationen in Kooperation mit dem Mainframe ablauffähig macht. Doch ist der Mainframe damit schon die alles vereinigende Plattform?

Bull-Mann Zdunnek sieht dafür zwar Indizien: "Die Unix- und NT-Systeme kümmern sich nicht um den Rest der Welt, während die Mainframes, um bestehen zu können, sich öffnen mussten und geöffnet haben. Es gibt viele Kunden, die das nutzen." Dann jedoch betont er erneut: "Um von einem Super-Server sprechen zu können, muss die Hardware über eine interne Bus-Architektur so miteinander verknüpft sein, dass sie das Prädikat +tightly coupled+ verdient. Außerdem darf für das Gesamtsystem nur noch eine Administration nötig sein."

Der Super-Server, glaubt Zdunnek, kommt auf jeden Fall, spätestens wenn Intels iA-64-basierte Architektur sich durchgesetzt hat und die gängigen Betriebssysteme unterstützen wird. Dann sollen die GCOS-Funktionen weiterhin von CMOS-Prozessoren wahrgenommen werden; und an die Stelle der heute noch eingesetzten dedizierten Unix-Prozessoren sollen Intel-Knoten treten. Zdunnek: "Wir beginnen in diesem Jahr mit der Entwicklung und werden spätestens 2003 so weit sein." An eine ähnlich "zwangsläufige" Entwicklung glaubt man auch im Haus Fujitsu-Siemens. Als Zeitspanne für den Mainframe-basierten Super-Server prognostiziert Sprecherin Barbara Eckrich "eineinhalb bis zwei Jahre, bis er am Markt sein wird".

Die Anwender, so Eckrich, werden dann abzuwägen haben, wie sie ihre Abhängigkeit vom zentralen System verringern und Verfügbarkeitsproblemen entgehen können. Fast noch schwieriger lösbar, glaubt sie, könnte das Problem der Mainframe-Skills sein - sprich: der Rekrutierung qualifizierter Mitarbeiter. So gibt es denn auch Marktbeobachter, die die relative Stille um die Rezentralisierung damit erklären, dass aus Vorsicht viele Unternehmen nicht zu erkennen geben wollen, im Besitz solch kostbarer Manpower zu sein.

Für Amdahl-Manager Hauger wiegt eine andere Unzulänglichkeit schwerer: "In den Punkten Shared Data und Data Sharing bestehen nach wie vor große Unterschiede zwischen Theorie und Praxis." Amdahl reduziert dieses Problem durch die Zusammenarbeit mit Network Appliance, denn: "Die Server von Network Appliance schaffen die Möglichkeit, zwischen NT- und Unix-Plattformen wirkliches Data Sharing zu machen, also von unterschiedlichen Plattformen aus auf gemeinsame Dateien zuzugreifen. Das reine Data Sharing zwischen allen Plattformen, wie es vor allem die Speicherhersteller propagieren, gibt es noch nicht." Meistens würden sich diese Hersteller mit einem Trick behelfen und die in ein und demselben Speichermedium befindlichen Volumes teils der /390-Welt, teils der Open-Systems-Welt zuordnen.

Trotz dieser und anderer Widrigkeiten gilt: Die Zeiten, in denen der Mainframe dank seiner Qualitäten als Datenbank-Backend-Server ein Auskommen fand, sind - erstens nicht vorüber; derartigen Service erbringt dieser Rechner auch weiterhin. Zweitens werden inzwischen auffallend viele neue Applikationen auf der Mainframe-Plattform implementiert - Unix-Anwendungen ebenso wie NT-Programme; und 80 Prozent aller Neuentwicklungen sind nach Angaben von Fachleuten E-Business-orientiert. Hauger bestätigt dies: "Portierungen oder Migrationen bestehender Anwendungen sind ziemlich selten, aber die geschäftskritischen unter den neuen Anwendungen werden zunehmend wieder dem Großrechner anvertraut. Das heißt, der Mainframe wird mehr und mehr zum Anwendungsrechner für die Welt der offenen Systeme. Unterstützt wird dieser Trend auch von den Großunternehmen, die nach Abschluss der Jahr-2000-Umstellung ihre IT-Manpower endlich auf E-Business-Projekte lenken können."

Hauger kennt noch weitere Gründe, die für den Mainframe ins Feld geführt werden können: "Die Kunden sind es langsam leid, ihre 1000 Server zu pflegen. Sie tendieren darum zur eierlegenden Wollmilchsau. Server-Konsolidierung vereinfacht nämlich nicht nur das System-Management, sie kann sich auch rechnen - auch und gerade was die Softwarekosten und ihre Kontrolle betrifft." Hauger verweist dazu auf die rapide steigenden MIPS-Zahlen und auf Amdahls "Multiple Server Feature", das die Prozessorleistung aufteilt und somit den Anstieg der Softwarekosten bremsen hilft.

Und das Murren in Benutzerkreisen - so etwa beim Guide Share Europe - über das ausufernde Software-Pricing? Diese Kritik sei berechtigt, sagt Hauger, doch er macht geltend: "Für die Anwender hat sich die Kostensituation im /390-Umfeld speziell in den letzten Jahren aufgrund der gesunkenen Hard- und Softwarepreise nicht verschlechtert. Zwar lassen die Listenpreise die Systeme teuer aussehen; es gibt aber mehrere TCO-Studien, die den Mainframes sinkende Administrationskosten und eine sehr gute Wettbewerbsposition gegenüber den anderen Plattformen attestieren. Ein Indiz dafür ist ja gerade auch das Bestreben, den Mainframe nicht mehr nur als Datenbank-, sondern auch als Anwendungs-Server für E-Business- und ERP-Systeme einzusetzen."

Bewegung im kapazitätsorientierten Software-Preisschema ist auch bei IBM zu erkennen. So ist Big Blue bereit, dem Anwender, der für seinen Großrechner die LPAR-Option nutzt und ihn dadurch in logische Partitionen einteilt, die mit Linux geladenen Prozessorblöcke aus der OS/390-Lizenzierung herauszurechnen (vergleiche COMPUTERWOCHE Nr. 21 vom 26. Mai 2000, Seiten 47 f.).

* Jochen Ewe ist freier Journalist in Flintsbach am Inn.

Der nächste Schritt ist der Super-ServerAus der Sicht des Bull-Managers Volker Zdunnek

In den drei Jahrzehnten Tätigkeit für den Hersteller Bull und zuvor etlichen Jahren bei den Firmen AEG-Telefunken, ICL und Nixdorf hat sich ein respektabler Erfahrungsschatz angesammelt. Und so begann alles: Als die Computer für die Unternehmen - zunächst für die Großunternehmen - immer wichtiger zu werden begannen, entschlossen sich diese, eigene Anwendungen zu entwickeln. Das waren naturgemäß diejenigen Anwendungen, die für die Unternehmen die größte Bedeutung hatten. Meistens behielten diese Applikationen ihre Bedeutung über Jahrzehnte hinweg - mit der Folge, dass sie ständig angepasst und ausgebaut wurden. So entstanden die Mission-critical Applications; und die lassen sich nur sehr schwer gegen andere Software austauschen.

Dann kam die Client-Server-Welle und schwappte am Rechenzentrum (hauptsächlich wegen der schwergewichtigen geschäftskritischen Anwendungen, aber auch wegen der ablehnenden Haltung vieler IT-Verantwortlichen) weitgehend vorbei. In den Abteilungen der Unternehmen wurden nun sehr viele heterogene Systeme installiert, und schon bald wusste niemand mehr, welche Systemressourcen und Daten wo existierten, wo welche Kosten anfielen etc.

Nachdem diverse TCO-Analysen wieder und wieder die Problematik einer derart verteilten IT aufgezeigt hatten, entsann man sich des Mainframes und seiner konsolidierenden Qualitäten. Bei ihm waren die Dinge, die man nicht verteilen kann, nämlich Verwaltung, Ressourcen-Management und dergleichen, gut aufgehoben - "gut" auch im Sinne von günstig. Denn Einheitlichkeit bei Speicher-Management, Systemsteuerung etc. ist immer auch Kosten sparend.

Die Rückbesinnung auf den Mainframe kam beinah zu spät. Denn viele Kunden waren in der Zwischenzeit zu den vermeintlich offenen Systemen abgewandert, was den einen oder anderen Mainframe-Anbieter zu einem mehr oder minder vollständigen Rückzug von der proprietären Plattform gezwungen hatte. Doch es gab Mainframer wie IBM und Bull, die eine andere Philosophie verfolgten: "Wir müssen die Systeme so offen machen, dass der Kunde die selbst entwickelten Anwendungen weiter benutzen und sich trotzdem neue Bereiche wie E-Commerce, Data Warehouse und Decision Support erschließen kann." Die dazu notwendige Interoperabilität stellten die Mainframer zunächst durch umfangreiche Middleware sicher. Der nächste Schritt ist der Super-Server.

Abb.1: Twin-Architektur von Bull

Die Twin-Architektur mit zwei Prozessorfamilien: GCOS-7-Prozessoren für Batch- und TP-Anwendungen, Open-7-Prozessoren für Anwendungen wie Java, FTP oder Entry Web-Server. Quelle: Bull

Abb.2: Die Twin Machine von Bull

Übergang von dedizierten Prozessoren zu Intel-Chip-basierten Knoten in Kombination mit den CMOS-Plattformen, die die GCOS-Funktionen ausführen. Quelle: Bull