Web

 

System-Managers Liebling ist der Mainframe

25.06.2001
Der Großrechner steht als Konsolidierungszentrum vor einer glorreichen Zukunft, erklärt Wolfram Greis, Vorstandssprecher der Central Europe Computer Measurement Group Cecmg e.V., Frankfurt, und Projektleiter bei der Schweizer TPS Data AG, im Gespräch mit der CW-Schwesterpublikation CW EXTRA.

Von Achim Born*

MÜNCHEN (COMPUTERWOCHE) -

Der Großrechner steht als Konsolidierungszentrum vor einer glorreichen Zukunft, erklärt Wolfram Greis, Vorstandssprecher der Central Europe Computer Measurement Group Cecmg e.V., Frankfurt, und Projektleiter bei der Schweizer TPS Data AG, im Gespräch mit der CW-Schwesterpublikation CW EXTRA.

CW EXTRA: Herr Greis, welches Thema brennt den Anwendern in Bezug auf das System- und Netzwerk-Management heute am meisten auf den Nägeln?

GREIS: Das größte Thema in Bezug auf das System-Management heißt in den Unternehmen heute Server-Konsolidierung. Eindeutig lässt sich eine Entwicklung weg von den Server-Farmen beobachten. Dieses Bild vermittelten zumindest die CMG-Tagungen in jüngster Zeit — unabhängig davon, ob sie in den USA, Deutschland oder im übrigen Europa stattfanden.

CW EXTRA: Woher kommt diese Entwicklung?

GREIS: Sie können Infrastrukturen, die sich aus immer mehr physischen Servern zusammensetzen, einfach nicht mehr vernünftig verwalten. Deshalb versuchen Unternehmen, die Dinge zusammenzuführen, um mit weniger Ressourcen auszukommen. Schließlich gibt es den Druck von der Kostenseite, und nach Analysen von Gartner schont der Mainframe bei vergleichbaren Installationen das Budget. Das Einsparpotenzial ist abhängig von der Anzahl unterstützter Benutzer. Je größer diese Zahl, desto mehr kann man durch Konsolidierung sparen.

CW EXTRA: Ein wenig erstaunt die Prioritätensetzung der Anwender schon. Denn legt man die aktuellen Werbebotschaften der Anbieter zugrunde, müsste sich doch alles um das E-Business drehen.

GREIS: Beides schließt sich doch wechselseitig nicht aus. Gerade die Server-Konsolidierung wird von dem Wunsch getrieben, das sich abzeichnende E-Business besser verwalten zu können. Entstanden bisher Probleme bei der Performance, griffen die Unternehmen zu dem Mittel, weitere NT-, Windows-2000- oder Unix-Systeme aufzustellen. Diese Server agieren dann zum größten Teil als dedizierte Systeme und kümmern sich nur um einen ganz bestimmten Service. Ein solcher Wildwuchs an Systemen ist relativ schlecht ausgelastet im Vergleich zum Großrechner. Auf Dauer können Sie das nicht beibehalten. Zudem lässt sich nur schwer kalkulieren, welche Rechnerleistung überhaupt für das E-Business benötigt wird. All das führt zu Überlegungen, die in der Konsolidierung auf eine skalierbare Mainframe-Architektur münden.

CW EXTRA: Brandneu sind die Themen Konsolidierung und Rezentralisierung ja nicht. Schließlich brachte Gartner schon vor rund fünf Jahren eine Betrachtung über Total Costs of Ownership für Client/Server-Infrastrukturen heraus, die auf die ausufernden Kosten für die Administration hinwies. Warum werden erst jetzt Konsequenzen gezogen?

GREIS: Vor fünf Jahren war der Mainframe noch nicht so weit. Es fehlten die technischen Voraussetzungen für Web-Services. Zwar konnte damals schon auf die Datenbanken und CICS-Transaktionssysteme des Mainframes zugegriffen werden, die eigentlichen Web-Services liefen aber außerhalb des Mainframes. Jetzt ist man einen Schritt weiter. Die Web-Services funktionieren auf dem Großrechner, und man kann die Konsolidierung angehen.

CW EXTRA: Was hat sich denn konkret geändert?

GREIS: Sie können heute Web-bezogene Services wie Firewalls oder demilitarisierte Zonen nicht nur vom Host aus steuern, Sie können sie auch auf derselben Hardware in einer eigenen Linux-Partition betreiben. Und unter Linux läuft der verbreitetste Web-Server Apache. Es lässt sich folglich auf einer physischen Hardware eine komplette E-Business-Umgebung inklusive Web-Server aufbauen, die durch Firewalls ebenso geschützt ist wie andere Umgebungen auch.

CW EXTRA: Das klingt nach einem Cluster-in-a-Box-Ansatz anstelle eines Clusters im LAN.

GREIS: Richtig, aber mit gewaltigen Performance-Vorteilen. Denn wenn alles auf derselben Hardware läuft, werden die komplexen Konvertierungen im Netzwerk nicht mehr benötigt. IBMs Konzept der Hyper-Sockets erlaubt hier quasi Netzwerkkommunikation mit Arbeitsspeichergeschwindigkeit. Und das bedeutet, dass man über Raten von Gigabyte pro Sekunde spricht.

CW EXTRA: Lange Zeit galt die Mainframe-Architektur aber nicht als ausreichend leistungsfähig und zukunftsträchtig - insbesondere wenn es um neuere Anwendungen ging. Ist denn das Thema Performance jetzt erledigt?

GREIS: Das wird nie erledigt sein. Aber im Grunde wird heute der Leistungsbedarf vom Großrechner am besten abgedeckt. Seitdem die CMOS-Technik eingeführt worden ist, gilt auch im Mainframe-Bereich das Moore’sche Gesetz der Verdoppelung der Prozessorleistung in einer Zeitspanne von 18 Monaten. Bei der zuvor genutzten ECL-Technologie betrug die Zykluszeit noch fünf Jahre. Die neuen Rechner sind also wesentlich schneller und können im Vergleich zu früher in der Entwicklungsgeschwindigkeit einigermaßen mit den Intel- und Risc-Prozessoren mithalten.

CW EXTRA: Gleichwohl stellt sich die Frage, warum man einen Mainframe wählen sollte. Zumindest die großen Unix-Systeme stellen doch in puncto Leistung eine Alternative dar.

GREIS: Der Punkt Verfügbarkeit ist die Domäne des Mainframes. Die fünf Neunen, also eine Verfügbarkeit zu 99,999 Prozent - manche fordern im Übrigen jetzt schon sieben Neunen oder 99,99999 Prozent - werden von ihm sicherlich am besten erfüllt.

CW EXTRA: Mit dem Etikett der fünf Neunen schmücken sich aber viele Hersteller.

GREIS: Wenn man sich allein auf die Hardwareverfügbarkeit beschränkt, schaffen das sicherlich viele Systeme. Ich meine an dieser Stelle aber die Anwendungsverfügbarkeit. Die interessiert die Unternehmen doch letztlich. Und hierfür fünf Neunen zu erreichen, ist beispielsweise unter Windows 2000 ungleich schwieriger als unter dem z900-Betriebssystem.

CW EXTRA: Aber die großen Unix-Systeme von Sun oder HP holen auf. Schließlich unterstützen ihre Betriebssysteme doch auch Konzepte wie Partitionen.

GREIS: Im Prinzip handelt es sich hier tatsächlich um eine vergleichbare Konzeption. Konkret strebt Sun allerdings eher an, kleinere Unix-Systeme und NT-Rechner zu konsolidieren. IBM zielt dagegen auf die Ablösung großer Unix-Systeme.

CW EXTRA: Ist das Interesse an Linux in den Rechenzentren denn tatsächlich schon in der Breite vorhanden?

GREIS: Nahezu alle großen Anwender, die ich kenne und die einen Mainframe im Hause haben, befassen sich damit. Sie haben sich zumindest eine Spielwiese geschaffen, um die Funktionstüchtigkeit von Linux auf dem Mainframe zu testen.

CW EXTRA: Was funktioniert denn da heute schon?

GREIS: Was auf jeden Fall funktioniert, ist die Einrichtung von Linux-basierten Web- und Anwendungsservern. Die liefen bislang in den Unternehmen auf dezentralen Unix-Systemen und werden nun vermehrt in einer Linux-Partition auf dem Großrechner installiert. Einer unserer Kunden, die UBS, verfolgt genau diese Strategie und möchte eine dreistufige Hardwarekonzeption durch eine Zweistufen-Architektur ablösen. Das für den Anwendungs-Server "Websphere" genutzte Sun-Betriebssystem Solaris soll zumindest teilweise durch eine Linux-Partition ersetzt werden.

CW EXTRA: Gibt es denn noch Schwachpunkte, die solchen Vorhaben entgegenstehen?

GREIS: Eigentlich nicht. Das größte Problem derzeit ist, dass es nicht überall Vertrauen in die Linux-Idee gibt. Es ist aber nur eine Frage der Zeit, bis Bedenken bezüglich Service und Ähnlichem der Vergangenheit angehören. Schließlich investieren die Distributoren und großen Hersteller wie IBM stark in die Services rund um Linux.

CW EXTRA: Die auf dem Mainframe vorhandenen Administrations-Tools lassen sich für die Linux-Partition aber nicht nutzen.

GREIS: Das stimmt, derzeit lassen sich Job-Steuerung und dergleichen nicht einsetzen. Deshalb gibt es ja auch die Diskussion um die Unix-System-Services, die direkt im z/900-Betriebssystem integriert sind und sich folglich in die Ablaufsteuerung einbinden lassen, auf der einen Seite und andererseits Linux in einer Partition. Wenn Anwender aber Unix-Anwendungen auf der Posix-Schnittstelle des z/900 laufen lassen wollen, werden sie in der Regel auf die Problematik der ASCII-EBCDIC-Konvertierung stoßen. Bei der Linux-Partition lässt sich stattdessen ASCII beibehalten. Zudem erhält man einen höheren Sicherheitsgrad, wenn die Firewall unter Linux läuft und somit nicht in der Partition des Produktivsystems betrieben wird.

CW EXTRA: Spricht überhaupt noch etwas für dezentrale Konzepte?

GREIS: Wenig. Was bislang fehlte, war doch die technische Möglichkeit zur Zentralisierung und ein Thin-Client-Konzept auf die Beine zu stellen. All das steht heute fast in einer Idealform zur Verfügung. Man kann E-Business-Anwendungen entwickeln, und es spielt keine Rolle mehr, auf welcher Plattform sie laufen. Sie können mit einem kleinen PC starten und später einen Mainframe nutzen. In der Praxis hemmen derzeit eigentlich nur die fehlenden Kenntnisse für das Zusammenspiel von Datenbanken, Transaktionen und so weiter. Es ist nicht damit getan, über Java- und HMTL-Programmierfähigkeiten zu verfügen.

CW EXTRA: Wie Sie eingangs bemerkten, wird die Konsolidierung primär durch den Wunsch nach einfacherem System-Management ausgelöst. Auch die Anbieter von Framework-Management-Lösungen, allen voran CA, HP und IBM/Tivoli, haben doch die Gartner-Untersuchungen zu TCO als Argumentationshilfe aufgegriffen und dem Anwender einen kostengünstigen Betrieb verteilter Systeme versprochen. Per Software sollte eine logische Sicht über die heterogene Infrastruktur gestülpt werden. Dieser Ansatz ist demnach gescheitert?

GREIS: Gescheitert würde ich nicht sagen — es ist schon möglich, über mehrere Plattformen hinweg ein konsolidiertes System-Management zu betreiben. Werkzeuge zum System-Management sind auch weiterhin unverzichtbar. Frameworks helfen in heterogenen Umfeldern aber nur bedingt weiter und führen angesichts der Plattformvielfalt nach wie vor zu einer Patchwork-Situation. Denn es gibt keinen Hersteller, der sämtliche Systeme und System-Management-Disziplinen perfekt abdeckt. Gleichzeitig existieren noch zu wenige leistungsstarke Schnittstellen und Standards, die ein Zusammenspiel unterschiedlicher Tools erlauben. Die Hersteller pochen zwar auf ihre Offenheit und APIs. Die Schnittstellen weisen im konkreten Fall aber weiterhin einen stark proprietären Charakter auf, und als Anwender hat man es schwer, unterschiedliche Produkte zusammenzubringen.

CW EXTRA: Das Schnüren von Paketen, die sich auf eine Management-Disziplin wie Speicher-Management konzentrieren und die sofort einsetzbar sein sollen, hilft auch nicht weiter?

GREIS: Speicher-Management ist ja nicht das einzige Problem im Betrieb. Sie haben Performance-Management, Datenbank-Administration und so weiter. Eine funktionierende Lösung für eine Management-Disziplin hilft nur bedingt weiter und muss noch in ein Gesamtkonzept eingebettet werden.

CW EXTRA: Der Markt für System-Management wächst laut den Auguren weiterhin mit beeindruckendem Tempo. Auch drängen immer wieder Newcomer auf den Markt, während andererseits die Konsolidierung unter den Anbietern anhält. Woher rührt das Wachstum?

GREIS: Der Markt wächst, weil es nach wie vor Anwender gibt, die noch nicht mit System-Management-Tools versorgt sind. Sie stoßten an die Grenzen der mitgelieferten Management-Software in den Servern und benötigen nun zusätzliche Software.

Ansonsten treten im Kernmarkt für System-Management selten Firmen mit großen Neuentwicklungen auf. Zumeist versuchen Newcomer ihr Glück als Anbieter von Nischenprodukten oder Add-on-Lösungen zu Frameworks, die zusätzlichen Nutzen liefern.

CW EXTRA: Kann nicht aus der Open-Source-Ecke, vergleichbar zu Linux, eine Lösung für das System-Management kommen? Ansätze sind ja zu beobachten.

GREIS: Für begrenzte Einzelaufgaben mag es das eine oder andere brauchbare Werkzeug geben. Im Großen und Ganzen erkenne ich hier aber keine Lösung, die den Framework-Architekturen gleich kommt.

CW EXTRA: Gibt es denn so etwas wie ein Idealbild einer System-Management-Lösung?

GREIS: Schnittstellen und Messpunkte, die einem offenen Standard folgen - gleich ob de jure oder durch ein Herstellerkonsortium definiert - und problemlos zwischen unterschiedlichen Tools funktionieren, würden das Administratorenleben um Vieles einfacher machen. Leider gibt es hier noch keine tragfähigen Lösungen. Die Cecmg-Arbeitsgruppe "Planen, Modellieren, Messen" hat übrigens vor kurzem den Herstellern von Software-Messwerkzeugen einen entsprechenden Anforderungskatalog zukommen lassen.

CW EXTRA: Die CMG ist doch selbst seit 1996 mit der Entwicklung des Application Response Measurement - ARM - aktiv. Hierbei knüpft man unter anderem Anwendungen und Transaktionen auf, um Zeitmarken zu setzen, greift also in den Anwendungs-Code ein. Warum hat man einen solch komplizierten Ansatz gewählt?

GREIS: Vermutlich stellten sich die Initiatoren das Ganze ein wenig zu einfach vor und hofften auf unterstützende Werkzeuge und vor allem auch auf die Akzeptanz bei den Entwicklern. Im Augenblick bin ich persönlich eher skeptisch, ob der Ansatz den Durchbruch tatsächlich schafft. Aber vielleicht bekommt ARM noch die Kurve. Das "ARM 3.0 Software Development Kit" sieht recht vielversprechend aus.

Hintergrund

Die Central Europe Computer Measurement Group (Cecmg) wurde 1988 gegründet. Sie ist das europäische Expertenforum für System-Management mit über 150 namhaften Unternehmen als aktiven Mitgliedern. Die Vereinigung hat das Ziel, den Verantwortlichen für Planung und wirtschaftlichen Einsatz von DV-Ressourcen in Unternehmen aktuelle und praxisbezogene Hilfestellungen bei ihrer Aufgabe zu geben. Neben Jahrestagungen veranstaltet die Cecmg Seminare, Workshops und Arbeitsgruppen-Sitzungen. Vorbild und Dachorganisation der Cecmg ist die 1975 in den USA gegründete CMG.

*Achim Born ist freier Journalist in Köln.