Der Mainframe: theoretisch das Maß aller Dinge, aber…

06.09.2007
Andrew Butler, Analyst von Gartner, glaubt, dass der Mainframe auch heute noch das Maß aller Dinge in Sachen Servertechnik ist. Einerseits. Er denkt aber auch, dass dies nicht mehr so viele IT-Verantwortliche interessiert. Ein Gespräch mit CW-Redakteur Jan-Bernd Meyer.

CW: Es gibt Experten, die sagen, Google wäre besser dran, wenn es anstelle seiner rund eine halbe Million Server auf Unix- und Windows-Basis Mainframes benutzen würde. Sie sagen ferner, dass Großrechner unter gewissen Umständen mittlerweile sogar für kleinere und mittelständische Unternehmen eine sinnvolle Option als Backend-Rechner sein könnten. Was halten Sie von dieser Aussage?

Andrew Butler, Analyst von Gartner, versucht sich in einen IBM-Mainframe-Vertriebsmann zu versetzen. Der denkt sich wahrscheinlich: "Die Kunden mögen mich und meine Mainframes vielleicht nicht lieben. Aber sie werden mich auch nicht los."
Foto: Gartner

BUTLER: Theoretisch stimmt das. Mainframes bieten im Vergleich zu jeder anderen Server-Plattform nach wie vor fantastische Vorteile in Bezug auf Administration und Verwaltung von Systemlandschaften. Wenn Unternehmen auf diese Punkte Wert legen, dann haben Großrechner hier fast schon einen "natürlichen" Vorteil. Das Beispiel Google zeigt aber etwas anderes: Google hatte von allem Anfang das Bestreben, sowohl seine Serverumgebung komplett selbst zu entwerfen, als auch seinen gesamten Software-Stack komplett selbst zu entwickeln – das schloss etwa auch die Betriebssystemfrage ein. Auf diese Weise wollte das Unternehmen alle teuren Software-Lizenzierungsverpflichtungen umgehen und sich auch nicht an jemanden binden.

CW: Hört sich nach viel Arbeit an, die sich Google da aufgehalst hat.
BUTLER: Der Nachteil dieser Strategie ist in der Tat, dass Google selbst ein Konzept für die Administrierung seiner Serverlandschaft entwickeln musste. Damit hat das Unternehmen im Prinzip eine Mühsal auf sich genommen, die Mainframe-Anbieter über eine ganze Generation und mehr bereits erledigt hatten. Aber Google war es eben wichtig, nicht an einen Softwareanbieter Multimillionen Dollar Lizenzgebühren zahlen zu müssen. Dieser Wunsch überwog alle anderen Erwägungen, auch solche, die möglicherweise einmal in Richtung Großrechner gegangen wären.

CW: Also ist das PR-Argument vom Mainframe, der sich im Prinzip für jeden Unternehmenstyp eignet, doch nicht stimmig?

Viele verbinden mit einem Mainframe riesige Räume und großen Kühlrohren aus dicken Wänden – IBM-Lagerarbeiten laden einen Großrechner auf einen Hubwagen.

BUTLER: Das wollte ich damit nicht sagen. Ich bezweifle nicht, dass heutzutage ein kleiner Mainframe im viel höheren Maß Anforderungen von mittelständischen Unternehmen erfüllen kann, als dies früher der Fall war - zumindest in der Theorie.

Aber es gibt mit Mainframes ein großes Problem: Sie sind stigmatisiert. Auch heute noch. Mit ihnen verbinden Anwender Rechner, die einen ganzen Raum okkupieren, die wassergekühlt werden müssen und deren Kühlung über große Rohre aus dicken Wänden zugeführt wird. Sicherlich ein Vorurteil – und eins, das für die IBM frustrierend ist. Aber so ist nun einmal die Realität. Einmal abgesehen von großen Konzernen oder Behörden, die quasi mit Mainframes aufgewachsen sind, gibt es heute in den IT-Abteilungen und Rechenzentren eine neue Generation von Mitarbeitern, die nie einen Mainframe benutzten würden. Und dass, obwohl sich in den vergangenen fünf, zehn Jahren bei Großrechnern sehr viel entwickelt hat und sie vom technischen Standpunkt sehr wohl geeignet wären, auch in mittelständischen Unternehmen eingesetzt zu werden.

CW: Um der Diskussion über die hohen Softwarelizenzkosten den Wind aus den Segeln zu nehmen, hat die IBM für ihre Mainframes ja schon vor Jahren ein neues Konzept entwickelt. Einfach ausgedrückt hat Big Blue für bestimmte Aufgabenstellungen - neudeutsch Workloads - so genannte Specialty Engines entwickelt. Das sind Prozessoren, an die unterschiedliche Workloads – etwa für Datenbankaufgaben, Linux- oder Java-Applikationen – abgegeben werden können. 2001 stellte IBM solch eine Specialty Engine mit der Integrated Facility for Linux (= IFL-Engine) vor. 2004 folgte mit dem System-z9-Application-Assist-Processor eine zAAP-Engine für Java-Workloads. 2006 schließlich stellte Big Blue mit dem System-z9-Integrated-Information-Processor die zIIP-Datenbank-Specialty Engine vor. Das Besondere an den Specialty Engines ist nun, dass sie bei der MIPS-Rechenleistungs-Berechnung nicht berücksichtigt werden. Die Softwarelizenzkosten werden aber traditionell auf Basis der MIPS-Angaben kalkuliert. Ergo: Die IBM versucht auf diese Weise, die Softwarelizenzkosten zu drücken, um somit ihre Mainframes auch anderen Käufern als der angestammten Kundschaft aus Großkonzernen schmackhaft zu machen, also etwa mittelständischen Betrieben. Was ist von dieser Strategie zu halten?

Butler: Das ist eine sehr clevere Strategie. IBM ist ja nicht blind bezüglich der Problematik der teuren Software-lizenzierung und der Wahrnehmung des Marktes, dass Mainframes sehr teure Systeme sind. Und ja, in der Theorie ist es sicherlich richtig, dass jemand, der ein System-z-System nutzt und einen großen Teil seiner Workloads auf diese Specialty Engines lädt, bei den Lizenzierungskosten viel Geld sparen kann.

CW: Das Revival des Mainframes also durch einen geschickten technischen Schachzug?

BUTLER: Lassen Sie es mich einmal so sagen: Meiner Erfahrung nach kommt auf jeden Anwender, der sich vom Mainframe-Konzept lossagen will, mindestens einer oder zwei, die die großen Vorteile des Großrechners im Vergleich zu den anderen Plattformoptionen sehr zu schätzen wissen. Und da gibt es dann auch eine wachsende Zahl von Anwendern, die mit großem Interesse die Option der Specialty Engines überdenken und auch nutzen. Die lassen etwa Linux oder neue Klassen von Applikationen, neue Workloads, auf diesen Specialty Engines laufen. Eins ist in diesem Zusammenhang allerdings wichtig: Wir reden hier immer über Anwender, die bereits Mainframes nutzen. Wir reden über eine bereits installierte Basis. Viele neue Kunden hingegen gewinnt die IBM auch mit den Specialty Engines nicht.

CW: Das hört sich aber trotzdem so an, als ob die IBM den Königsweg gefunden hat, um die leidige Diskussion um überhöhte Software-Lizenzierungspreise ausräumen zu können oder?
BUTLER: Ganz so ist es natürlich nicht. Sie können davon ausgehen, dass Anwender immer eine Kombination verschiedener Workloads am laufen haben. Und da bleibt es nicht aus, dass sich darunter auch solche befinden, die interessant in Bezug auf die Off-load-Engines sind. Aber: Grundsätzlich werden diese Anwender immer vor allem auch Legacy-Anwendungen nutzen, die nicht auf den Specialty Engines, sondern den herkömmlichen Mainframe-Prozessoren laufen. Und diese Anwendungen kosten dann so richtig Softwarelizenzgebühren.

… aber es ist auch nicht so, dass ein Mainframe in einer Ein-Zimmer-Wohnung Platz hätte.

Das eigentliche Problem ist also: Bei den herkömmlichen Legacy-Applikationen hat sich kaum etwas getan. Deren Lizenzgebühren sind nach wie vor teuer. Mir erscheint es sogar so, dass mit den herkömmlichen Mainframe-Anwendungen die neuen Arten von Workloads finanziert werden. Ich unterhalte mich ja oft mit IT-Anwendern, die Mainframes benutzen. Die bestreiten gar nicht die Vorzüge dieser Rechnerklasse, die Sicherheit, die sie bieten, die einfache Administration, die Verlässlichkeit – all die Argumente, die bekannt sind. Aber sie ärgern sich alle maßlos darüber, dass sie enorme Summen für die Softwarelizenzen zahlen müssen.

CW: Warum sagen diese Anwender der IBM dann nicht einfach: "So, das war's! Mir reicht's!" und migrieren auf eine Open-Systems-Plattform?

BUTLER: Ganz einfach: Alle Anwender, die mir von Migrationswünschen erzählen, sagen mir auch, dass sie auf lange Jahre hin weiterhin einen Mainframe benutzen werden. Der Grund dafür ist: Deren Großrechner sind dermaßen mit der Gesamt-IT-Infrastruktur des Unternehmens verwoben, dass es einer Herkulesaufgabe gleichkäme, diese Manframes abzulösen.

CW: Ein wirklich gutes Argument ist das aber nicht.

BUTLER: Zugegebenermaßen ist das nicht das beste Argument für den Erhalt einer Systemplattform. Aber wenn ich Vertriebsmann bei der IBM wäre, würde ich auch alles tun, um im Spiel zu bleiben. So ein IBMer sagt sich doch: "Die Leute mögen mich vielleicht nicht lieben, aber sie werden mich auch nicht los."

CW: Gibt es denn ein überzeugenderes Argument, das für Mainframes spricht?
BUTLER: Oh ja, das gibt es. Vielleicht der größte Vorteil von Großrechnern ist ihre einzigartige Architektur. Mit ihr können ganz unterschiedliche Arten von Workloads auf einer einzigen Maschine verarbeitet werden. Insbesondere IT-Anwender, die im Alltag ganz unterschiedliche IT-Workloads zu verarbeiten haben, nutzen Mainframes. User, die also vertikale und horizontale Applikationen für ihr Alltagsgeschäft einsetzen, die Batch-Applikationen benötigen und I/O-spezifische Anwendungen – für diese Klientel bietet die Mainframe-Architektur Vorteile. Ein Mainframe schafft sämtliche IT-Aufgabenstellungen, schafft unterschiedlichste Anwendungstypen mit ihren jeweils völlig anderen Anforderungen an die Hardware – ein Mainframe bedient alles und jeden. Solch ein Großrechner ist auch in der Lage, die unterschiedlichsten Applikationen so isoliert voneinander zu verarbeiten, dass diese sich funktional nicht in die Quere kommen. Ein Großrechner ist also sozusagen ein Mädchen für alles - eine Maschine für sämtliche Gelegenheiten.

CW: Große Unix- oder Blade-Systeme können da nicht mithalten?

BUTLER: Unix-Systeme versuchen natürlich auch, solch eine disparate Anwendungsvielfalt gleichzeitig und in einer Maschine abzudecken. Und es gibt eine Menge Leute, die glauben, dass sie das in den meisten Aufgabenstellungen durchaus auch zu leisten imstande sind. Aber sie werden das nie so gut können, wie ein Mainframe.

Die Charakteristika einer Mainframe-Architektur sind auf die Anforderung, viele unterschiedliche Workload-Typen gleichzeitig zu verarbeiten, am besten ausgelegt. Diese Eigenschaft ist praktisch einzigartig und außerhalb der Mainframe-Welt nicht zu finden.

CW: Mir fällt aber noch ein Argument ein, dass Anwender schrecken dürfte: Wenn man sich den Markt für Mainframes ansieht, dann läuft es doch darauf hinaus, dass es eigentlich nur noch einen einzigen Anbieter gibt – die IBM. Welche Schlussfolgerungen ziehen Sie daraus?

BUTLER: In der Tat teilt sich der Mainframe-Markt zunehmend in zwei Lager auf: Da ist zum einen die IBM. Sie ist entschlossen, die Lebensfähigkeit ihrer Mainframes unter Beweis zu stellen und nach neuen Geschäftsoptionen für sie Ausschau zu halten. IBM ist also in der Tat der einzige am Markt verbliebene Großrechneranbieter. Dieser Plattform wird die IBM in den kommenden zehn, 15 Jahren auch verpflichtet bleiben.

CW: Und was plant der Rest der Mainframe-Anbieter, die Bulls, Fujitsu-Siemens', Unisys' dieser Welt?
BUTLER: All die anderen Anbieter sind dabei, einen mehr oder weniger nahtlosen Übergang ihrer Mainframe-Legacy hin zu einer Koexistenz mit offenen Systemen zu bewerkstelligen – also den x86-, x64-, Unix-, Linux- und Windows-Maschinen. Sie verfolgen insofern sehr viel stärker ein Migrations-Modell.

CW: Es gibt Experten aus der Branche, die sagen, IBM selbst sieht seine Mainframe-Plattform als sterbenden Dinosaurier. Aus diesem Geschäft soll noch so viel Geld rausgeholt werden, wie möglich und dann – Exitus. Sehen Sie das auch so?

Butler: Hierzu zweierlei: Vergessen Sie erstens nicht, dass der IBM-Mainframe-Markt nicht zu vergleichen ist mit dem Großrechnergeschäft aller anderen Hersteller. Ich will damit nicht sagen, dass beispielsweise Fujitsu-Siemens oder Unisys ihre Mainframe-Kunden im Regen stehen lassen. Aber es ist klar, dass diese Hersteller keine Pläne haben, in den kommenden zehn Jahren noch konventionelle Mainframes zu entwickeln. IBM hingegen hat, wie ich schon sagte, genau das vor.

Wenn Sie sich zweitens Zahlen der Marktforscher – egal ob von Gartner oder IDC – ansehen, dann kann man eins ganz klar feststellen: Der Mainframemarkt insgesamt nimmt in Sachen Umsatz ganz eindeutig ab. Schaut man sich den Mainframemarkt allerdings genauer an und vergleicht IBMs Mainframe-Anteil mit dem aller anderen Unternehmen, die sich da im Großrechnersegment tummeln, dann werden Sie feststellen, dass der IBM-Anteil stabil bleibt oder sogar ein kleines bisschen wächst…

CW: …die Geschäftszahlen der IBM für das Jahr 2006 haben für das Segment der Mainframes sogar ein durchaus signifikantes Wachstum vermeldet.

Butler: Das Wachstum im vergangenen Jahr war sogar ganz großartig - richtig. Die Frage aller Fragen wird aber sein: Kann die IBM dieses Wachstum bei Großrechnern halten? Wenn wir dieses Gespräch im Jahr 2017 wieder führen sollten, dann wird nach meiner Einschätzung der Mainframe-Markt bis dahin schrumpfen, schrumpfen, schrumpfen. Er wird in zehn Jahren ziemlich klein geworden sein. Aber noch einmal: Dieser Rückgang betrifft vor allem die Umsätze der anderen Unternehmen aus dem Großrechnerumfeld. Der wird immer weiter sinken – der Umsatz, den die IBM mit Mainframes erwirtschaftet, hingegen weniger.

CW: Damit ist aber auch klar: Big Blues Dominanz wird immer erdrückender.

Butler: Absolut richtig. Der ohnehin jetzt schon große Anteil, den die IBM am Mainframe-Markt besitzt, wird weiter wachsen. Ich gehe zwar davon aus, dass auch die Umsätze mit System-z-Maschinen über einen längeren Zeitraum sinken werden. Aber dieser Rückgang wird sehr viel geringer sein als der, den andere Anbieter im Mainframe-Umfeld erleben werden. Das Delta wird also immer größer zwischen der IBM und dem Rest der Mainframe-Welt.

Zu den Marktzahlen im Server-Segment, wie sie etwa Gartner ermittelt, muss man noch Folgendes erklären: Die gliedern sich zwar auf nach Unix-Systemen, Windows-Rechnern und Mainframes. Aber: Sie enthalten nur die Umsätze mit der reinen Hardware. Gerade im Mainframe- und Unix-Markt muss man jedoch sehen, dass hier sehr viel Umsatz auch mit assoziierten Produkten, also etwa Software, Dienstleistungen, Massenspeicherperipherie etc. erzielt wird. Diese Umsätze sind in den Marktzahlen nicht enthalten. Das gesamte "Öko"-System der Großrechnerwelt ist also viel größer als die Zahl, die durch die Marktzahlen wiedergegeben werden.

CW: Anderes Thema: Die IBM gefällt sich in den letzten Monaten mit einem Werbespruch, der auf die Kostendiskussion zielt: Der Mainframe ist das Coolste am ganzen Rechenzentrum.
BUTLER: Theorie ist doch was Großartiges. Im Prinzip ist das Argumente nachvollziehbar – aber ist es für die meisten Leute relevant? Die Realität in den Unternehmen und in IT-Abteilungen ist eine andere. Da gibt es nicht nur eine Person, die für alle anfallenden Kosten gerade steht. Vielmehr verantwortet einer die Hardwarekäufe. Jemand anderes ist für die Vernetzung und deren Kosten zuständig. Ein Dritter verantwortet die Softwareinvestitionen. Und wieder ein anderer zeichnet die Energiekostenrechnungen ab. Meistens ist das nicht einmal jemand aus der IT-Abteilung, sondern der Controller, der auch die Miete für die Büros des Unternehmens im Blick hat. Da gibt es keine übergeordnete Sicht der Gesamt-IT-Kosten durch eine einzige Person. Da sieht jeder nur seinen kleinen Ausschnitt, den er zu verantworten hat. Insofern hängt das Argument mit niedrigeren Energiekosten etwas in der Luft. Denn es gibt den einen Menschen nicht, der alle Kostenblöcke sieht und sich deshalb unter anderem auch den Kopf zerbricht über die Kosten des Stromverbrauchs in IT-Zentren.

CW: Wollen Sie damit sagen, dass man gar keine fundierten Aussagen über die finanziellen Aspekte der IT im allgemeinen und der Kostenvergleiche zwischen Mainframes und anderen Plattformen anstellen kann?

BUTLER: Was ich sagen will ist: Welcher IT-Verantwortliche hat wirklich nachvollziehbare und verlässliche Berechnungsmodelle, die eine genaue Kostenanalyse ermöglichen und die alle Kostenblöcke wie Netzwerke, Software, Hardware, Energiekosten beinhaltet? Nehmen Sie das Thema Ausfallsicherheit. Klar ist der Mainframe das ausfallsicherste System, dass man sich vorstellen kann. Das Problem ist nur: Kann man tatsächlich genau berechnen, was ein Systemausfall kostet? Sagen wir einfach mal, eine Stunde ohne Zugriff auf die IT würde 18 Millionen Euro kosten. Wenn man das sicher sagen könnte, dann wäre der Mainframe eine kostengünstige Plattform, weil er zugegebenermaßen ein extrem ausfallsicheres System ist. Es ist nur so: Welcher IT-Verantwortliche hat denn tatsächlich nachvollziehbare und verlässliche Berechnungsmodelle, die genau solch eine Analyse ermöglichen würden?

CW: Sie bei Gartner haben so etwas garantiert, oder?
BUTLER: Wir bei Gartner haben in der Tat ein sehr ausgereiftes Evaluierungsmodell, das sämtliche Servertechniken berücksichtigt, dabei so ziemlich alle erdenklichen Kriterien erfasst und auf dieser Basis Vergleiche zwischen den Plattformen anstellen kann.

CW: Na dann können Sie unseren Lesern doch jetzt – wie sagten Sie vorhin? – die Frage aller Fragen beantworten: Ist unter Zugrundelegung Ihres Evaluierungsmodells der Mainframe die bessere, weil kostengünstigere Möglichkeit, seine IT-Hausaufgaben zu erledigen?

BUTLER: Sie werden staunen: Wenn Sie nach unserem Evaluierungsmodell und unter Berücksichtigung aller bei diesem Modell zugrunde gelegten Daten eine Analyse anstellten, dann würde ein Mainframe praktisch in jeder Kategorie gewinnen. So weit die Theorie. Wenn Sie sich dann aber mal fragen, wie relevant jedes einzelne Kriterium für Aufgaben wie etwa Web-Service, Data Warehousing etc. ist, wenn Sie sich die Workloads zur Erledigung von zu lösenden Geschäftsproblemen ansehen und in Relation zur Wichtigkeit der in unserem Modell aufgeführten Kriterien stellen, dann sieht die Analyse des ganz real existierenden IT-Alltags anders aus. Dann nämlich ist der Großrechner bei sechs von sieben Aufgabenstellungen, also Workload-Typen, mit denen sich heutzutage eine IT konfrontiert sieht, nicht die beste Plattform.

Der Mainframe bleibt nur in einem Fall die leistungsfähigste Plattform: in IT-Umgebungen, in denen unterschiedlichste Workload-Typen auf einer Plattform konsolidiert werden sollen. Bei allen anderen Aufgabenstellungen sind es eher die Unix-Systeme von IBM, HP, Sun etc. oder die x86-/x64-Server, die die besten Ergebnisse zeitigen.

Insofern ist die IBM-Argumentation eine, die zwar richtig ist, die aber vor allem auf die Theorie schaut. Ja, es ist richtig, der Mainframe war vor 20 Jahren das Maß aller Dinge in Sachen Server-Technik und der Mainframe ist auch heute immer noch der goldene Standard für alle Server. Trotzdem bedeutet für die große Mehrheit der IT-Verantwortlichen, würden sie heute einen Mainframe kaufen, mit Kanonen auf Spatzen zu schießen.