Comeback des MainframeS?

03.12.2009
Von 
Jannis Moutafis ist freier Journalist in München mit den Schwerpunkten Cloud Computing, Cloud-basierte Business-Anwendungen und IT-gestützte Arbeitsprozesse.
Der oftmals totgesagte Großrechner hat das Potenzial, eine zweite Erfolgsgeschichte zu schreiben – vor allem für IBM.

In den vergangenen Jahren hatte man zeitweise den Eindruck, als ob der Mainframe jetzt wirklich aufs Altenteil geschoben würde. Maschinen auf Basis des x86-Standards schienen sich anzuschicken, die angestammten Aufgaben der Großrechner komplett zu übernehmen. Die Werbelyrik der Dells, Hewlett-Packards (HPs) etc. wollte glauben machen, dass Mainframes obsolet seien. Alles, was der könne, würden die eigenen Server auch vollbringen.

Ganz so einfach war es dann doch nicht. Überraschenderweise erlebte die Großrechnerplattform in den vergangenen Jahren so etwas wie einen zweiten Frühling. Doch die guten Umsatzzahlen mit den System-z-Maschinen von IBM, mittlerweile fast der alleinige Anbieter solcher Monolithen, können nicht über die Probleme hinwegtäuschen. So muss Big Blue einen Weg finden, existierende Großanwender bei der Stange zu halten. Zudem gilt es, neue mittelständische Kunden durch eine schlüssige Kosten-Nutzen-Rechnung zu überzeugen. Außerdem darf der Großrechneranbieter seine Monopolstellung nicht missbrauchen.

Lange Zeit schien der Mainframe ein Auslaufmodell zu sein. Erst hatte das Client-Server-Konzept der 90er Jahre den einfachen Aufbau kleiner IT-Infrastrukturen ermöglicht. Mit dem Aufkommen des Internets hieß es dann "The Network is the Computer!" – und IP-Netzwerke wurden und werden immer noch am liebsten auf Unix-Basis aufgebaut. Kunden aus dem Mittelstand verabschiedeten sich von ihren großen Hobeln und ließen ihre Anwendungen lieber auf Windows- und Unix/Linux-Plattformen laufen.

Doch die Zeiten änderten sich. Heute gibt es für die IBM keine Konkurrenz mehr aus den Häusern Amdahl oder Hitachi. Lediglich die BS2000-Schmiede Fujitsu bietet noch Server der Mainframe-Klasse an. Heute führt der blaue Riese ein solides Monopolistendasein mit solventen Großkunden, die vornehmlich aus dem Bereich Banken und Versicherungen kommen. Alles schien darauf hinauszulaufen, dass Mainframes den ganz Großen vorbehalten bleiben, weil diese Klientel die speziellen Leistungen eines Großrechnerumfelds wie hohe Rechenleistung, Ausfallsicherheit und Sicherheit braucht und weil sich die Migration ihrer älteren Anwendungen auf andere Plattformen finanziell nicht lohnt – bis auf Weiteres.

Solides Monopol

Doch seit einiger Zeit überrascht Big Blue mit Meldungen über mittelständische Kunden, die, statt ihre alten Eisen ganz abzuschaffen, diese lieber durch neuere Modelle ersetzen und dabei einiges an Betriebskosten sparen. Ist der oftmals "Dinosaurier der IT" genannte Mainframe mal wieder zu früh für ausgestorben erklärt worden?

"Dinosaurier haben mehr als 120 Millionen Jahre überlebt, das vergessen die Leute sehr oft", sagt Josh Krischer, Inhaber einer Unternehmensberatung für Rechenzentrumsfragen. Dabei hatte seiner Ansicht nach gegen Ende der 80er IBM selbst für einige Jahre die Lust daran verloren, Mainframes zu verkaufen. Nachdem Amdahl und Hitachi ihre Ambitionen im Mainframe-Markt aufgegeben hatten, von dieser Seite somit keine Konkurrenz durch IBM-kompatible Maschinen mehr zu befürchten war, verlegte der blaue Riese seinen Fokus auf den möglichst profitablen Betrieb einer vermeintlich auslaufenden Technologie.

Vor sechs Jahren allerdings definierte IBM in einem "Mainframe Charter" genannten Positionspapier den Stellenwert und die weitere Entwicklung des Mainframes neu. Darin wird diese Rechnerwelt nunmehr als strategische Plattform in IBMs Produktportfolio anerkannt. Ferner wird beschlossen, für diese Systeme mittelfristig Technologien zur Senkung der Betriebskosten bereitzustellen, die Entwicklung neuer Anwendungen zu fördern, den Service auszubauen und sich um die Verbreitung von Know-how zu bemühen.

Virtualisierung ist nicht neu

Die Technologien, die in den darauf folgenden Jahren die Schlagzeilen beherrschten – Virtualisierung, Server-Konsolidierung, Cloud Computing –, machten den Mainframe auch für viele Anwender zu einer strategischen Plattform – wobei angemerkt werden muss, dass etwa ein Thema wie Virtualisierung schon seit Jahrzehnten auf dem Mainframe eingeführt war. Dieses Mal stand es allerdings in einem anderen Kontext als in den 70er und 80er Jahren des vergangenen Jahrhunderts. Zwar wussten Mainframe-Anwender schon immer die sprichwörtliche Zuverlässigkeit und Skalierbarkeit ihrer Infrastruktur zu schätzen. Allerdings bieten das andere Plattformen inzwischen auch. Etwaige Defizite in diesen Disziplinen lassen sich oftmals durch niedrigere Betriebskosten und andere Technologien ausgleichen.

Das Zauberwort im Zusammenhang mit IBMs Erfolgsmeldungen zu neuen Mainframe-Aufträgen lautet immer wieder "Konsolidierung". Statt riesige Server-Farmen mit verteilten Strukturen zu unterhalten, konzentrieren Mainframe-Anwender viele Anwendungen auf einem einzigen System. Das erleichtert nicht nur die Administration, es senkt auch die Lizenzgebühren für Unternehmenssoftware. Da dieser Obolus an die IBM meist pro Prozessor abgerechnet wird, sprechen die nackten Zahlen gegen verteilte Strukturen mit vielen Servern und noch mehr Prozessoren. Die Verwendung weniger leistungsstarker Prozessoren, wie sie in Großrechnern eingesetzt werden, senkt die Anwendungskosten pro Nutzer.

Besonders Großanwendungen wie Warenwirtschafts- und Verwaltungssysteme kommt diese Eigenschaft zugute. Die Stadt Gelsenkirchen beispielsweise hat vergangenes Jahr ihre SAP-Infrastruktur ausgebaut, gleichzeitig aber ihre Betriebskosten gesenkt. Geschafft hat sie das, indem sie ihre alten z990-Großrechner durch einen Mainframe der System-z10-Serie ersetzt hat. Die Kostenvorteile ergeben sich vor allem dadurch, dass zahlreiche SAP-Module auf virtuellen Maschinen unter Linux laufen. Sowohl diese als auch die Datenbanksoftware DB2 nehmen nicht die Hauptprozessoren, sondern als Specialty Engines bezeichnete Prozessoren in Anspruch (siehe Kasten Seite 16: "So ärgert Neon ..."). Für die veranschlagt Big Blue wesentlich geringere Lizenzgebühren.

SAP auf System z10

Auch der Schweizer Messgerätehersteller Endress+Hauser hat sich für zwei neue, voll ausgestattete System-z10-Maschinen für seine SAP-Umgebung entschieden. Dabei kommt IBMs neue Java Virtual Machine für zLinux, genannt J9, zum Einsatz. SAP selbst unterstützt J9 mit Java-Anwendungen, die auf Netweaver 6.4 und 7.0 basieren. Auch Java muss nicht auf den teuren Hauptprozessoren, sondern kann auf den Spezialprozessoren laufen. Damit senkt der schweizerische Hersteller seine Kosten erheblich. Da Endress+Hauser nur seine SAP-Anwendung auf dem Mainframe laufen lässt, wurde vor der Entscheidung für die neuen Mainframes ein Betriebskostenvergleich zu anderen Plattformen angestellt. "Es hat sich herausgestellt, dass der Mainframe unterm Strich die günstigere Lösung darstellt. Und hierbei wurden etwaige Migrationskosten kaum berücksichtigt", sagt Hansjörg Klaiber, IT-Manager beim Freiburger Rechenzentrum von Endress+Hauser.

Durch die Verarbeitung von Workloads auf den Spezialprozessoren sparen Anwender mit alten Anwendungen, die auf Cobol, PL/I oder Cics basieren, allerdings wenig. Sie sind buchstäblich die "Gekniffenen" der traditionellen Lizenzpolitik von IBM. Solcherlei Programme müssen über die Standardprozessoren abgearbeitet werden. IBM rechnet dabei gnadenlos nach verbrauchter Rechenleistung ab. Verhandeln ist zwecklos.

Kaum Verhandlungsspielraum

"Mit einem Monopolisten zu verhandeln ist praktisch unmöglich", bestätigt Alfred Isenbeck, Director Infrastructure bei den LVM Versicherungen in Aachen. IBM hat seine Preistabelle, Rabatte gibt es nur innerhalb einer vorgegebenen Staffel, die Kriterien sind Volumen und Workload-Wachstum – Ende der Durchsage. "Kauf dich reich", heißt laut Isenbeck das Motto von IBM bei solchen Verhandlungen. Wer mehr Rechenleistung kauft, bekommt bessere Preise. "Wenn dein Gegenüber weiß, dass du keine Alternative hast, braucht es nicht groß zu verhandeln."

Mainframe-Eigenschaften

Vorteile:

Höchstmaß an Ausfallsicherheit;

jahrzehntelang gereifte Virtualisierungstechnik;

sehr hohe Sicherheit;

extrem stabile BetriebssystemUmgebung;

hohe Konnektivität zu Subsystemen (etwa Storage).

Nachteile:

Sehr hohe Lizenzgebühren;

sehr hoher Aufwand, Anwendungen zu migrieren;

statt Migration häufig der Zwang, Anwendungen komplett neu zu schreiben

;

Know-how für diese Plattform "stirbt aus".

Traditionelle IBM-Kunden, vor allem Unternehmen aus dem Bereich Finanzdienstleistungen, die ihre hausgemachten Kernanwendungen immer noch auf Basis älterer Programmiersprachen fahren, werden es noch eine Weile mit dieser Situation aushalten müssen. Wie lange, hängt auch von ihnen selbst ab. Für diejenigen, für die eine Migration auf eine andere Plattform nicht in Frage kommt, lautet die Lösung: Programme neu schreiben.

So wie die meisten Versicherer macht auch die LVM genau das. "Unsere Entwicklung konzentriert sich zunächst auf die verteilten Anwendungen", sagt Isenbeck. "Statt aber den alten Code zu migrieren, schreiben wir die Anwendungen komplett neu in Java. Damit können wir sie auch auf p- oder xSeries-Maschinen laufen lassen." Ein solcher Zyklus dauert allerdings zwei bis drei Jahre pro Anwendung. LVM hat immerhin schon die Hälfte seiner Anwendungen von PL/I auf Java übertragen. Die Versicherungs-Kernanwendung läuft derweil "gekapselt" weiter auf dem Mainframe.

Hohe Lizenzgebühren

Andere Unternehmen aber, die eigentlich ohne Mainframes kaum vorstellbar sind, haben den Schritt zum Plattformwechsel dennoch gewagt. Zu ihnen gehört Amadeus, Betreiber des gleichnamigen Flugbuchungssystems und Anbieter zahlreicher Dienste für Fluglinien und die Touristikbranche. In Erding bei München betreibt Amadeus ein riesiges Rechenzentrum. Darin arbeiten immer noch mehrere Mainframes, darunter auch zwei moderne System-z10-Maschinen.

Die Besiegten

• Neben der IBM gab es eine ganze Reihe von Anbietern von Großrechnern. Geblieben sind heute praktisch nur noch Big Blue und Fujitsu.

• Amdahl Corp. wurde 1997 von Fujitsu übernommen.

• Die französische Linie vertrat Bull/NEC mit den GCOS- und ACOS-basierenden Systemen.

• Das BS2000-Geschäft von Siemens gehört heute Fujitsu.

• Hitachi.

• Auch ICL wurde von Fujitsu übernommen.

• Unisys.

• Comparex.

• Und aus der DDR stammten die IBM-kompatiblen Nachbauten der "Eser"-Line von Robotron.

"Irgendwann war es nicht mehr vertretbar, jeden Monat sechsstellige Beträge allein für Softwarelizenzen zu überweisen", sagt Joachim Holleitner, Manager Quality im Rechenzentrum. Allerdings ist der Plattformwechsel für ein Unternehmen dieser Größenordnung eine lange und beschwerliche Reise. Begonnen hat sie mit der Anfertigung von Machbarkeitsstudien Mitte der 90er Jahre, abgeschlossen wird sie voraussichtlich erst 2012.

"Die Idee mit verteilten Check-in-Systemen, beispielsweise eins für jeden Flughafen, gab es bei uns schon in den 90er Jahren. Seinerzeit waren allerdings verteilte Systeme generell nicht in der Lage, solche Anforderungen zu erfüllen", erklärt Holleitner die Probleme früherer Hardware. Auch die Software für verteilte Systeme hielt den Leistungsvergleich mit Großrechnerapplikationen nicht aus.

Die Mainframe-Anwendungen von Amadeus basierten auf TPF, einem Betriebssystem, das von IBM in den 60er Jahren für Fluglinien und Kreditkartenfirmen entwickelt wurde und seine Stärken in der schnellen Verarbeitung von Transaktionen hat. Die Anwendungen von Amadeus wurden von den eigenen Entwicklern in Frankreich so stark auf TPF abgestimmt, dass es manchmal nötig war, am Betriebssystem selbst Hand anzulegen. "Die Migration von Anwendungen, die so nah am Draht programmiert sind, ist kompliziert, langwierig und oft sehr teuer", bestätigt der Amadeus-Manager.

Großrechner schickt SMS

Trotzdem trauert Holleitner seinen Mainframes schon jetzt ein wenig hinterher, und nicht nur denen von IBM. "Wir haben vor einiger Zeit unsere BS2000-Maschinen von Siemens abgeschaltet. Die liefen so zuverlässig, dass wir uns die Operatoren dafür gespart haben. Wenn das System unsere Aufmerksamkeit brauchte, hat es uns das per SMS wissen lassen."

Ähnliches hat auch Josh Krischer über die Zuverlässigkeit von Mainframes zu erzählen: "Der Mainframe-Administrator der polnischen Fluglinie LOT ist in Rente gegangen. Die Maschinen laufen seit sieben Jahren praktisch ohne On-Site-Support." Krischer gibt zum Thema Migration noch zu bedenken: "Die Frage ist, ob die Unternehmen, die sich vom Mainframe verabschiedet haben, tatsächlich günstigere Gesamtkosten bei vergleichbarer Servicequalität erzielen konnten." Denn der Aufwand der IT sei mehr als die Summe der Kosten für Hardware und Software, die für das Management so schön nachvollziehbar sind. Sein Fazit: "Viele Firmen haben versucht, vom Mainframe wegzukommen. Manche haben es geschafft, viele nicht, einige sind pleitegegangen."

Mit solchen Argumenten fällt es denn der IBM auch nicht allzu schwer, ihre Linie rigide durchzusetzen und auf jegliche Bedrohung ihrer Lizenzeinnahmen harsch zu reagieren. Anfang des Jahrzehnts zum Beispiel wurde die Mainframe-Emulation auf kleinen Maschinen mit x86- oder Itanium-Prozessoren nicht nur toleriert, sondern aktiv unterstützt. Emulationsboards für pSeries-Rechner und Komplettsysteme wurden über die IBM-Partner vertrieben.

Die einst erfolgreichen Emulatoren ...

Besonders für kleinere Unternehmen mit älteren Anwendungen waren die Emulatoren ein Segen, wie ihr kommerzieller Erfolg bis vor kurzem bewies. Diese Firmen setzten die Maschinen vor allem ein, um nach dem Ausstieg aus der Mainframe-Welt ältere Anwendungen weiterhin am Leben zu erhalten.

Als allerdings der Erzrivale Hewlett-Packard bei dem Emulatoren-Entwickler Platform Solutions Inc. (PSI) als Großaktionär einsteigen wollte, war für IBM Schluss mit lustig. Man traf sich vor Gericht wieder. Um das Verfahren abzukürzen, kaufte IBM kurzerhand PSI und beendete dessen Geschäftsbetrieb. Ein ähnliches Schicksal ereilte einen weiteren Hersteller namens T3 Inc. Nach der Affäre mit PSI stellte IBM den Verkauf von Mainframe-Betriebssystemen für Emulationszwecke ein und vernichtete damit T3s Geschäftsgrundlage. Derzeit versucht dessen Management, sein Recht über Kartellbeschwerden diesseits und jenseits des Atlantiks einzuklagen.

... sind heute ein Tabuthema bei IBM

Mainframe-Emulation ist für IBM seitdem ein Tabuthema – außer sie kommt aus dem eigenen Hause. Mit zPDT (z Personal Development Tool) hat Big Blue ein eigenes Werkzeug lanciert, dessen Verwendung sich allerdings auf den Bereich Entwicklung beschränkt. Nicht unterstützt wird hingegen das Open-Source-Tool Hercules. Aus Sicht von IBM durchaus verständlich: Ein französisches Startup namens TurboHercules zum Beispiel hat es dazu verwendet, eine Disaster-Recovery-Lösung auf Basis von Windows Server 2008 aufzubauen. Die ist sogar legal, weil es im Lizenzvertrag für z/OS zwar die Klausel gibt, dass das Betriebssystem nur auf IBM-Hardware laufen darf. Ausgenommen sind jedoch explizit Notfälle, bei denen die IBM-Hardware nicht funktionieren sollte – was die Existenz von Lösungen wie dieser rechtfertigt. Das wahrscheinlichere Szenario ist jedoch, dass bei TurboHercules-Kunden die Systeme nicht nur als Backup, sondern auch im Produktionsbetrieb zur Unterstützung der Großrechner oder für kleinere Anwendungen eingesetzt werden (können).

Für IBM besteht die Herausforderung darin, einerseits die eigenen Pfründe zu sichern, andererseits die Kostenspirale für die Anwender nicht zu überdrehen. "Fest steht, dass die Lizenzgebühren nicht proportional zur Leistungsfähigkeit der Prozessoren oder zum Wachstum der Workloads ansteigen können", sagt Joachim Holleitner von Amadeus. Genau diese Aussicht, die stetig wachsenden Flugbuchungen und damit auch die steigenden Kosten für das zu verarbeitende Transaktionsvolumen, hat Amadeus zum Plattformwechsel veranlasst.

IBM versucht auf dieses Dilemma zu reagieren, ohne an den Lizenzgebühren für die Datenverarbeitung auf Standardprozessoren zu drehen. Nicht zuletzt deswegen ist die Regelung mit den Spezialprozessoren für Java- und Datenbank-Workloads zustande gekommen. Rein technisch ist sie nämlich völlig überflüssig: Spezialprozessoren sind nichts anderes als Standardprozessoren, deren Microcode so verändert wurde, dass sie nur bestimmte Tasks ausführen dürfen.

Allerdings weiß man aus Erfahrung, dass derartige Einschränkungen irgendwann geknackt werden, und so erging es auch dieser. Ein US-Startup namens Neon Enterprise Software hat mit zPrime eine Lösung herausgebracht, die für Standardprozessoren bestimmte Workloads auf Spezialprozessoren verarbeiten kann und damit das Potenzial hat, Anwendern jede Menge Geld zu sparen – und IBM um Lizenzgebühren zu bringen. Rein rechtlich scheint Big Blue bis dato keine Argumente gegen Neon zu haben. IBM versucht sich deswegen zu wehren, indem es eine Änderung seiner Lizenzbestimmungen bei gleichzeitiger Veränderung des Microcodes seiner Spezialprozessoren anstrebt.

Dass sich Anwender mit gültigem Lizenzvertrag nicht ohne weiteres darauf einlassen wollen, haben erste Aktionsversuche in diese Richtung bereits gezeigt. Doch die Frage, die sich hierbei stellt, ist eine grundlegendere: Wie gut aufgehoben und sicher kann man sich als Anwender bei einem Hersteller fühlen, der ein Monopol besitzt und auch bereit ist, dieses mit teilweise drastischen Mitteln zu verteidigen?

Offensichtlich spielt für die meisten Anwender all das nur eine untergeordnete Rolle. Mainframes als technische Plattform haben bei ihrer Kundschaft einen derart hohen Stellenwert und IBM als Anbieter einen so guten Leumund, dass man im Großen und Ganzen bereit ist, die Marktmacht als notwendiges Übel hinzunehmen. Die Leserkommentare und die Debatte zur Berichterstattung über Neon Software und deren Produkt zPrime sind hierfür bezeichnend. IBMs Profite, so einige Stimmen, seien durchaus schützenswert. Damit sei schließlich die hohe Qualität der IBM-Produkte und der Wartung garantiert.

Teuer – aber erstklassig

Ähnlich klingt auch die Argumentation von Harald Neugebauer, CIO bei Lexcom. Der Münchner Mittelständler betreibt eine große Ersatzteildatenbank für die Automobilindustrie und hat sich dieses Jahr für einen neuen System-z10-Mainframe entschieden. "Mainframe-Technologie ist teuer, aber dafür bekomme ich auch ein nahezu perfektes Betriebssystem und einen erstklassigen Service. Und darauf kommt es an. Ich muss mich darauf verlassen können, dass das System läuft und dass im schlimmsten Fall ein Problem in kürzester Zeit bis zur Zentrale in den USA eskaliert wird, falls der deutsche und der europäische Service keine Lösung dafür gefunden haben."

Alles andere ist für Neugebauer eine Frage des Return on Investment: "Wenn die Auslieferung meiner Dienstleistung diese Art von System braucht, und ich kann die Kosten in meinem Business-Plan darstellen, dann werde ich mich nicht lange aufhalten lassen." Während kleinere Anwendungen bei Lexcom auf Maschinen der xSeries laufen dürfen, ist das Kernprodukt wichtig genug, um einen Großrechner zu rechtfertigen. "Sie können eine solche Anwendung nicht auf einem Micky-Maus-System betreiben", betont Neugebauer.

Angesichts des sich abzeichnenden Mainframe-Revivals muss IBM keine Konkurrenz fürchten. Seit 2001 ist der IT-Riese nicht mehr dazu verpflichtet, seine Mainframe-Technologie zu lizenzieren. Davor galt 45 Jahre lang ein Gerichtsbeschluss, nach dem IBM genau darauf festgelegt war. Eine erneute Einführung dieser Verpflichtung, um welche die Konkurrenz an allen Fronten kämpft, würde den Verkauf IBM-kompatibler Großrechner wieder möglich machen.

Würden sich Anwender auf Alternativen einlassen? "Mit Sicherheit würden wir sie ernsthaft anschauen", sagt LVM-Mann Isenbeck. So wie viele seiner Kollegen ist er der Ansicht, dass Konkurrenz dem Mainframe-Markt guttun würde. Und das nicht nur wegen zu erwartender Preissenkungen. "Der Wettbewerb würde auch der Plattform selbst nützen. Wir beobachten, dass sich die Technik in Märkten mit offenem Wettbewerb wie dem für die x64-Plattform schneller entwickelt. Grund: Es sind mehr Firmen involviert. Deswegen werden auch mehr Produkte für diesen Markt entwickelt. Die IBM muss deshalb einen Weg finden, Mainframe-Technologie auf breiterer Basis anzuwenden, sonst wird die Plattform noch teurer." (jm)

So ärgert Neon Enterprise Software Big Blue

Mit zPrime kann Applikationslast von den Hauptprozessoren eines Mainframes auf für spezialisierte Aufgabenstellungen entwickelte so genannte Specialty Engines heruntergeladen und dort verarbeitet werden.

Damit ist das Lizenzierungsmodell der IBM für ihre Großrechner direkt betroffen: Die System-z-Großrechner werden von Haus aus mit mehr Hauptprozessoren geliefert, als der Anwender im Alltagsgebrauch benötigt. Dieser zahlt an Big Blue zwar nur gemäß der Zahl der tatsächlich benutzten Prozessoren Lizenzgebühren. Allerdings sind diese für die Hauptprozessoren wesentlich höher als für die Specialty Engines. Deshalb haben Anwender natürlich ein Interesse daran, möglichst große Teile der Arbeitslast von den Hauptprozessoren weg und auf die zIIP- und zAAP-Engines zu übertragen.

Das wiederum ist nicht im Sinne der IBM, die diese Spezialprozessoren auf neue Anwendungen wie beispielsweise WebApplikationen oder SOA-basierende Techniken zugeschnitten hat. Nicht vorgesehen war aber, dass Standard-Workloads wie Cics, IMS, DB2, TSO und Batch-Anwendungen auf die Specialty Engines verlagert werden. Genau das aber ist möglich mit der Neon-Software.

Beide Unternehmen prozessieren derzeit gegeneinander. Neon will seine Geschäfte fortführen, IBM will das Vorgehen des Softwarehauses wegen angeblicher Verstöße gegen das Urheberrecht unterbinden. Dabei vertritt Big Blue den Standpunkt, Neons Geschäftsmodell basiere darauf, IBM-Kunden anzuregen, ihre vertraglichen Abmachungen mit dem Konzern zu unterlaufen.

Neon verhalte sich wie ein gewiefter Techniker, der gegen eine Gebühr einen TV-Kabelanschluss so manipuliere, dass die Benutzer Bezahl-TV-Kanäle ansehen könnten, ohne dafür zu bezahlen. Dieses Vorgehen sei vielleicht technisch realisierbar, aber letztendlich illegal und ethisch nicht zu verantworten. IBM habe Milliardenbeträge in sein System z gesteckt, diese Investitionen gelte es nun zu schützen.