Fujitsu & Co. gegen Big Blue (Teil 1)

Japan Inc.: Frontalangriff auf den IBM-kompatiblen Mainframemarkt

06.12.1991

Standen die 80er Jahre im Zeichen des amerikanisch-japanischen Ringens um die Vormachtstellung im Halbleitergeschehen, haben die siegreichen Japaner nun ihren US-Kontrahenten erneut den Kampf angesagt: In den 90er Jahren wird sich entscheiden, welche der beiden Nationen künftig den Ton in der Computerindustrie angibt. Dabei stehen die Chancen für die Japaner gut, den Amerikanern den Rang abzulaufen.

Die Halbleiterschlacht ist gewonnen. Mit Beginn der neunziger Jahre setzen die Japaner nun zum Angriff auf das Zentrum der amerikanischen Hochtechnologiemacht an: die Computerindustrie. Unterstützt von MITI-Programmen haben die japanischen Computerhersteller seit den sechziger Jahren Stück um Stück Terrain erobert. Nun stehen sie zur Entscheidungsschlacht bereit:

- Sie haben in der Computer-Hardware technologisch aufgeholt, ja überholt.

- Sie haben den eigenen Heimmarkt zurückerobert. Hielten die amerikanischen Computerfirmen zu Anfang der sechziger Jahre noch einen Anteil von über vier Fünftel am japanischen Markt, so sind sie heute auf einen Anteil von weniger als einem Fünftel zurückgedrängt. IBM Japan wurde in seinem ureigensten Bereich, den Großcomputern, bereits 1979 von Fujitsu überholt und hält heute nur mehr einen Anteil von 25 Prozent an den installierten Systemen (gegenüber 60 Prozent weltweit). Bei Personal Computern rangiert IBM Japan unter "ferner liefen". Japan ist so das einzige Land der Welt, das seinen Computerheimmarkt beherrscht.

- Weltweit ist Japan vor Westeuropa zum zweitgrößten Computerhersteller aufgestiegen. Das Trio: Fujitsu, NEC und Hitachi ist dabei, in der Weltrangliste hinter IBM die drei nächsten Plätze zu besetzen. Fujitsu hat sich durch die Übernahme des britischen Großcomputerherstellers (gemeint ist ICL, Anm. d. Red.) auf Platz 2 geschoben.

Noch dominieren die amerikanischen Computerhersteller mit einem Anteil von über 60 Prozent den Weltmarkt. Im Zentrum der Erklärung dafür, daß es hier bisher anders lief als bei den Halbleitern, steht ein Name: IBM.

IBM setzte sich 1964 mit seinem legendären System 360 an die Spitze und baute in den folgenden Jahrzehnten mit einer meisterhaften Marktstrategie seine Position bei Großcomputer-Systemen zu einer Dominanz außerhalb Japans aus. 1981 sprang dann IBM auf den Zug der PCs auf und wurde auch hier zum weltgrößten Hersteller. Der Marktanteil von 22 Prozent ist allerdings ungleich bescheidener als der 60-Prozent-Anteil an den weltweit installierten Großcomputern. Alle Teilmärkte addiert, übertrifft der IBM-Umsatz den Umsatz sämtlicher japanischer Computerfirmen zusammengenommen.

Der 60-Prozent-Anteil bei den installierten Großcomputern, dem immer noch zentralen Marktsegment, gibt IBM eine einzigartige Position. Denn wer einmal IBM-Kunde geworden ist, hat kaum eine Wahl, als es zu bleiben. Nur auf IBM-Systemen laufen die Softwareprogramme, die er mit großem Aufwand erstellt hat. Ein Wechsel zu einem anderen Computersystem würde bedeuten, daß viele Millionen an Software-Investitionen abzuschreiben wären. Dazu kommt als weiterer IBM-Trumpf, daß es für das dominierende IBM-System naturgemäß bei weitem die meisten Softwareprogramme zu kaufen gibt. Dies macht eine IBM-Maschine auch für Erstkäufer attraktiv.

Welche Strategie konnte angesichts einer solchen Marktlage Erfolg gegen IBM versprechen? Dies war die Frage, die sich MITI und die japanischen Computerhersteller Anfang der siebziger Jahre stellen. Die Antwort darauf gab Gene Amdahl, der frühere Chef-Entwickler von IBM und Architekt des Systems 360. Er gründete 1971 eine eigene Firma mit dem Ziel, Computer zu bauen, die mit dem IBM-Betriebssystem kompatibel und damit fähig sein sollten, die IBM-Software zu benutzen. Durch technische Verbesserungen sollten die Amdahl-Maschinen jedoch leistungsfähiger sein als die IBM-Originale. Von dem japanischen Computer-Trio folgten Fujitsu und Hitachi dem Beispiel und entwickelten IBM-kompatible Großcomputer. Nur NEC, das mit Honeywell zusammenarbeitete, blieb bei der eigenen Architektur.

Die neue Strategie der IBM-Kompatibilität erwies sich als überaus erfolgreich. Ende der siebziger Jahre bereits hatten Fujitsu und Hitachi zusammen rund die Hälfte des japanischen Großcomputer-Markts erobert und drangen über OEM-Verkäufe auch auf den europäischen Märkten vor. Fujitsu kam ein Glücksfall zu Hilfe. Amdahl hatte Schwierigkeiten, Kapital für seine neugegründete Firma aufzutreiben. Fujitsu griff zu und erwarb 1972 eine Beteiligung. In den achtziger Jahren stockte Fujitsu diese Beteiligung auf 48 Prozent auf und übernahm die Kontrolle. Heute ist die Firma Amdahl, dank der überlegenden Fujitsu-Bauelemente und Zulieferteile, IBMs gefährlichster Konkurrent auf dem nordamerikanischen Heimmarkt und greift IBM auch in Europa und Japan an.

Bei allen Erfolgen traten jedoch auch die Schwächen einer Strategie der IBM-Kompatibilität offen zutage. Es war IBM, die den Standard kontrollierte und jederzeit Änderungen vornehmen konnte. Fujitsu und Hitachi erfuhren davon, wenn die neuen Maschinen auf dem Markt waren und mußten dann die Änderungen in aller Hast nachvollziehen. Sie versuchten deshalb, von den Änderungen vorher zu erfahren. Dies ist der Hintergrund zu einem Zwischenfall im Silicon-Valley, der 1982 weltweit Schlagzeilen machte. Die amerikanische Geheimpolizei FBI hatte damals einen Hitachi-Angestellten, der geheime IBM-Unterlagen in die Hand zu bekommen suchte, eine Falle gestellt und ihn verhaftet.

IBM setzt ihre Copyright-Rechte durch

Eine weitere Erschwerung für Fujitsu und Hitachi brachte das amerikanische Computer-Software-Gesetz von 1980, das den Copyright-Schutz ausdrücklich auf Computer-Betriebssysteme ausdehnte. IBM begann, mit gerichtlichen Klagen gegen Verletzung seiner Copyright-Rechte vorzugehen. Hitachi erreichte nach dem Zwischenfall von 1982 gegen erhebliche Zahlungen eine Einigung mit IBM. Der Konflikt zwischen IBM und Fujitsu dagegen zog sich bis Ende 1988 hin. Er wurde durch einen Schiedsspruch gelöst, der Fujitsu für die Vergangenheit zur Zahlung von 833 Millionen Dollar verpflichtete. Fujitsu erhielt andererseits das Recht, sich - in genau definierten Grenzen - über künftige Software-Weiterentwicklungen von IBM zu unterrichten.

Trotz der hohen Zahlungen war der Schiedsspruch ein Erfolg für Fujitsu. Er beseitigte die Zweifel, die den Absatz von Fujitsu-Computern hemmten, und gab Fujitsu freie Fahrt. 1989 hat Fujitsu denn auch bereites begonnen, IBM-kompatible Computer unter eigenem Namen in Amerika zu verkaufen. Es greift nun IBM weltweit sowohl mit eigenen Maschinen wie mit Amdahl- und ICL-Maschinen an.

"IBM zu besiegen" - dies ist die Devise; und es ist eine Devise die tief in das Bewußtsein der breiten Bevölkerung eingedrungen ist. Anfang der Achtziger Jahre beschlossen die Japaner deshalb, den Frontalangriff auf den IBM-kompatiblen Großcomputermarkt durch Vorstöße auf den beiden Flanken, die von IBM nicht gedeckt waren, zu unterstützen: der Flanke der Supercomputer und der Flanke der wissensverarbeitenden Computer. Dirigiert wurde der Doppelangriff, nicht anders als der Angriff auf den Halbleitermarkt in den siebziger Jahren, von MITI, das nach bewährter Methode Industrie, Universitäten und staatliche Forschungslabors zu zwei Nationalen Projekten zusammenführte:

- dem Projekt des Supercomputers

- und dem Projekt des Computers der Fünften Generation.

Viele Abnehmer für die Zahlenfresser

Supercomputer unterscheiden sich von den normalen Großrechnern durch drei Eigenschaften: Sie rechnen sehr viel schneller; heutige Modelle erreichen Spitzengeschwindigkeiten von über 20 Milliarden Gleitkomma-Operationen pro Sekunde(flops = floating-point operations per second). Sie rechnen anders (Vektor-Rechnen bei repetitiven Aufgaben). Und sie haben riesige Datenspeicher.

Als Seymour Cray, Chef und Chefentwickler der neu gegründeten Firma Cray Research, 1976 den ersten Supercomputer an das Los Alamos National Laboratory verkaufte, da erwartete er, pro Jahr nicht mehr als eine einzige dieser Großmaschinen zu produzieren. Für die teuren "Zahlenfresser" schien es nur wenige Abnehmer zu geben. Militärische und zivile Großforschung, Raumfahrt und Wettervorhersage: damit schienen die Anwendungsbereiche erschöpft.

Cray wurde angenehm enttäuscht: 1978 setzte er vier Supercomputer ab, 1984 dreizehn, und dann begann der Markt zu explodieren. Bereits 1988 durchbrach er die Grenze von einer Milliarde Dollar. Weltweit waren Ende 1989 600 Supercomputer installiert; dazu kamen 300 um eine Vektoreinheit erweiterte IBM 3090-Maschinen.

Supercomputer sind dabei, sich weite Anwendungsbereiche in der Forschung und Entwicklung zu erobern. Mitzuverdanken ist dies der Einführung der Workstations. Diese Hochleistungs-Arbeitsplatzcomputer mit ihrer guten Graphikauflösung und ihrem schnellen Bildaufbau können die unendlichen Zahlenkolonnen der Supercomputer in farbige Schaubilder am Bildschirm umsetzen. In der Verbindung mit Workstations wird der Supercomputer so zu einem idealen Instrument ebenso für den Grundlagenforscher im Universitätslabor wie für den Entwicklungsingenieur in der Industrie.

Der Flugzeugkonstrukteur testet die aerodynamischen Eigenschaften einer Flügelform durch Simulation auf dem Supercomputer; ein Projekt wie das amerikanische Raumflugzeug ließe sich ohne Supercomputer von vornherein nicht realisieren, es gibt keinen Windkanal, in dem man Strömungen bei Geschwindigkeiten bis zu 25 Mach studieren könnte. Der Autokonstrukteur simuliert am Supercomputer beispielsweise Aufpralltests. Früher mußte man für diesen Zweck Prototypen anfertigen. Die neue Methode spart nicht nur Kosten, sie spart vor allem auch Entwicklungszeit, und Schnelligkeit ist entscheidend im heutigen globalen Wettbewerb. Die Molekularbiologen setzen Supercomputer ein, um den Aufbau von Proteinen zu studieren. Die Pharmaforscher testen mit Hilfe der Supercomputer Tausende von Verbindungen, um einen neuen Wirkstoff zu finden.

Die Beispiele machen deutlich: Forschung und Entwicklung in den neuen Hochtechnologien sind immer stärker auf die massiven Rechenkapazitäten des Supercomputers angewiesen. Ohne ihn sind viele Projekte der heutigen Spitzenforschung und viele hochtechnologische Produktentwicklungen nicht mehr möglich. Mit Hilfe von Supercomputern lassen sich zugleich die Entwicklungszeiten dramatisch verkürzen. Der Supercomputer wird damit zum strategischen Instrument im globalen Wettbewerb der Nationen.

Die Japaner treten in den Ring

Supercomputer - dies war eine amerikanische Domäne. Zwei amerikanische Firmen, Cray Research und Control Data, schienen den Markt für sich allein zu haben. Doch wieder einmal kam es anders. Die Japaner hatten die strategische Bedeutung von Supercomputern frühzeitig erkannt. Schon 1981 verkündete MITI sein nationales Supercomputerprojekt. Wie weggeblasen war von diesem Zeitpunkt die Nachfrage japanischer Forschungsinstitute und Universitäten nach amerikanischen Supercomputern, auf die Cray und Control Data große Hoffnungen gesetzt hatten. Und noch vor Mitte der achtziger Jahre traten dann Fujitsu, NEC und Hitachi in den Supercomputermarkt ein. Bis Anfang 1989 hatten sie bereits drei Viertel des eigenen Heimmarkts erobert und über ein Fünftel des Weltmarkts.

Die japanischen Supercomputer haben einen einzigen, extrem schnellen Prozessor, die amerikanischen haben mehrere, langsamere Prozessoren. In dieser unterschiedlichen Architektur spiegeln sich die unterschiedlichen Stärken der beiden Konkurrenten wider. Die amerikanischen Computerbauer gleichen durch ihre Überlegenheit in der Softwaretechnik ihre Unterlegenheit in der Halbleitertechnik aus. Dies aber bedeutet, wie das amerikanische "Institute of Electrical and Electronics Engineers" warnend feststellt: "Wenn die Japaner einmal in der parallelen Verarbeitung aufholen, so können sie die besten US-Maschinen weit überflügeln."

Tritt die Befürchtung des IEEE ein? Im April 1989 stellte NEC seine neue Supercomputerserie SX-3 vor. Das Spitzenmodell hat vier Prozessoren und erreicht eine Höchstgeschwindigkeit von 22 Milliarden FLOPs. Damit übertrifft es die schnellsten Cray Maschinen bei weitem und übertrifft auch den für 1991 angekündigten Cray-3, der mit 16 Prozessoren 16 Milliarde FLOPs erreichen soll. Nicht weniger wichtig ist: sowohl NEC wie Fujitsu und Hitachi bieten ihre neuen Supercomputer mit einem UNIX-Betriebssystem an. Mit diesem Standarde, der auf dem Weg ist, zum weltweiten Standard für Supercomputer ebenso wie für Workstation zu werden, geben die japanischen Hersteller ihren Supercomputern den Zugang zu dem großen Vorrat an UNIX-Anwendungsprogrammen in

der Welt. Der amerikanische Vorsprung bei der Anwendungssoftware geht verloren.

Im April 1989, im selben Monat, in dem NEC seine SX-3-Serie herausbrachte, schloß Control Data seine ETA-Supercomputer-Abteilung. Es hatte nicht mehr die Mittel, um die hohen Forschungs- und Entwicklungskosten für die nächste Generation der Supercomputer zu tragen. Einen Monat später gab das Management von Cray Research die Aufspaltung der Firma in zwei Teile bekannte Cray Research wird die Y-MP-Supercomputer-Linie weiterentwickeln, die konventionelle Silizium-Schaltkreise benutzt. Der Gründer des Unternehmens, Seymour Cray, wird in einer neuen Firma an seinem revolutionären Cray-3 weiterarbeiten, der zum ersten Mal superschnelle Prozessoren aus Gallium-Arsenid verwenden soll. Die Spaltung von Cray Research schien der einzige Weg zu sein, die riskante Entwicklung des Cray-3 weiter zu verfolgen. Die Börse wertete die Spaltungsnachricht als Hiobsbotschaft. Die Cray-Aktie stürzte um sechs Punkte auf 43?. Im April 1987 stand sie noch auf 135?.

Über Nacht war die strukturelle Schwäche der amerikanischen Supercomputer-Industrie offenbar geworden: dem japanischen Trio vertikal integrierter Elektronik-Konzerne steht ein amerikanisches "Ein-Produkt-Unternehmen" gegenüber, das noch dazu dem ständigen Druck seiner Aktionäre ausgesetzt ist, Gewinne vorzuweisen.

Doch die Drohung der drei mächtigen Japaner Fujitsu, NEC und Hitachi zielt über Cray hinaus auf IBM. Supercomputer, basierend auf dem UNIX-Standard, können als Datenbasen die IBM-Mainframes verdrängen und können zu den Zentraleinheiten großer Workstation-Netze werden. IBM hat die Herausforderung angenommen. Es hat sich mit Steve Chen verbündet, dem Architekten der Cray Y-MP-Reihe. Als Cray Research seinen Versuch, einen 64-Prozessor Supercomputer zu entwickeln, als zu riskant stoppte, kündigte Chen und gründete eine eigene Firma. IBM hat sich an dieser Firma beteiligt und unterstützt Chen mit seinen Technologien. Die Maschine, die Chen entwickeln will, soll eine Höchstgeschwindigkeit von 100 Milliarden FLOPs haben und 1992 ausgeliefert werden.

Die Amerikaner suchen die japanische Supercomputer-Drohung auch auf einem zweiten Weg zu parieren: mit der Entwicklung von hochparallelen Computern, die mit Tausenden von Prozessoren arbeiten. Die Firma "Thinking Machines" hat einen Computer mit 65536 Prozessor-Einheiten auf den Markt gebracht. Eine andere neu gegründete Firma, "Ncube-2", stellte einen Supercomputer mit 8192 Prozessoren vor, der

eine Verarbeitungsgeschwindigkeit von bis zu 60 Milliarden Instruktionen pro Sekunde erreicht. Die Halbleiterfirma Intel entwickelt, unterstützt mit Geldern des Verteidigungsministeriums, einen hochparallelen Computer mit 2000 Prozessoren, von denen jeder die Leistung des ursprünglichen Cray-1-Supercomputers bringt.

Kampf auch auf der politischen Ebene

Der Supercomputer-Kampf zwischen Amerika und Japan hat längst auf die politische Ebene übergegriffen. Schon im Januar 1985 machte Präsident Reagan bei einem Besuch des japanischen Premierministers Nakasone Supercomputer zu einem Thema der Gespräche und verlangte, daß Japan seinen öffentlichen Beschaffungsmarkt für die amerikanischen Supercomputer-Hersteller öffne. 1987 wurde diese Forderung zum Inhalt eines förmlichen amerikanisch-japanischen Abkommens, und 1989 legte sie Amerika erneut auf den Verhandlungstisch und erzwang unter Androhung von Vergeltung japanische Konzessionen. Zugleich unterstützt die amerikanische Regierung die Entwicklung und Anwendung von Supercomputern massiv mit öffentlichen Geldern - es ist nicht nur Japan, das Industriepolitik betreibt!

Die National Science Foundation legte schon 1985 ein 200-Millionen-Dollar-Programm über fünf Jahre auf, mit dem sie fünf nationale Supercomputer-Zentren errichtete. (wird fortgesetzt)

*Dr. Konrad Seitz ist Genschers langjähriger Planungschef im Auswärtigen Amt. Neben Ost- und Westpolitik war eines seiner wichtigsten Aufgabengebiete die europäische Hochtechnologie- und Raumfahrtpolitik. Der Text ist seinem Buch "Die japanisch-amerikanische Herausforderung", das jetzt in zweiter Auflage erschienen ist und 39 Mark kostet, mit freundlicher Genehmigung des Aktuell-Verlages entnommen.