Supercomputer '92 in MannheimTeil 1:

Die Devise bei Supercomputern heißt in die Zukuhft Parallelität

07.08.1992

*Uwe Jehnsen ist freier Journalist in München

Schon zum siebten Mal traf sich die Fachwelt auf dem Gebiet des Supercomputing im Juni 1992 in der Universität Mannheim. Von den rund 150 Teilnehmern waren etwa ein Drittel Hersteller während nur jeder Sechste Anwender eines Superrechners war. Im nachfolgenden resümiert der Autor die wesentlichen Trends, wie sie in Mannheim diskutiert wurden.

Nach der Einführung in das Seminar durch Professor Hans Meuer wurden vier Themenkreise diskutiert: Die "Grand Challenges" oder großen Herausforderungen, neue (Rechner-)Architekturen, die aktuelle Information und Firmenpräsentation sowie schließlich - besonders brisant - Supercomputing-Initiativen USA versus Europa mit einer Podiumsdiskussion zum Thema: "Bleiben wir in Europa wieder nur zweiter Sieger?"

Noch beherrschen wir die massive Parallelverarbeitung softwaremäßig nicht, es ist aber wohl der einzige Weg, um die großen wissenschaftlichen Herausforderungen zu lösen.

Von besonderem Interesse an Meuers Einführung ist die jeweils aktuelle Rechnerstatistik der Formel-l-Rechner, zu denen er seit vergangenen Jahr auch den Parallelrechner Connection-Machine von Thinking Machines zählt.

Die Zahl der Rechner ist weltweit von 510 Systemen im Jahr 1991 auf 616 Systeme (Stand März 1992) angewachsen, ein Anstieg um 21 Prozent, verglichen mit den schlechten Umsatzzahlen in einem weiten Teil der Computerszene.

So sind von den Supercomputern (einschließlich der Connection Machine) 39 Prozent in den USA und Kanada, 35 Prozent in Japan, 23 Prozent in Europa und drei Prozent im Rest der Welt installiert. Der Abstand zwischen USA/Kanada und Japan hat sich auf nur noch vier Prozent verringert gegenüber sieben Prozent im vergangenen Jahr. Nimmt man nur die klassischen Vektorrechner, hat Japan inzwischen die USA und Kanada sogar überholt, nämlich mit 41 gegenüber 34 Prozent.

Bei den Herstellern ist Cray noch klarer Marktführer mit einem Anteil von 50 Prozent weltweit. Es folgen Fujitsu und Siemens-Nixdorf sowie Hitachi und NEC.

Sieben Installationen in Deutschland 1991

In Deutschland liegt das Wachstum mit 20 Prozent im Welttrend. Sieben Systeme wurden im vergangenen Jahr neu installiert, vier im Hochschulbereich und zwei in der Industrie, bei Schering in Berlin eine Siemens S100/10 und bei Audi in Ingolstadt eine Cray Y-MP 2/32

Die 20 Rechner im Hochschulbereich teilen sich auf Siemens-Nixdorf, Cray, Thinking Machines und NEC auf. Im Großforschungsbereich ergibt sich ein ganz anderes Bild, weil hier Cray "Marktführer" ist. Ähnlich sieht es bei den 15 Rechnern im Industrie- und Behördenbereich aus. Auch hier dominiert Cray vor SNI.

Allerdings hinken diese Zahlen, da der überwiegende Teil der Cray-Rechner als Mehrprozessormaschinen ausgeliefert wurde. Insbesondere in der Automobilindustrie findet man ausschließlich Cray-Mehrprozessorrechner.

Im vergangenen Jahr hat sich im Supecomputing-Bereich viel ereignet, neben den Verlierern IP-Systems, Floating Point Systems und BBN hat nun auch Alliant aufgegeben. Der Prozessorwechsel auf die 860-CPU-Architektur war wohl der Auslöser. Die Resteverwertung von Floating Point Systems hat Cray übernommen.

Im Oktober 1991 konnte sich zudem Thinking Machines bei Parallelrechnern mit der CM-5 und deren MIMD-Konzept an die Spitze setzen. Intel folgte mit der Paragon-Linie in die massive Parallelverarbeitung. Nicht zu vergessen die DEC-Company: Sie vermerkten inzwischen die Cray EL-Serie exklusiv, andererseits hat sie den Alpha-Chip vorgestellt, den Cray in zukünftigen massiv-parallelen Systemen verwenden will.

Auch IBM will da nicht abseits stehen und wird wohl - nach der Vulcan-Ankündigung - 1994 mit einem Parallelrechner auf der Basis des RS-6000-Chips auf den Markt kommen. Parsytec, inzwischen der letzte verbliebene deutsche Parallelrechner-Hersteller, hat auch ein massiv-paralleles System mit Transputern im Tflop-Bereich angekündigt. Neu im Markt sind Kendall Square Research und für den kommerziellen Markt NCR.

Das Schlagwort des Jahres war Tera, die Fachwelt wurde von Tflop-Initiativen geradezu überschwemmt. Alle Hersteller behaupten, solche Rechner bauen zu können, deren Leistung bei realen Problemen entspricht allerdings nicht den Erwartungen. In Mannheim wurden zudem die Förderungsaktivitäten und Planungen von Staatseite und aus der Industrie ausführlich beleuchtet.

Ulf Bohla Vice-President International Marketing Operations bei IBM United States, setzte sich mit den Trends auf dem Gebiet des Supercomputing aus Sicht der IBM auseinander und wies auf die "Supercomputing-Vergangenheit" von Big Blue in den 60er Jahren hin.

Die IBM 360/195 erzielte 1970 mehr als drei MFlops und reichte damit in die Leistungsklasse damaliger Supercomputer hinein. Sie war aber kein wirtschaftlicher Erfolg, da die numerischen Methoden und die Anwenderprogramme noch nicht verfügbar waren, weil noch kein Bedarf bestand. Inzwischen wurden diese Mängel beseitigt.

Drei wesentliche Aspekte beziehungsweise Fragen der rechnerunterstützten numerischen Simulation sind nach Bohla:

- Werden Höchstleistungsrechner von der Forschung benötigt, ist der Bedarf vorhanden?

- Sind die Rechner von den Nutzern Oberhaupt bezahlbar und bestehen Marktchancen?

- Sind die Rechner gut zu nutzen und benutzerfreundlich, wächst dadurch das Marktpotential?

Nach Meinung der IBM hat sich die Computersimulation in vielen technisch-wissenschaftlichen Bereichen durchgesetzt, beispielsweise in der Automobil- und chemischen Industrie sowie in der Seismik.

Inzwischen wandert das Supercomputing aus dem ingenieurtechnischen Bereich in die kommerzielle Datenverarbeitung und findet auch für Simulationen von komplexen Finanzsystemen oder Versicherungsdaten Anwendungen. Dataquest erwartet für den Supercomputermarkt einen Umsatz von 2,5 Milliarden Mark, wovon 40 Prozent auf die USA, 29 Prozent auf Europa, 26 Prozent auf Japan und 5 Prozent auf den Rest der Welt entfallen. 1995 soll sich das Marktvolumen mit geschätzten 5,2 Milliarden Mark mehr als verdoppelt haben.

Nach einer Studie des Argonne National Laboratory sollen 42 Prozent der Systeme im Universitäts- und Großforschungsbereich, 28 Prozent in Rüstung und Raumfahrt und 10 Prozent in der Ölindustrie situiert sein. Wesentliche Voraussetzungen für das Supercomputing sind nach Bohlas Meinung gut ausgebildete Nutzer, die aber noch selten seien.

(wird fortgesetzt)