Supercomputer und Parallelrechner: Marktübersicht (Letzter Teil)

Für massiv-parallele Rechner steht die Zukunft rosig aus

06.12.1991

Im letzten Teil ihres Artikels beleuchten die Autoren die Anwendungsgebiete für die Höchstleistungsrechner, sie verschaffen dem Leser einen Überblick über die Leistungsdaten der relevanten Systeme und äußern ihre Einschätzung, was in Zukunft von den

verschiedenen Herstellern zu erwarten sein dürfte.

Betrachtet man die Anwendungsgebiete der Supercomputer und Parallelrechner in Europa (vergleiche Abbildung 9), so dominieren mit Abstand die technisch-wissenschaftlichen Anwendungen. Kommerzielle Anwendungen werden offensichtlich nur mit Systemen von Meiko und vor allem von Sequent durchgeführt.

Hier ist also in Europa noch ein großes Anwendungspotential vorhanden, in USA hat man mit dem Einsatz von Supercomputern und Parallelrechnern im nicht-technisch-wissenschaftlichen Bereich bereits einige Erfahrungen aufzuweisen, wie etwa im Bankbereich (31).

Die letzte Statistik, Abbildung 10, gibt einige Informationen über das Leistungsverhalten der verschiedenen Supercomputer und Parallelrechner. Die meisten Systeme sind in den Linpack-Publikationen von Dongarra (32) aufgeführt, die Daten für den 100x100- beziehungsweise 1000x1000-Linpack-Benchmarktest haben wir hier aufgelistet. Soweit vorhanden, sind auch die Daten des Slalom-Benchmarks (33) aufgeführt. Daß schon bei den Formel-1-Supercomputern die Leistungsmessung ein diffiziles Geschäft ist und man versucht, mit Hilfe der Perfect-Club-Benchmarks (34) neue Wege zu gehen, sei hier erwähnt.

Bewußt haben wir nicht die Peak-Raten in Mflops der Rechner herausgestellt, sondern die Hersteller gefragt, welche reale Leistung bei welcher Anwendung bisher gemessen wurde. Das Ergebnis dieser Umfrage findet man auf der rechten Seite der Abbildung 10.

Die hier vorgelegten Formel-1-Statistiken werden auf dem Supercomputer-'92-Seminar in Mannheim (25. - 27. Juni 1992) aktualisiert. Wir hoffen jedoch, zu diesem Zeitpunkt auch die neuesten Europa-Daten für die Parallelrechner und Supercomputer vorlegen zu können; hierzu sind wir auf die Kooperation der Hersteller angewiesen.

Arbeitspferde in Industrie und Wissenschaft sind Crays

Insgesamt erwarten wir mittelfristig (bis etwa 1995) folgende globalen Entwicklungen:

- Working Horses in Wissenschaft und Industrie bleiben die MP-Vektorrechner von Cray, Fujitsu/SNI und NEC, derzeit typischerweise im Einsatz als Durchsatzmaschinen, das heißt, jeder Prozessor bearbeitet einen eigenen Job. Durch die C90 von Cray Research mit 16 Prozessoren (1992) und die neuen Rechner von Steve Chens SSI mit bis zu 4 x 32 Prozessoren (1993 erwartet) sowie der zu erwartenden SX3-Nachfolgemaschine von NEC mit bis zu acht Prozessoren (1993) wird man gezwungen sein, auch auf den Formel-1-Rechnern einzelne Programme zu parallelisieren (35, 36). Wir erwarten für diese Rechnerkategorie ein jährliches Wachstum zwischen zehn Prozent und 20 Prozent weltweit.

- Die Crayetten dürften kurzfristig abgelöst werden durch die wirtschaftlicheren und leistungsäquivalenten Hochleistungs-RISC-Stationen. Um zu überleben, müssen die heutigen Mini-Supercomputer-Hersteller sich leistungsmäßig nach oben von diesen Hochleistungs-RISC-Stationen absetzen, wie das etwa Convex mit der C3 praktiziert.

- Auf dem Markt für massiv-parallele Rechner (ab zirka 64 Prozessoren) gibt es derzeit eine Vielfalt von SIMD- und MIMD-Systemen, und diese Vielfalt wächst. So wird der Vater des "Denelcor HEP", Burton Smith, 1993 mit seiner neuen Firma Tera Computer einen massiv-parallelen Rechner mit einer HEP-ähnlichen, aber stark weiterentwickelten Architektur auf den Markt bringen (37).

Massiv-parallel mit Schwachen im Skalarbereich

Von Cray Research ist bekannt, daß sie bis spätestens 1994 einen massiv-parallelen Rechner planen, der als Spezialrechner eine Ergänzung zur erfolgreichen Produktlinie darstellt und über ein Virtual Shared Memory (VSM) weitgehende Kompatibilität

zu dieser Linie bieten wird.

Noch früher, nämlich 1993, wird Fujitsu mit einem Parallelrechner mit rund 100 Prozessoren und mehr als 100 Gflops Leistung im Markt präsent sein.

Viel Vorschußlorbeeren erhält derzeit auch das innovative Konzept der US-Firma Kendall Square Research (KSR), die sehr ambitionierte Pläne bezüglich der Leistung des Rechners und Qualität der VSM-Implementierung hat. Im Markt darf man KSR 1992 erwarten.

- Im Bereich massiv-paralleler Array-Prozessoren sind derzeit die Systeme CM2 von Thinking Machines mit weltweit 63 Installationen und MP-1 von Maspar (mit etwa 50 Installationen weltweit) recht erfolgreich. Wegen der architekturbedingten, durch

die Hardware realisierten Synchronisation der Prozessoren sind diese SIMD-Rechner derzeit wesentlich einfacher zu programmieren als MIMD-Rechner mit lokalem Speicher.

Allerdings haben diese Rechner auch erhebliche Nachteile, gerade bei numerisch-intensiven Problemstellungen wegen ihrer äußerst schwachen Skalarleistung. Es verwundert deshalb nicht, daß man jetzt bei Thinking Machines das CM2-Nachfolgesystem CM-5 vorstellte (vergleiche hierzu CW Nr. 46 vom 15. November 1991, Seite 27 "Durchgängige Anwendungen von Workstations bis Superrechner"), das auf einer flexibleren Hardware (bis zu 1024 Sparc-Prozessoren) gestattet, das bisherige Programmiermodell beizubehalten, das aber auch als MIMD-System mit lokalem Speicher verwendet werden kann.

Wir erwarten, daß das Segment der "datenparallelen" Rechner jährlich um zirka 20 Prozent weltweit wächst.

- MIMD-Systeme mit lokalem Speicher sind derzeit eher Objekt der Forschung als Werkzeug zur Forschung. Zu den Firmen, die erst in diesem Jahr die Segel streichen mußten, gehören die deutschen Firmen Suprenum und IP-Systems sowie die amerikanische Firma BBN.

Der Flaschenhals bei MIMD-Systemen mit lokalem Speicher ist derzeit sowohl die komplizierte Programmierung als auch die noch nicht ausreichende Kommunikationsleistung. Tätig in diesem Markt sind bei weiterhin zu erwartendem guten Erfolg - insbesondere bei Spezialanwendungen - mit transputerbasierten Systemen die britische Firma Meiko und die deutsche Firma Parsytec.

Mit proprietären Prozessoren versucht die US-Firma Ncube, nach großen Erfolgen in USA auch in Europa Fuß zu fassen. Wie gut dies gelingt, muß sich in diesem und spätestens im nächsten Jahr zeigen. Schon über der Schwelle, wo es noch bergab gehen

kann, ist unseres Erachtens Intel mit seinem auf der 860-RISC-CPU (und Nachfolgern) basierenden IPSC/860-Konzept.

Der Markterfolg für die Hersteller von MIMD-Parallelrechnern mit lokalem Speicher wird sich im industriell-kommerziellen Bereich erst dann einstellen, wenn die Portierbarkeit bestehender (Fortran-)Programme ermöglicht wird.

Aus diesem Grunde arbeiten einige Hersteller - allen voran Intel - daran, ein VSM-Betriebssystem als Alternative zu den bisher eingesetzten Private-Data-Betriebssystemen zu entwickeln.

Alles wird davon abhängen, wie effizient die Implementierung dieses Virtual-Shared-Memory-Konzepts zu realisieren ist. Insgesamt erwarten wir für MIMD-Systeme mit lokalem Speicher, die sich praktisch alle derzeit noch in der Entwicklungs- und Erprobungsphase befinden, eine längere Durststrecke. Denjenigen aber, die diese Durststrecke durchhalten - dieses geht nur mit Wachstumsraten von mindestens 30 Prozent pro Jahr weltweit - dürfte eine rosige Zukunft beschieden sein.

- Für zumindest eine längere Übergangsphase (bis weit in die 90er Jahre hinein) ist auch dem Alliant-Ansatz (globaler Speicher, Off-the-shelf-Prozessoren) eine gute Chance einzuräumen. Für diese Systeme kann man bereits heute - wie für die Formel-1-Supercomputer und auch die Convex-Systeme - autoparallelisierende Compiler anbieten.

- Die integrierten Vektorprozessoren (IBM, DEC) sind die am wenigsten innovativen, aber auch risikoärmsten Ansätze zur Leistungssteigerung im Number-Crunching-Bereich. Ihr Schicksal ist an das Schicksal der Mainframes gebunden, das derzeit insbesondere im wissenschaftlich-technischen Bereich nicht gerade rosig aussieht. In diesem Bereich erwarten wir eher eine Stagnation und mittelfristig einen Rückgang.

Ob schon 1995 ein Supercomputer im Tflops-Bereich (10 hoch 12 Gleitkomma-Operationen pro Sekunde) auf dem Markt sein wird, erscheint uns eher zweifelhaft.

Während die von Physikern in Europa getragene Initiative (38) ETI (European Tera Flop Initiative) partiell auf schnelle Resonanz (39) im Herstellerbereich getroffen ist (bei Parsytec hält man bereits im Jahre 1993 diese Leistung bei QCD-Problemen für machbar), sind die Vertreter der derzeit dominierenden MP-Vektorrechner eher konservativ in ihren Prognosen: Sowohl Cray Research als auch Fujitsu (40,41) visieren den 1-Tflops-Bereich erst in der zweiten Hälfte der 90er Jahre an, in unseren Augen ein eher realistischer Ansatz.