So viel läßt sich der Staat das Supercomputing kosten

07.08.1992

Schon 1988 erkannte man in den USA, daß die stetige Leistungsverbesserung

der Mikroprozessoren (Killer-Micros) sowie die japanischen, Supercomputer-Hersteller aus politischen Gründen die amerikanische Supercomputer-Industrie und somit den technologischen und wirtschaftlichen Vorsprung gefährden.

Noch nicht aus den Kinderschuhen

Bestechend ist die Idee schon: Anstatt in sündhaft teure Superrechner zu investieren, verfaßt, man "einfach" neue Arbeitsplatz-Beschreibungen für vorhandene Workstations. Man vernetzt die Tischcomputer einem Verbund parallel arbeitende Systeme setzt deren Wochenarbeitszeit drastisch hoch - bislang soll die Auslastung der Tischcomputer zwischen drei bis zehn Prozent liegen - und schon ist der hausgemachte Superrechner zusammengestöpselt.

Leider machen die Softwerker einen dicken Strich durch diese Rechnung. Es ist eben überhaupt nicht trivial, solche sich als MIMD-Rechner mit lokalem Speicher gerierenden Cluster als Parallelsystem zu "fahren".

Zu den Problemen von Workstation-Clustern gehört, daß zu viele Kommunikationsoperationen aufgesetzt werden müssen, also die Verweilzeit bei mehreren CPUs steigen kann. Vor allem die geringen Kommunikationsgeschwindigkeiten limitieren zudem die Anzahl zu koppelnden Prozessoren auf maximal 16 Ausbau- beziehungsweise Skalieroptionen sind in Workstation-Clustern somit enge Grenzen gesetzt.

Auch bei den ausgewachsenen Parallelsystemen von Ncube, Thinking Machines oder Parsytec müssen vorgängig die Softwareprobleme gelöst werden. Bei den massiv-parallelen Systemen (MPP) sehen sich die Entwickler vor allem mit der Schwierigkeit konfrontiert, Datenintegrität im Speicherkonzept zu gewährleisten. Hier scheint sich das VSM Prinzip (Virtual Shared Memory) durchsetzen.

Besonders traurig in diesem Zusammenhang ist es, wenn staatliche Förderungsinitiativen außer Sitzungen nichts produzieren: Während die US-Amerikaner den Ernst der Stunde anscheinend erkannt und konzentrierte Aktivitäten gestartet haben, erweckt die europäische Rubbia-Initiative den Eindruck eines Debbatirclub, der wegen diverser Partikularinteressen Gefahr läuft, Zeit und den Anschluß an das "Weltniveau" im Supercomputing zu verlieren. Dabei ist das Thema Parallelrechner heißt: So aktuell jedenfalls, daß die Redaktion den Schwerpunkt in zwei Teile aufbrechen mußte: Der vorliegende behandelt vor allem Software- und Förderungsaktivitäten. In einem später folgenden wird der Leser sich über das Angebot diverser Hersteller informieren können.

Wallstreet goes parallel

Anwendungen, für welche bereits erfolgreich parallele Algorithmen entwickelt wurden, finden sich in erster Linie noch bei wissenschaftlichen Simulationen. Ein Beispiel hierfür stammt aus der Stromungsmechanik (siehe Abbildung): Doch vermehrt finden massiv-parallele Supercomputer auch Aufgabengebiete kommerziellen Umfeldern. Auch an der Wallstreet setzt man bereits Parallelsysteme für Finanzberechnungen ein.

Quelle Ncube

In einem Bericht stellte die Gartner Group fest, daß die Führerschaft der amerikanischen Supercomputer-Industrie durch japanische Elektronikunternehmen in Frage gestellt ist.

So hat beispielsweise Cray Research einen Umsatz von einer Milliarde Dollar, verglichen

mit einen Umsatz von 15 bis 45 Millarden Dollar bei den drei größten japanischen Unternehmen, Fujitsu, Hitachi und NEC. Die Untersuchung hatte nicht nur die Leistung und den Preis von Supercomputern zum Thema. Es wird auch nachgewiesen, daß High-Performance-Anwendungen gesamtwirtschaftliche Bedeutung haben. Die Entwicklungszeit technischer Produkte, zum Beispiel vom Auto über das Flugzeug bis zum Computer, wird durch die die numerische Simulation verkürzt. Dieser Nutzen scheint - außer in Japan - in anderen Industrieländern noch nicht so deutlich zu sein. Dem japanischen Automobilhersteller Nissan steht eine größere Supercomputing-Kapazität zur Verfügung als der gesamten amerikanischen Automobilindustrie. Aus diesen Gründen wird eine massive Unterstützung durch die amerikanische Regierung gefordert. Die Gartner-Auguren haben auch einige Szenarios durchgespielt, aus denen sich ergab, daß die Förderungsgelder für die Zukunft gut angelegt sind.

Die Umsetzung dieser Studie kann sich sehen lassen, es würde das HPCC-Programm (High Performance Computing and Communications Program) aufgelegt. Der Begriff High Performance Computing weist schon darauf hin, daß Höchstleistungs-Systeme gemeint sind, die Tflop-Leistungen bieten. Solche Rechner werden eine massßiv-parallele Architektur besitzen, da die Mehrprozessor-Vektorrechner an technologische Grenzen stoßen. Daher ist im folgenden Supercomputing mit Parallelverarbeitung gleichzusetzen. Die verschiedenen amerikanischen Großforschungs- und Regierungseinrichgen werden massiv gefördert. Die Gelder fließen zum Teil über die Institutionen direkt in Rechnerentwicklungsprojekte.

- Defense Advanced Research Projekts Agency (Daspa)

232,2 (1992)

275,0 (1993)

- National Science Foundation (NSF)

200,9(1992)

261,9 (1993)

- Departament of Energy (DOE)

92,3 (1992)

109,1 (1993)

- National Aeronautics and Space Administration (NASA)

71,2 (l992)

89,1 (1993)

(Angaben in Millionen Dollar)

Neben diesen staatlichen Einrichtungen wurden auch andere Institutionen gefördert. lnsgesamt stehen 1992 654,8 Millionen Dollar zur Verfügung, also rund eine Milliarde Mark! Die Zahlen für 1993 sind noch nicht verabschiedet, als Gesamtsumme wurden 803 Millionen Dollar vorgeschlagen, selbst bei größeren Kürzungen eine enorme Summe.

Das Programm bestellt aus vier Teilen:

1. High Performance Computing Systeme: Damit soll die Technologie für skaliebare Rechnersysteme im Tflop-Bereich entwickelt werden. Derartige Leistungen können nur durch massiv-parallele Systeme erreicht werden. In diesen Hardwarebereich fließen 22 Prozent der Gelder.

2. Advanced Software Technology and Algorithmus: Neue Softwaretechnologien für massiv-parallele Rechner sollen entwickelt werden. Auch durch Algorithmen, die solche Systeme effektiv nutzen, kann eine erhebliche Leistungssteigerung erreicht werden - oft ist sie größer als die durch die Hardware. Die Anwenderssoftware für die großen Herausforderungen

(Great Challenges) soll bereitgestellt werden. Die Bedeutung der System-, Anwender- und Unterstützungssoftware in diesem Programm läßt sich dadurch erkennen, daß 43 Prozent der Gelder in diesen Teil fließen.

3. National Research and Education Network: Erst durch eine leistungsfähige Rechnerverbindung innerhalb der Vereinigten Staaten im Gbit-Bereich können die neuen Rechner von vielen Anwendern erreicht werden. Der Zugang von Forschungs- oder Ausbildungseinrichtungen zu neuester Rechnertechnologie für die großen Herausforderungen mit ihren riesigen Datenmengen wird erleichtert. In den Aufbau dieses Netzwerkes fließen 15 Prozent der Fördermittel.

4. Basic Research and Human Resource: Hier soll die interdisziplinäre, langfristige Forschung unterstützt werden, die Supercomputer als Werkzeug verwendet.

Ein interessanter Ansatz ist sicherlich, daß sich beispielsweise Informatiker, Ingenieure und Chemiker in einem Arbeitsteam zusammenfinden. Da kann jeder vom speziellen Know-how des anderen profitieren. In der Strukturdynamik können beispielsweise Modalanalyse, FEM-Analyse (finite Elementverfahren) und Wärmeanalyse für eine Fahrzeug oder Flugzeugstruktur verknüpft werden. Weiterhin soll die Ausbildung auf dem Gebiet des Supercomputing gefördert werden, da bisher kompetente und hochqualifizierte Mitarbeiter nicht in ausreichendem Maße zur Verfügung stehen. Diese Komponente ist im HPCC-Programm von großer Bedeutung, 20 Prozent der Gelder gehen in diesen Bereich.

Die amerikanische Regierung fördert also Parallelrechner, Sofaware und Algorithmen, Höchstleistungs-Netzwerke sowie die Ausbildung und das Verbreiten des parallelen Know-hows. Wie sieht es in Europa aus?

In Europa hat man zunächst ein C durch ein N ersetzt und HPCN-Aktivitäten (High Performance Computing and Network) in die Wege geleitet. Professor Carlo Rubbia, Direktor vom CERN und Physik-Nobelpreisträger 1994, wurde Vorsitzender einer Kommission (später Rubbia-Kommission genannt), die für die EG Vorschläge auf diesem Gebiet ausarbeiten sollte. Die Arbeit von 1990 bis 1991 dokumentierte der Rubbia-Report im Februar 1991.

Europas Plane ähneln den amerikanischen

Die Ergebnisse ähneln den amerikanischen: Europa sollte erheblich in den Bereich des Supercomputing investieren, um bis zum Ende dieses Jahrhunderts aktiver Teilnehmer und anerkannter Partner auf gleicher Stufe mit Japan und der USA zu werden. Die Arbeitsgruppe empfiehlt einen globalen Aktionsplan mit fünf eng verknüpften Aktionen.

1. Entwicklung eines paneuropäischen Hochleistungsnetzwerks,

2. Aufbau einer europäischen Supercomputer-lndustrie (Entwurf und Produktion) mit Schwerpunkt auf Parallelrechner-Architekturen im Tflop-Bereich,

3. Entwicklung europäischer Software für die Parallelrechner,

4. Forschung und Entwicklung auf diesem Gebiet Kompetenz aus Industrie, Universität und Großforschung sollte gebündelt werden. Pilotprojekte können praktisches und theoretisches Verständnis für innovative Architekturen und Anwendungen wecken. Diese sollen dann zum Entwurf und zur Implementierung von Parallelrechner-Software beitragen.

5. Förderung von Ausbildung und Training: Derzeit sind Wissenschaftler und Ingenieure auf dem Gebiet des Supercomputing und der Parallelverarbeitung dünn gesät, das betrifft den Entwurf, die Entwicklung, die Erstellung und den effektiven Einsatz von Höchstleistungs-Rechnern. Massive Anstrengungen können diesem Mangel abhelfen. Dabei sollten Wissenschaftler in unterschiedlichen Fachdisziplinen ausgebildet werden. Ein Zugriff auf die neuen Rechnerarchitekturen ist zwingend erforderlich.

Man erkennt natürlich sofort die Ähnlichkeiten zum amerikanischen Programm. Auch die finanziellen Wünsche sind vergleichbar, ab 1995 sollten jährlich eine Milliarde ECU (zwei Milliarden Mark) durch europäische, nationale, industrielle und weitere Partner bereitgestellt werden.

Im September 199l wurde nach dem Rubbia-Bericht eine Arbeitsgruppe unter der Leitung von Carlo Rubbia beauftragt, die oben genannten europäischen Ziele strategisch umzusetzen. Es entstanden vier Arbeitsgruppen:

- Hardware und Architektur,

- industrielle Anwendungen,

- wissenschaftliche Anwendungen,

- Netzwerke.

Diskussion über die optimale Architektur

Leider stellte es sich sehr früh heraus, daß sich die großen strategischen europäischen Ziele nicht immer verwirklichen ließen. Gerade in der Arbeitsgruppe Hardware und Architektur gab es heftige Diskussionen, ob eine europäische Hardware gefördert werden solle. Auch stritt man sich über die parallelen Modelle, Transputer-Netze, moderat parallele Vektorrechner oder gar SIMD-Strukturen, welche Architektur also optimal ist.

Insgesamt war es den Arbeitsgruppen bis Ende Februar 1992 nicht gelungen, eine europäische Perspektive zu entwickeln. Daraufhin wurde die Erstellung eines Berichts um zwei Monate verschoben. Außerdem entstanden drei neue Arbeitsgruppen, die die Ziele und Strategien für eine europäische Förderung neu definieren sollten. Aus den Berichten der anderen Arbeitsgruppen wurde deutlich, daß sehr viele Einzelinteressen Priorität vor einer großen Lösung besaßen.

Ende April 1992 berichteten die drei Gruppen. Es soll eine langfristige Strategie entwickelt werden, damit Europa eine führende Rolle im Supercomputing spielt und im Jahr 2000 konkurrenzfähige Parallelrechner anbieten kann. Forscher aus Industrie und Wissenschaft sollen mit den Herstellern zusammenarbeiten. Wissenschaftliche und auch kommerzielle Anwendungen will man effektiv auf Parallelrechner portieren oder entwickeln

Besonders hervorgehoben wird die Mitarbeit der Industrie. Gemeinsame Projekte zwischen Industrie, Forschungseinrichtungen und Universitäten stellen auf dem Plan. Das Förderungsprogramm soll auch durch die Industrie kontrolliert werden. Den wirtschaftlichen Nutzen wollen die Verantwortlichen der Öffentlichkeit transparent machen. Wichtige Gesichtspunkte bleiben die Anwendungs- und Entwicklungsunterstützung, die Ausbildung, die Grundlagenforschung und die Hochgeschwindigkeitsnetze.

Im April wurden Forderungsmittel in Höhe von 700 Millionen Mark pro Jahr bis zu zwei Milliarden Mark in sieben Jahren veranschlagt. Im einzelnen sollen folgende Bereiche unterstützt werden:

Millionen Mark pro Jahr

Servicezentren 330

Netzwerk 123

Ausbildung 21

Anwendungsprojekte 153

Technologie 153

In den Bereichen F & E gehören die Neuentwicklung und Umstellung von Anwendungen sowie die Entwicklung von Softwarewerkzeugen. Außerdem die Forschung und Entwicklung in Schlüsseltechnologien, Demonstratoren der Technologie, Europa-Breitbandnetz, HPCN-Unterstützungszentren sowie Ausbildung und Training. Die Vorschläge müssen noch in den Bericht der Rubbia-Kommission zur Umsetzung der Ideen von 1991 eingearbeitet werden.

Nachdem von verschiedenen Seiten beobachtet wurde, daß in der Rubbia-Kommission sehr stark die Interessen der wissenschaftlichen Anwendungen aus der theoretischen Physik vertreten wurden, bildete sich eine lndustrieinitiative. In der European Industry Initiative (Kurz-bezeichnung EI3- vereinigten sich industrielle Anwender AEG, Bae, Casa, Daimler-Benz, TNO, DLR, Dornier, Piraiki Patraiki, Telefunken Systemtechnik, LPAC, Thomson CSF, Hitec), Chip- und Rechnerhersteller (Cap Gemini, IBM, Inesc, Inmos, Parsytec) und beratende Partner aus Großforschung und Hochschule (FhG-IAO, FhG-IPK, TU München). Daneben gibt es noch 37 Interessierte Partner.

Im April 1992 hat EI3 der EG ein Strategiepapier zugeschickt. Darin wird ein großer Handlungsbedarf festgestellt. Als Aktionen werden vorgeschlagen:

- Demonstration der industriellen Vorteile,

- Entwicklung der Softwarertechnologie,

- langfristige Unterstützung und Sicherstellung von Softwarelösungen,

- Aufbau des Wissens, das zu einer allgemeinen Verfügbarkeit des Knows-hows führt

Die industrielle Gruppe glaubt, daß Europas Situation durch ein High-Performance Programm, gesteuert durch industrielle Anwendungen, erheblich verbessert werden kann. Über einen Zeitraum von zehn Jahren werden etwa 500 Millionen Mark für die Anwendungen benötigt. Siliziumentwicklung der Herstellungskosten für Rechner sind darin nicht enthalten.

Auch die El3 hat vier Arbeitsgruppen gebildet, für:

- Anwendungen aus dem Bereich der Ingenieurswissenschaften, der technischen Produkte und Systeme, der wirtschaftlichen Produkte und Systeme sowie des wissenschaftliche Supercomputing,

- Software Architektur, mit parallelen Programmiermodellen, parallele Softwarekrise, Methoden und Werkzeuge, Unterstützungsmöglichkeiten bei der Programmierung,

- Hardware und Architekturen existierende und neue Architekturen, Teilsysteme, Leistungswachstum, Entwurfshilfsmittel,

- Neue Algorithmen und Verfahren zum Reduzieren der Komplexität der Probleme

Die Industrie sieht eine Förderung nur unter Anwendungsaspekten, die für die Produktion wichtig sind.

Wie nun die Wünsche und Ziele der verschiedenen Interessengruppen von Professor Carlo Rubbia zu einem "runden" HPC-Programmvorschlag vereint werden können, bleibt noch offen. Bisher liegt noch kein Bericht vor, der Termin wurde mehrfach verschoben. So ist sicherlich erst im Herbst mit einem klaren Programm zu rechnen.

BMFT will vorhandene Infrastruktur nutzen

Auch in Deutschland denkt man im BMFT über Supercomputing nach. Nachdem nun zwei Projekte (Suprenum, IP-Systems) im letzten Jahr gescheitert sind, ist man sicherlich viel vorsichtiger. Man will stärker im europäischen Nahmen agieren und wohl keine eigene, spezielle Förderung beginnen. Weiterhin möchte man Methodiker auf dem Gebiet des Supercomputing und Anwender zusammenbringen. Dabei sollen vorhandene Infrastrukturen der Großforschungseinrichtungen GMD, HLRZ (Höchstleistungs-Rechenzentrum bei der KfA in Jülich) zum Einsatz kommen. Der Transferprozeß von der Wissenschaft zur Wirtschaft soll ausgebaut und optimiert werden. Das BMFT wird Mitte dieses Jahres entscheiden, ob und welche Initiativen im europäischen Rahmen unterstützt werden sollen.

In Europa sollte nicht mehr lange über spezielle Interessen diskutiert werden. Impulse für die kleineren Hard- und Softwarehersteller in Europa sind wichtig. Für solche Unternehmen kann sich eine diskontinuierliche Politik verheerend erweisen. Langfristige Strategien vorzuschlagen und auch durchzuhalten ist wichtig. Das Supercomputing wird vielfach als exotische Spielwiese angesehen, die wirtschaftlichen Vorteile durch kürzere Entwurfs- und Planungszeiten sind volkswirtschaftlich von größter Bedeutung. Die numerische Simulation könnte noch in vielen Bereichen für bessere Produkte, für besseres Verstehen technischer Vorgänge und sorgt für mehr Gewinn sorgen. Vielleicht rütteln die High-Performance-Initiativen potentielle industrielle Anwender auf, auch Ergebnisse aus dem Rechner zu nutzen.

*Uwe Jehnsen ist freier Journalist in München