16. Supercomputer-Konferenz in Heidelberg

Firmen installieren mehr Hochleistungsrechner

06.07.2001
Das Wettrennen um die schnellsten Computer der Welt hält an, doch die Hersteller von Hochleistungsrechnern kümmern sich jetzt verstärkt um sinnvolle Anwendungen für die Geschäftswelt. Auf der 16. Supercomputer-Konferenz in Heidelberg zeigte sich, dass immer mehr kommerzielle Unternehmen die Kraftpakete installieren. Von Johannes Kelch*

Ganz oben auf der Liste der 500 schnellsten Computer der Welt steht ein Rechner von IBM, installiert im Lawrence Livermore National Laboratory in Livermore, USA. Der "Asci White" (Asci = Advanced Strategic Computer Initative des US-amerikanischen Energieministeriums) kann mehr als sieben Teraflops - das sind sieben Billionen Floating Point Operations per Second - ausführen. Veröffentlicht wurde die neueste Liste der "Top 500" kürzlich auf der 16. Supercomputer-Konferenz in Heidelberg, der größten Veranstaltung dieser Art in Europa.

Deutschlands Stärkster auf Platz zwölfDerzeit schaffen zwölf Computer weltweit den "Linpack Benchmark Test", die Lösung eines Systems linearer Gleichungen, mit einer Rechenleistung von mehr als einem Teraflop. Die ersten Zwölf aus der Riege der Supercomputer dienen alle der Wissenschaft und Forschung. In Deutschland, wo die meisten europäischen High Performance Computer (HPC) laufen, steht der zwölft-leistungsfähigste Rechner der jüngsten Ranking-Liste: eine Anlage im Münchner Leibniz-Rechenzentrum, installiert im vergangenen Jahr von Hitachi.

Die Musik im Supercomputing spielt zur Zeit jedoch nicht im Highend-Bereich. Der Weltrekord von heute wird voraussichtlich schon im kommenden Jahr gebrochen. Ein Ende der Jagd auf Teraflops - und in rund zehn Jahren auf Petaflops - ist noch lange nicht in Sicht. Der Mannheimer Hochschullehrer Hans Meuer, Initiator der Heidelberger Konferenz, schätzt, dass das Mooresche Gesetz noch mindestens zehn Jahre gültig sein wird, wonach sich alle 18 Monate die Prozessorleistung verdoppelt.

So macht sich in der Szene eine Art Teraflops-Katerstimmung breit. Jochen Krebs, Manager High Performance Technical Computing bei Compaq, beeilte sich in Heidelberg, die Bedeutung des "Megahertz-Wettrennens" herunterzuspielen. Krebs wörtlich: "Es kommt vor allem auf die optimale Leistung entsprechend den sehr spezifischen Anforderungen der Anwender an." Der Spezialist rechnet mit einem "raschen Fortschritt bei kommerziellen Anwendungen" für Supercomputer.

Viel interessanter als die Rekordjagd im Highend-Supercomputing sind denn auch die Anwendungen, Architekturen und Aussichten der abgeschlagenen Rechner auf den hinteren Rängen der Top-500-Liste, im Low-Level-Supercomputing. Die Anzeichen mehren sich, dass die Computer der gemäßigten Superlative und das parallele Rechnen bald in großem Stil in die Unternehmens-IT Einzug halten werden. Das Interesse der Privatwirtschaft wächst. Zur Heidelberger Konferenz kamen von den 348 Teilnehmern 26 Prozent aus der Industrie, 23 Prozent aus dem Kreis der Supercomputer-Hersteller.

Schon auf Platz 20 der Top 500 ist der schnellste kommerziell genutzte Supercomputer aufgeführt. Er gehört dem internationalen Investment-Haus Charles Schwab & Co., der maximal auf eine Rechenpower von 795 Gigaflops zurückgreifen kann. Nummer 500 ist eine Installation bei Opel in Rüsselsheim, die noch knapp 68 Gigaflops leistet. Insgesamt 236 von den 500 schnellsten Rechenknechten der Welt dienen der privaten Wirtschaft.

Telekommunikationsunternehmen sind mit knapp 50 Rechnern vertreten. Mit knapp 40 Rechnern sind Banken und Versicherungen unter den Top 500 zu finden. Es folgen die Automobilindustrie, Ölkonzerne, Elektronikfirmen und Supercomputer-Hersteller, Pharma- und Chemie-Unternehmen, Fluglinien und Energieversorger. Vereinzelt tauchen E-Commerce und Datenbanken als Einsatzfelder auf.

Immer breiter fächert sich das Spektrum der kommerziellen Anwendungen auf. Konferenzorganisator Meuer rechnet mit einer intensiven Nutzung von Hochleistungsrechnern zur Lösung von nicht-numerischen Aufgaben. Als Beispiel nennt er die Geschäftsplanung und Prozesskontrolle bei global operierenden Fluglinien.

Die Analytiker im Data WarehouseEine wachsende Akzeptanz von Supercomputern in der Industrie registrierte Surjit Chana, Vice President High Performance Computing bei IBM. Er nannte als künftige Einsatzfelder Business Intelligence und Optimierung von Supply Chains. Eine Anlage für Data Warehousing installiert IBM derzeit bei der Deutschen Telekom.

Eric Schnepf, Manager High Performance Computing bei Fujitsu-Siemens, glaubt, dass die schnellen Maschinen sich überall dort durchsetzen werden, wo Hochverfügbarkeit und Ausfallsicherheit Priorität haben, insbesondere beim Betrieb von geschäftskritischen Anwendungen. Als Beispiel einer geschäftskritischen Anwendung in einer Bank führte Schnepf das Supercomputing bei der Commerzbank an. Hier wird mit zwei gespiegelten Rechenknechten nicht nur die Speicherkonsolidierung betrieben, sondern auch ein hochperformantes und skalierbares Data Warehouse für Börsendaten aufgebaut.

Ein heißes Thema ist das Supercomputing für die Automobil- und generell die Fertigungsindustrie. Modellberechnungen und Simulationsaufgaben im "Computer Aided Engineering" haben Konjunktur. Silicon Graphics (SGI) gab in Heidelberg die Ergebnisse einer Marktstudie bekannt, wonach in diesem Segment innerhalb eines Jahres ein Wachstum von 46 Prozent zu verzeichnen ist. Neben Crash-Simulationen setzen sich in der Branche weitere aufwändige Berechnungen durch, so zur Analyse von Struktur- und Strömungsmechanik oder zur Simulation von Abläufen in Verbrennungsmotoren.

Neue Anwendungen für Supercomputer sind nur mit zusätzlichen parallelen Algorithmen und Programmen denkbar. Auf diesem Gebiet wurden in den letzten Monaten Fortschritte erzielt. So gab die Numerical Algorithms Group (NAG) aus Oxford per Pressetext die Verfügbarkeit von 95 neuen parallelen Algorithmen bekannt. Optimiert wurden laut NAG Algorithmen für Simulationsrechnungen im Finanzsektor mit den Methoden der theoretischen Physik und Stochastik ("Monte-Carlo-Methoden"). Die Simulation der Dynamik von Aktien- und Devisenkursen oder Zinsen hilft Führungskräften von Banken und Versicherungen beim Risiko-Management.

Linux-Cluster sind kostengünstigerSupercomputer-Experte Meuer ist jedoch überzeugt, dass solche Fortschritte noch nicht ausreichen, "um das Supercomputing in den Mainstream der Softwareentwicklung zu bringen". Meuer bedauert: "Die Entwicklung von parallelen und verteilten Programmen, die korrekt, effizient, skalierbar und portierbar sind, bleibt der Flaschenhals für den effektiven Einsatz von parallelen und verteilten Computerumgebungen."

Ein anderes Defizit, die hohen Investitionskosten für Supercomputer, wurde dagegen durch einen aktuellen technischen Trend überwunden: Linux-Cluster. Sowohl Forschungseinrichtungen als auch Unternehmen setzen nach der Beobachtung von Hochschullehrer Meuer verstärkt die "Beowulf"-artigen Cluster ein, deren Hardware aus Standard-PC-Komponenten bestehen. Der Beweggrund ist laut Meuer "das ungeschlagene Preis-Leistungs-Verhältnis".

Sogar renommierte Automobilhersteller lassen sich auf das Low-Level-Supercomputing mit Linux-Clustern ein. So informierte Fujitsu-Siemens-Manager Schnepf über den Einsatz eines 128-CPU-Linux-Clusters bei Audi in Ingolstadt. Die kompakt in drei Racks integrierten Cluster haben 76 Knoten, die sich unabhängig voneinander für verschiedene Aufgaben oder kombiniert für eine Anwendung betreiben lassen.

Sie dienen Crash-Simulationen sowie "Feldberechnungen bei Körpern mit beliebiger Oberfläche". Die Leistung von 102 Gigaflops weitab von den Teraflops-Weltrekorden genügt den Ingolstädter Autobauern, um den "Vorsprung durch Technik" - so das Motto von Audi - zu bewahren.

*Johannes Kelch ist Journalist in München.