Präsentation der 500 schnellsten Rechner der Welt

Supercomputer halten Einzug in die Unternehmens-IT

30.06.2000
Auf der alljährlichen Supercomputerkonferenz in Mannheim präsentierte Walter Meuer einmal mehr die Liste der 500 stärksten Rechner der Welt. Neben dem technisch-wissenschaftlichen Bereich werden die Boliden zunehmend auch in der kommerziellen DV, beispielsweise für das Risk Management im Investmentbanking, eingesetzt. Uwe Harms* berichtet.

Zur Jubiläumsveranstaltung Supercomputer 2000, der 15. Tagung in Folge seit 1986, kamen fast 300 Supercomputerfans aus aller Welt nach Mannheim. Neben der aktuellen Top-500-Liste wollten sie auch neue Anwendungsgebiete, Trends und Entwicklungen bei den Soft- und Hardwareherstellern diskutieren. Schon vor einigen Jahren hatte Hans Meuer den Europe Day eingeführt. Die Meuer-Tagung könnte künftig zu dem europäischen Supercomputerereignis werden. Denn parallel zur Tagung präsentierten 18 Aussteller ihre Produkte, darunter Compaq, Fujitsu-Siemens, Hewlett-Packard, Hitachi, IBM, Intel, Nec, SGI, Sun und die Nürnberger Suse.

Jack Dongarra, Hans Meuer und Erich Strohmaier veröffentlichten auf der Veranstaltung die 15. Liste der 500 stärksten Supercomputer. Wie in den letzten Jahren führt auch jetzt IBM die Zahl der Installationen mit 144 Systemen vor Sun mit 121 an, SGI folgt mit 62, die neue Cray Inc. betreut 54 Systeme und Hewlett-Packard 47. Auch bezogen auf die Linpack-Leistung liegt IBM mit 18,5 TFlop/s (Teraflop pro Sekunde) vorn. Cray folgt mit 14 TFlop/s; SGI und Sun liegen mit 6,3 und 6,2 TFlop/s auf den Plätzen.

Die gesamte Leistung hat sich gegenüber dem November 1999 von 51 TFlop/s auf 64 TFlop/s gesteigert, wobei die Nummer eins, das Intel Pentium-System in Sandia, weiterhin ungeschlagen blieb. Die Einstiegsleistung - Rang 500 - wuchs auf fast 44 GFlop/s, so dass 190 Rechner aus der Liste vom November 1999 herausfielen.

Klarer Spitzenreiter sind einmal mehr die USA mit 54 Prozent der Rechner und 58 Prozent der weltweiten Leistung, gefolgt von Europa mit 30 Prozent der Systeme und 24 Prozent der Leistung. In diesem Jahr hat sich erstmals ein Rechner in Deutschland unter die Top Five geschoben. Die Hitachi "SR8000-F" am Leibniz-Rechenzentrum in München erreichte den Platz fünf. Der Rechner dominiert den Hochschulbereich und erreicht 63 Prozent der Leistung aller Hochschulsysteme, die insgesamt einen Leistungsanteil von 23 Prozent haben. Das sind 1,63 TFlop/s. Der Forschungsbereich liegt mit 1,86 TFlop/s und 26 Prozent Anteil etwas besser.

Bei der Nutzung der Supercomputer führt inzwischen die Industrie; sie nutzt von den 7,13 TFlop/s aller Rechner in Deutschland 51 Prozent. Hier sind 13 Prozent der 500 Rechner installiert, elf Prozent bezogen auf die weltweite Leistung.

Von den 51 Industrierechnern in Deutschland lassen sich 18 der Telekommunikation, sechs den Banken und mindestens 13 den klassischen Supercomputerbereichen wie numerische Simulation und rechnerunterstütztes Entwerfen zuordnen.

Die Vektorrechner haben, entgegen den Voraussagen vieler Experten, noch nicht ausgedient. Sie haben sich in den Top-500-Listen stabilisiert und liegen heute bei 60 Systemen. Über vier neue Systeme, die "Cray SV1", die Hitachi "SR8000-F1", ein "NEC SX-5"-Cluster und die Fujitsu Siemens "VPP5000" berichteten Anwender. So simulierte Daniel Heiserer vom Autohersteller BMW auf der SV-1 im parallelen Modus das so genannte NVH-Problem (Geräusch, Vibration und Bequemlichkeit).

Ein weiterer Schwerpunkt der Konferenz lag in diesem Jahr auf den Cluster of Workstations. Hier bieten einige Hersteller wie Compaq mit dem "AlphaSC"-Cluster und Fujitsu Siemens mit der "HPC-Line" auf Pentium-Basis professionelle Lösungen an.

Solche Cluster installierten inzwischen einige Hochschulen, beispielsweise die Universität Wuppertal mit dem Alpha-Cluster aus 128 Knoten, und auch die Industrie, beispielsweise Daimler-Chrysler mit einer 32-Prozessor-HPC-Line zur Simulation der elektromagnetischen Verträglichkeit.

Daneben berichteten Hochschulen und Forschungseinrichtungen über eigene Entwicklungen. Das wichtigste Element ist hier das System Area Network, die Hochgeschwindigkeitsverbindung zwischen einzelnen Prozessoren oder SMP-Knoten. Hier stehen unterschiedliche Lösungen bereit, beispielsweise Myrinet von Myricom, das den Sourcecode offengelegt hat und damit eigene Modifikationen ermöglicht. Solche hat beispielsweise Partec realisiert und die Kommunikation gegenüber Myricom noch beschleunigt. Eine derartige Lösung wählte Wuppertal.

Compaq Computer setzt auch noch das Fat-Tree-Netz und die zugehörige Verwaltungs- und Kommunikationssoftware seines Partners Quadrics - ein europäischer Supercomputerhersteller - für Netze mit höherer Geschwindigkeit ein.

Fujitsu-Siemens arbeitet mit Scali aus Norwegen zusammen, das die Hard- und Software für den Standard Scalable Coherent Interface (SCI) realisiert hat. In den Diskussionen zeigte sich, dass die Rechnerarchitektur aufgrund der günstigen Kosten eine große Zukunft vor sich hat. In diesem Zusammenhang betrachteten die Teilnehmer auch die Bedeutung des Open-Source-Betriebssystems Linux im Supercomputer- und Cluster-Umfeld.

Mit Höchstleistungsrechnern im Investment-Banking und bei der Telekom endete das diesjährige Seminar. Dirk Nonnenmacher von der Dresdner Bank erläuterte die Bedeutung des Risikomanagements, das auch vom Gesetzgeber vorgeschrieben wird. Hier berechnet die Bank mit Hilfe verschiedener Simulationsmodelle, beispielsweise auf der Basis der Monte-Carlo-Simulation und der vorangegangenen Erfahrung, eine Risikobandbreite für Aktien oder Investitionen. Für solche Aufgaben nutzt das Unternehmen mehrere "E3500"- und "E10000"-Rechner von Sun. Diese dienen im Sinne von SAP als Applikations-Server.

Supercomputer dienen als Applikations-ServerFranz Busch von der DeTeCSM, dem IT-Dienstleister der Telekom, stellte die IT-Infrastruktur des Konzerns vor: 28900 Mips-CPUs, 110 TB MVS-Platten, 3200 Unix-Server, 177000 NT-PCs, 135000 Drucker. Die Rechnersysteme kommen von unterschiedlichen Herstellern. Das Unternehmen erstellt beispielsweise zwei Millionen Rechnungen pro Tag, wobei etwa 30 Applikationen dazu genutzt werden.

Mit SAP Human Resources verwaltet DeTeCSM 10 000 namentliche Nutzer; mehr als 3200 gleichzeitige Anwender an 220 Orten müssen bedient werden. Dazu wird "Secure SAP R/3" genutzt. Supercomputer vom Typ IBM "RS6000 SP" dienen dabei als Applikations-Server. So sind derartige Höchstleistungssysteme in die kommerzielle Welt eingezogen. Ihr Absatzmarkt hat sich dadurch erweitert.

*Uwe Harms ist Berater und freier Journalist in München.

Gene Amdahl über die Zukunft der CPUsDer Chefarchitekt der IBM "/360"-Serie und Gründer der Amdahl Corp., Gene Amdahl, berichtete in Mannheim über die aktuellen und künftigen technologischen Entwicklungen bei der Chipherstellung. Die derzeitige 0,18-Mikrometer-Technologie werde sich innerhalb der nächsten 18 Monate auf 0,12 reduzieren. Hierzu müssten aber neue Techniken zum Bedrucken der Wafer bereitstehen.

Die großen nationalen Labs entwickeln eine Methode, bei der der Laser ein Material verdampft, das ein Plasma erzeugt. Dieses strahlt in allen Wellenlängen. Optische Komponenten sammeln das Licht bei 13 Nanometer Wellenlänge und bringen es auf die Maske.

Eine andere Möglichkeit, die Leistung eines Chips um den Faktor drei bis fünf zu erhöhen, ist das Tiefkühlen auf 77 Grad Kelvin. Weitere Möglichkeiten hat IBM durch die Silicon-on-Insulator-Technologie aufgezeigt. Amdahl erwartet eine Taktrate von 10 Gigahertz in zehn Jahren als Grenze für Transistor-basierte Chips. Diese entwickelt derzeit Lucent Technologies mit einer Gatterlänge von 36 Nanometern. Andere Ansätze beruhen auf Quanten-Systemen und auf Photonen statt Elektronen zur Übertragung des logischen Signals.

IBMs Projekt Blue GeneIBM startete das Projekt "Blue Gene" zum Erforschen der Proteinfaltung. Das Blue-Gene-Team entwickelt parallel die Hardware und Software. Ziel ist es, innerhalb von zehn Jahren einen 1-Petaflop/s-Rechner (1000 Teraflop/s) zu entwickeln. Dieser soll kein Spezialrechner wie IBMs Schachcomputer "Deep Blue" sein, aber auch kein Universalrechner. Der Blue-Gene-Computer wird auf wissenschaftliche Probleme ausgerichtet. Allein um die Maschine zu bauen, investiert IBM 100 Millionen Dollar.

William Pulleyblank, Leiter des IBM Deep Computing Institutes, gab einige technische Details bekannt: Ein Prozessor leistet 1 GFlop/s, 32 CPUs befinden sich auf einem Chip. 64 Chips sind auf einem Board zusammengefasst, das ergibt eine Leistung von 2 TFlop/s. Ein Kabinett enthält acht Boards. Der gesamte Rechner besteht aus 8 mal 8 Schränken. Mit mehr als einer Million Prozessoren nimmt das System die Fläche eines halben Tennisplatzes ein. Der Stromverbrauch soll 1 Megawatt betragen. Wird die Maschine zu heiss, fährt sie automatisch die Taktrate herunter. An Software steht ein C-Compiler und ein abgespecktes Unix bereit. Weitere Informationen finden sich unter: www.research.ibm.com/bluegene.