Supercomputer '92 in MannheimTeil 2:

Die Devise bei Supercomputern heißt in der Zukunft Parallelität

14.08.1992

Schon zum siebten Mal traf sich die Fachwelt auf dem Gebiet des Supercomputing im Juni 1992 in der Universität Mannheim. Von den rund 150 Teilnehmern waren etwa ein Drittel Hersteller, während nur jeder Sechste Anwender eines Superrechners war. Im letzten Teil seines Artikels resümiert der Autor die wesentlichen Trends, wie sie in Mannheim diskutiert wurden.

IBM ist lange Zeit nicht als Supercomputer-Hersteller in Erscheinung getreten, ist aber in allen drei Bereichen aktiv. IBM beteiligt sich an SSI von Steve Chen zur Entwicklung eines Höchstleistungs-Supercomputers. Weiterhin will man das Know-how aus dem Bereich der ES/9000 mit dem Know-how von Thinking Machines verbinden. Big Blue will die Chips für die hochspezialisierten Systeme bereitstellen und durch die Kooperationen Entwicklungsarbeit sparen. Bohla wies aber noch einmal darauf hin, daß der Einsatz derartiger Rechnersysteme ein hohes Maß an Wissen erfordert.

Der Vektorzusatz, 1985 angekündigt, steht heute für viele Bereiche zur Verfügung. Die Benutzerfreundlichkeit ist hoch, mit geringen Kosten können die Mainframes hochgerüstet werden. So sind auch ein parallelisierender Fortran-Compiler für 24 Prozessoren, HIPPI-Verbindungen und schnelle Platten-Subsysteme für die Mainframes verfügbar. Nach Bohlas Meinung werden die Mainframes nicht sterben, sie bleiben weiterhin die geeignete Lösung für Netze, Buchungssysteme und Datenhaltungsaufgaben.

750 Mflops auf dem Ingenieur-Schreibtisch

Der wichtigste Beitrag von IBM im Bereich Supercomputing stellt die Workstation RS/6000 dar, sie ähnelt in Architektur und Leistung (100 Mflops) einem Supercomputer. Sie bietet mehr als 25 Prozent der Leistung eines Supercomputerprozessors und ist vergleichsweise preisgünstig. Im Prozessor und der Software sind noch Leistungsreserven vorhanden. So läßt sich eine Leistungssteigerung um den Faktor 1,5 bis 2,5 aus der parallelen Verarbeitung von Instruktionen, Cache und Zentralspeicher erwarten.

Die Halbierung der Zykluszeit bedeutet eine Leistungsverdoppelung, die Compileroptimierung und bessere Cache-Ausnutzung bringt etwa 50 Prozent. So kann die RS/6000 ohne Technologie- oder Architekturänderungen noch um den Faktor 4,5 bis 7,5 verbessert werden. Hier ist für die nächsten zwei bis drei Jahre auch noch einiges zu erwarten.

Das bedeutet dann eine Spitzenleistung von 450 bis 750 Mflops auf dem Schreibtisch des Ingenieurs, was wiederum wohl große Probleme für zentrale Rechenzentren mit sich bringen dürfte. Andererseits ist in diesem Zusammenhang die Frage erlaubt, ob ein derart mächtiges System von einem Entwicklungsingenieur noch nebenbei betreut werden kann.

Die IBM arbeitet ferner an den Speichergrößen und den Kanalgeschwindigkeiten. Außerdem plant Big Blue, mehrere Prozessoren der RS/6000 zu koppeln. In einem Rechnersystem von vier bis zu 32 CPUs ergäbe sich so eine maximale Rechenleistung von 24 Gflops. Die Cray C90 mit 16 Prozessoren bringt es heute auf 16 Gflops.

Diese RISC-Systeme sollen später auch massiv-parallel zusammengeschaltet werden können. Um Erfahrungen auf diesem Gebiet zu sammeln, hat Big Blue zumindest schon einmal ein Labor in Kingston für hochparalleles Supercomputing gegründet.

Herausforderungen für das nächste Jahrhundert

Der Bohla-Vortrag machte deutlich, daß IBM eine wichtige Rolle in den verschiedenen Marktsegmenten des Supercomputing spielen will. Auch wenn die Verkaufszahlen der großen Supercomputer-Systeme relativ niedrig sein werden und die Gewinne schmal, ist der Markt doch so interessant, daß sich Investitionen lohnen.

Viele Ideen aus dem Supercomputing (beispielsweise das Pipelining) finden wir heute in Tischrechnern wieder. Von besonderem Interesse dürfte aber vor allen Dingen sein, wie sich der Markt der Parallelrechner entwickeln wird, wenn Mother Blue mit ihren leistungsfähigen RISC-Prozessoren in das Segment massiv-paralleler Systeme einsteigt.

Die großen Herausforderungen - oder Grand Challenges - auf technischen und wissenschaftlichen Gebieten erfordern enorme Rechenleistungen. Unter diesem Aspekt wurde auch eine Supercomputing-Initiative in den USA gestartet, in Europa wird derzeit noch diskutiert.

Über die verschiedenen Herausforderungen für das nächste Jahrhundert sprach Professor Wolfgang Gentzsch von der Fachhochschule Regensburg, der auch Geschäftsführer der Genias Software GmbH in Neutraubling ist.

Gentzsch nannte die Beispiele:

- Vorhersage von globalen Wetter- und Klimaveränderungen,

- Simulation technischer und physikalischer Vorgänge, zu denen Strömungs-, Verbrennungs- und Umweltverschmutzungsberechnungen gehören,

- die rechnergestützte Entschlüsselung menschlicher Gene,

- Entwicklung neuer Medikamente,

- Erkenntnis über die Strukturen biologischer Makromoleküle,

- Supraleiter-Entwicklung,

- Entwurf von Flugzeugen und Flugkörpern (Unterschall, Hyperschall und Weltraumfahrzeuge),

- Entwicklung elektronischer Bauteile sowie

- der Aufbau der Materie und das Entstehen unseres Universums.

Die mathematischen Modelle dafür können nur mit Hilfe von Supercomputern erstellt werden. Weiterhin ist eine umfangreiche Softwarebasis erforderlich, angefangen von leistungsfähigen Compilern bis hin zu Programmbibliotheken, in denen effektiv implementierte Verfahren angeboten werden. Erst durch die neue Technologie von skalierbaren, massivparallelen Supercomputern kann eine erhebliche Leistungssteigerung erreicht werden. Nach Meinung von Gentzsch wird in den nächsten Jahren auch eine geeignete, benutzerfreundliche Software-Umgebung zur Verfügung stehen, so daß sich dann die kompliziertesten Phänomene erforschen lassen.

Portabilität bei den Benutzeroberflächen

Er wies noch eindringlich auf die Bedeutung der parallelen Software hin. Bisher wurden nämlich große Summen in die Entwicklung der Hardware gesteckt. Jetzt ist ein neuer Trend erkennbar, auch für die Software Geld bereitzustellen. So wurde am Los Alamos Laboratory für 90 Millionen Dollar eine CM 5 von Thinking Machines mit 1000 Prozessoren beschafft. Ein Drittel des Geldes ging in die Hardware, ein Drittel wurde für Personal und das letzte Drittel für die Softwareforschung (Tools, Oberflächen etc.) bereitgestellt.

Nach Meinung von Gentzsch müssen Hilfsmittel entwickelt werden, die den Anwender bei der Parallelisierung unterstützen. Weiterhin fordert er Portabilität zumindest bei den Benutzeroberflächen. Den Aufwand zur Parallelisierung vorhandener Programmpakete schätzt er hoch ein.

Bei Genias wurden schon mehrere existierende Strömungscodes parallelisiert - unter anderem für die ESA und BMW. Nach seinen Erfahrungen lassen sich diese Programme mit einem Aufwand von sechs bis zwölf Mannmonaten auf Parallelrechner-Systeme umstellen. Für den Fire-Code zur Simulation von Verbrennungen in Motoren rechnet er mit drei Mannjahren, für Nastran setzt der Neutraublinger mindestens 20 bis 40 Mannjahre an.

Zum Glück wird inzwischen auch die Entwicklung paralleler Software weltweit gefördert. Die USA haben ein Nachfolgeprojekt für Lapack, eine Programmbibliothek für die lineare Algebra mit neuesten und optimalen Blockalgorithmen, gestartet. Für drei Jahre werden zehn bis 20 Mitarbeiter finanziert, das heißt, das Projekt hat einen Umfang von etwa zwölf Millionen Mark.

Auch in Europa wird inzwischen die Software-Entwicklung unterstützt. Hierzu sind aber auch gut ausgebildete Mitarbeiter notwendig. So sollten an den Hochschulen viele Studenten in dieser Materie ausgebildet werden. Doch ist Deutschland auf diesem Gebiet, verglichen mit anderen Ländern, etwa Großbritannien, noch ein Entwicklungsland.

Hier müssen hochschulpolitisch unverzüglich Maßnahmen getroffen werden, um die Lehre auf dem Gebiet der Parallelverarbeitung zu beschleunigen. Ansonsten könnte die erforderliche breite DV-Expertise für die Grand Challenges in Deutschland fehlen, führte Gentzsch aus. Die geplanten europäischen Initiativen sehen hierin auch einen wichtigen Schwerpunkt, wie in der Podiumsdiskussion deutlich wurde.

Einen technologisch ausgerichteten Standpunkt nahm Albert Gilg von Siemens München ein. Sein Thema war die numerische Simulation in der Elektrotechnik. Da die Investitionskosten bei jeder neuen DRAM-Generation erheblich steigen - Steigerungen von 250 Millionen Dollar für den 1-MBit-Chip über 500 Millionen Dollar bei 16-MBit-DRAMS auf sicherlich eine Milliarde Dollar für 64-MBit-Chips -, sind numerische Simulationen unerläßlich. Die Kosten hierfür werden unter anderem durch Kooperationen mit Unternehmen wie IBM oder SGS Thomson aufgefangen.

Supercomputer haben sich zu einem wichtigen Werkzeug entwickelt, um mehr als 10 000 Transistoren zu modellieren. Parallel dazu wurden aber auch neue, vektorisierte Software und moderne Algorithmen entwickelt. Auch die japanischen Hersteller nutzen die Simulation sehr intensiv, so setzt NEC einen eigenen Vektorrechner nur für diese Aufgaben ein.

Inzwischen hat sich durch die Workstations die Arbeitsweise der Siemens-Entwickler geändert, nur noch große Probleme werden auf dem Vektorrechner bearbeitet - ein Trend, der auch in anderen Unternehmen zu beobachten ist.

Vor ganz anderen Problemen stehen die Bio-Genetiker: Wie entschlüsselt man 3,6 GB Binärcode, von dem weder die Befehle, die Programmiersprache noch die Syntax oder die Semantik bekannt sind? Über diese Hauptschwierigkeiten bei Genome-Projekten berichtete Chris Sander vom europäischen Laboratorium für Molekularbiologie in Heidelberg.

Marktführer Cray Research setzt auf Evolution

Man versucht, das Buch des Lebens über die genetischen Inhalte der Zellen zu entziffern. Hierzu bedient man sich der Hefe: Die Genominhalte in der Hefe- und in der menschlichen Zelle haben nämlich viel gemein. Man kann daher bei genetischen Ähnlichkeiten auf gleiche Aufgaben schließen. So führt ein Byte-Fehler an einer bestimmten Stelle zu einer Fehlfunktion, an anderer Stelle dagegen nicht.

Sander spekuliert, daß im Jahr 2005 in der Medizin diese Erkenntnisse zur Diagnose von Erbkrankheiten und Krebs, zur Verhinderung von Krankheiten und zur Gentherapie gegen Hirntumor und zu molekularbiologisch entdeckten Arzneimitteln verwendet werden kann. Auch für die Landwirtschaft und die Materialforschung sind Einsatzfelder zu sehen.

Neben den Grand Challenges waren die neuen existierenden oder geplanten Rechnerarchitekturen der verschiedenen Hersteller sowie Anwendererfahrungen Thema der Tagung.

Wolfgang Kroj von Cray Research, München, kündigte ein massiv-paralleles System von Cray für 1993 mit einem entsprechenden Fortran-90-Compiler an. Der Supercomputer-Marktführer setzt auf Evolution und nicht auf Revolution. In den Rechnern haben sich die Zentralspeicher inzwischen als "Bremser" erwiesen. Verglichen mit der CPU-Geschwindigkeit (Faktor zehn bis 100 seit 1980), sind die Speicher nur um den Faktor zwei schneller geworden. Man erreicht nur dann eine Spitzengeschwindigkeit, wenn die Prozessoren mit ihren lokalen Speichern arbeiten. Cray denkt neben der massiv-parallelen noch in anderen Bahnen, nämlich an die bewährten parallelen Vektorrechner mit wenigen Prozessoren.

Aus dem MPP-Projekt (massiv-parallel) bei Cray Research soll unter Verwendung des Alpha-Prozessors von DEC in einer Phase 1 schon 1993 ein Rechner mit mehr als 150 Gflop-Spitzenleistung resultieren. Hierbei will man lokale Speicher für die Prozessoren einsetzen, die sich aber als globaler Speicher ansprechen lassen.

In der Phase zwei, angeblich 1995 verfügbar, soll der Parallelrechner bis auf 1 Tflops skalierbar sein. Schließlich soll 1997 in der dritten Phase eine Tflops-Leistung in Produktionsprogrammen erreicht werden. Der MPP-Rechner wird mit den Vektorrechnern eng gekoppelt.

Kroj glaubt nicht, daß massivparallele Systeme in absehbarer Zeit als Universalrechner eingesetzt werden können. Ein Emulator beziehungsweise Simulator ist heute schon auf den Vektorrechnern vorhanden. Die Anwender können sich jetzt auf das MPP-System vorbereiten. Resümee: Die Zukunft von Supercomputern wird parallel, heterogen und verteilt sein.

Einen neuen Supercomputer herkömmlicher Art stellte Michihiro Hirai von Hitachi vor. Die S-3800-Serie deckt ein Leistungsspektrum von 4 bis 32 Gflops bei maximal vier Vektorprozessoren ab.

Nur ein Vektorprozessor ist bei der S-3600-Serie vorgesehen, die es auf eine Leistung von 0,25 bis 2 Gflops bringt. Die Taktzeit beträgt 2 Nanosekunden, die Hauptspeichergröße 2 GB, der Erweiterungsspeicher ist 32 GB groß. Ein Prototyp soll in Kürze in Betrieb genommen werden, die erste Auslieferung an Kunden in Japan wird Ende dieses Jahres erfolgen.

Bisher ist dieser Rechner nur für den japanischen Markt angekündigt. Hitachi will aber mit diesem System auch weltweit antreten. Eine Exportstrategie soll erarbeitet werden. Doch schon vor Jahren hatte Hitachi angekündigt, auch in Europa die Supercomputer zu vertreiben. Bisher ist das allerdings noch nicht

verwirklicht worden.

*Uwe Jehnsen ist freier Journalist in München