Seminar über Einsatz und Vergleich von Vektorrechnern an der Uni Mannheim:Industrie zögert bei Supercomputer-Einsatz

11.07.1986

MANNHEIM (CW) - Auf dem richtigen Weg scheint IBM mit dem Vektorrechner auf 3090-Basis zu sein. Zumindest bei mittleren Anwendungen, so das Resultat eines Supercomputer-Seminars in Mannheim, sticht das blaue Modell Mitbewerber wie Cray oder CDC aus. Doch noch sind nicht alle Anbieter mittelgroßer Vektorsysteme mit ihren Produkten auf dem Markt.

Erstmals sollten Benchmark-Ergebnisse der IBM 3090 mit Vektorprozessor vorgestellt werden. Bisher waren hier nur die Hardwaredaten bekannt. Für mittlere Anwendungen und Programme mit einem geringeren Vektorisierungsgrad kann die IBM-Maschine danach eine interessante Alternative zu den Supercomputern von CDC, Cray oder Fujitsu sein.

Da aber in diesem Bereich noch weitere Hersteller neuer Rechner mit einer respektablen Vektorleistung von etwa 60 MFlops (Millionen Gleitkomma-Operationen pro Sekunde) anbieten (so zum Beispiel CDC mit der Cyber 180-990 oder Convex mit der C 1 für etwas mehr als eine Million Mark), müssen auch diese Rechner untersucht werden. Erst dann läßt sich feststellen, wo IBM mit der Vektorversion der 3090 wirklich steht. Die erste 3090 mit Vektorprozessor in Deutschland ist übrigens gerade bei der GSI in Darmstadt installiert worden.

Einer der wesentlichsten Punkte, den verschiedene Referenten betont, ist die große Bedeutung der Skalarleistung. Beim Vektorrechner spielt sie mit die größte Rolle, besagt das "Amdahlsche Gesetz". Unter diesem Gesichtspunkt wurde die IBM 3090 mit Vektorprozessor als "gut ausgewogene Maschine" mit einer Skalarleistung von etwa 7,5 MFlops und etwa 100 MFlops Vektorleistung pro Prozessor eingestuft. Demgegenüber stehen bei der Cray X-MP und dem VP 200 bei etwa gleicher Skalarleistung die doppelte beziehungsweise fünffache Vektorleistung gegenüber.

Hohe Vektorisierbarkeit

Da normalerweise die Anwenderprogramme nicht voll vektorisiert werden können (nicht die gesamte Arbeit kann in dem sehr schnellen Vektorprozessor durchgeführt werden), muß der Rest in der "furchtbar langsamen" Skalareinheit abgearbeitet werden. Aus der praktischen Erfahrung hat sich ergeben, daß Programme zwischen 50 und 98 Prozent vektorisierbar sind. Die restlichen 50 bis zwei Prozent müssen dann skalar gerechnet werden. In der Praxis kann das bedeuten, daß eine IBM 3090-150 mit Vektorprozessor erst bei mehr als 30 Prozent Vektorisierungsgrad schneller als eine 3090-180 ohne Vektorprozessor, bei mehr als 80 Prozent schneller als eine 3090-200 wird.

Im Vergleich zu einer Cray X-MP soll die 3090 mit Vektorprozessor bis zu einem Vektorisierungsgrad von 40 Prozent mithalten können, erst dann spielt die Cray ihre Vektorleistung aus.

Beim VP 200 von Fujitsu soll das sogar bis zu einem 80prozentigen Vektorisierungsgrad gelten. Dabei wurden aber die Maximalleistungen der IBM bei 54 MFlops und die der Cray (mit zwei Prozessoren) und des VP 200 bei 240 MFlops angesetzt.

Benchmark-Tests fehlen

Interessant - aber auch heftig umstritten - war eine Wirtschaftlichkeitsberechnung in MFlops pro Million Mark, nach der alle drei Rechner bis zu einem Vektorisierungsgrad von 90 Prozent gleich zu beurteilen waren; erst ab 95 Prozent zogen dann die Cray und die VP 200 davon.

Diese mehr theoretisch erzielten Ergebnisse müssen offenbar noch durch praktische Benchmarks erhärtet werden, denn andere Referenten kamen durchaus zu gegensätzlichen Ergebnissen. Als Faustformel läßt sich aber wohl für hochvektorisierende Programme folgende Relation angeben: IBM 3090-200-Vektorprozessor entspricht 1, Cray X-MP 24 entspricht zwei bis vier, VP 200 entspricht vier bis acht.

Auch Anwendungen von Supercomputern in Aerodynamik, der Seismik und bei Berechnungen mit Hilfe der Methode der finiten Elemente diskutierte die Seminarrunde. Durch den Einsatz dieser Rechner mit ihrer hohen Leistung und den großen Hauptspeichern können qualitativ völlig neue Erkenntnisse erzielt werden. So wurden zum Beispiel Flugzeuge unter dem wesentlichen Aspekt der schlechten Radarortung entworfen, wobei überraschende Typen, die durch die Evolution nicht entstanden wären, herauskamen. Mit Hilfe solcher Rechner sind derartige Entwicklungssprünge erst möglich geworden.

Seismik als Beispiel

Auch im Bereich der Seismik können dreidimensionale Modelle der Erdschichten und damit der Erdöllagerstätten erstellt werden. Durch eine farbgrafische Nachbereitung der numerischen Ergebnisse lassen sich dann an entsprechenden Arbeitsplätzen aus diesen Modell "Tortenstücke" herausschneiden und damit einen Blick in das Innere des geologischen Gebietes werfen.

Hier wird auch eine Problematik bei der Nutzung der Supercomputer deutlich: die grafische Nachbereitung. Der Mensch wird von den Zahlenkolonnen der verschiedenen Parameterstudien einfach überrollt, die Auswertung der Untersuchungen dauert länger als die Rechnernutzung. Erst eine Visualsierung erleichtert die Interpretation der Ergebnisse.

In der Schlußdiskussion wurde dann deutlich, daß die deutsche Industrie sehr zögerlich die Möglichkeiten von Supercomputern auszunutzen beginnt. Es fehlt vielfach das Wissen um Einsatzbereiche - obwohl einige Hochschulen, aber auch Industriefirmen den Zugriff zu suchen Rechnern ermöglichen und auch Softwareunterstützung anbieten.