Mit dem Vektorrechner zur schnelleren Datenverarbeitung:

Auf den vektorisierenden Compiler kommt es an

28.06.1985

Die Einsatzmöglichkeiten und spezifischen Vorteile von Vektorprozessoren zur schnellen Verarbeitung umfangreicher Datenfelder waren das Thema eines Kolloquiums, das kürzlich die Amdahl Deutschland GmbH zusammen mit der Deutschen Forschungs- und Versuchsanstalt für Luft- und Raumfahrt (DFVLR) in Oberpfaffenhofen bei München, veranstaltete. Dabei tauschten Fachleute aus Wissenschaft und Industrie Erfahrungen über den Einsatz von Vektorrechnern bei Problemen wie der "Crash Simulation", der Wettervorhersage oder auch bei Verbrennungsvorgängen aus.

Simulation von instationären und dreidimensionalen Konvektionsströmungen auf Vektorrechnern hieß das Thema eines Beitrags aus dem Bereich der Technischen Universität München. Der Akademische Rat Dipl.-Ing. F. Baetke konnte dabei am Beispiel der freien Konvektion in einem geschlossenen Behälter zeigen, daß ein von ihm eingesetztes, explizites Verfahren zur Lösung der "Navier-Stokes"- und der Wärmetransportgleichung "vollständig vektorisierbar" ist, also gut an die spezifischen Besonderheiten moderner Vektorprozessoren angepaßt werden kann. Allerdings muß man dieses Verfahren zuvor in besonderer Weise programmiert haben.

Ein wichtiges Element bei der optimalen Nutzung des Potentials, das moderne Vektorprozessoren bieten, ist bekanntlich der Compiler. Denn ihm kommt die Aufgabe zu, die vorhandenen Fortran-Programme beim Übersetzen weitgehend zu optimieren, was übrigens teilweise automatisch, teilweise aber auch im Wechselspiel mit dem Menschen, der ja über zusätzliches Wissen über seine Algorithmen verfügt, geschieht. Wie sich solche "optimierenden Compiler" in konkreten Anwendungsfällen verhalten, war ein weiterer Aspekt der Ausführungen Baetkes. Außerdem beleuchtete er die Frage, wie man gewisse Eigenschaften der Vektor-Maschinen spezifisch so nutzen kann, daß am Ende ein zusätzlicher Leistungsgewinn erzielt wird.

Auch der Amdahl-Mitarbeiter Dr. C. Pangali befaßte sich näher mit der optimalen Nutzung von Vektorprozessoren. Er beschrieb einige der Methoden, mit denen man - etwa durch Re-Design der Algorithmen, durch das gezielte Eliminieren von sogenannten Speicherbank-Konflikten durch "Index-Permutationen" und anderes mehr - "Peak Performance" erzielen kann. Dabei stellte Pangali diese Techniken am Beispiel von Algorithmen dar, die in der Seismologie Anwendung finden beziehungsweise zum Simulieren der Verhältnisse im Bereich von Öllagerstätten dienen.

Als Mitarbeiter des gastgebenden Herstellers bezog Pangali seine Darstellungen besonders auf die spezifischen Eigenschaften der Amdahl-Vektorprozessoren. Ähnlich wie Baetke hob auch Pangali die "außergewöhnlich guten "Vektorisierungsfähigkeiten" moderner Compiler für Vektorrechner hervor. Erst jene machten Vektorprozessoren in der Anwendung so einfach, wie der Wissenschaftler es heute von modernen Maschinen verlangen könne.

Darüber hinaus ging Pangali noch auf ein für seismische Berechnungen typisches Problem näher ein: Er sprach über den "Ein-/Ausgabe-Flaschenhals" bei den hier verwendeten Algorithmen und stellte eine Technik vor, mit deren Hilfe der Anteil der CPU-Zeit an der Gesamtzeit, die für einen Job benötigt wird, von etwa einem Zehntel auf zirka ein Drittel angehoben werden kann.

Daß Vektorrechner eine wichtige Rolle auf den Gebieten Energieeinsparung und Umweltschutz spielen können, stellte Dr. H. Eberius vom Stuttgarter Institut für Physikalische Chemie der Verbrennung - es gehört zur DFVLR - dar. Mehr und mehr werden auf Vektorprozessoren Rechnermodelle bearbeitet, mit denen man die Vorgänge bei technischen Verbrennungsprozessen in vielen wichtigen Details eingehend, zum Beispiel in Kraftwerken, modellieren kann.

Parameterstudien möglich

Laut Eberius sind derartige Rechnermodelle heute schon so leistungsfähig, daß man mit ihnen "Parameterstudien" betreiben kann, mit deren Hilfe sich dann schrittweise immer weitere Verbesserungen der technischen Verbrennungsprozesse erarbeiten lassen. Sie erlauben es, "die Möglichkeiten und Grenzen von flammentechnischen Maßnahmen im Hinblick auf die Minderung von Schadstoffemissionen abzuschätzen", wie Eberius hervorhob. Die mathematische Modellierung und der zugehörige experimentelle Befund stimmten nämlich "sehr gut" miteinander überein.

Schließlich noch zu zwei Referaten, die als Höhepunkte des Kolloquiums empfunden wurden. Prof. Dr. Ulrich Trottenberg von der GMD sprach ausführlich über "Mehrgittermethoden und Superrechner" und erinnerte daran, daß mit Hilfe des von ihm weiterarbeiteten "Mehrgitterprinzips" viele auf Gittern ablaufende Algorithmen effizienter als bisher bearbeitet werden können.

Das gelte besonders im Falle von sogenannten diskretisierten partiellen Differentialgleichungen.

Trottenberg untersuchte das Verhalten dieser Mehrgitter-Algorithmen sowohl auf Vektorrechnern als auch auf sogenannten "MIMD"-Architekturen, also auf Rechnern, bei denen mehrere Prozessoren gleichzeitig an verschiedenen Instruktionen und Daten arbeiten können. Vektorrechner hingegen sind "SIMD"-Rechner, bei denen in einer Art Fließband-Verfahren (Pipelining) auf mehreren Daten gleichzeitig gearbeitet wird, aber eben nur in Abarbeitung jeweils des gleichen Befehls.

Laut Trottenberg, der entsprechende Forschungsprojekte der GMD und anderer Stellen diskutierte, werden die Mehrgitter-Algorithmen sogar "superschnell', wenn es gelingt, für sie innovative "Hochleistungs-Rechnerarchitekturen" zu entwickeln.

Der zweite Höhepunkt des Kolloquiums war das einleitend gehaltene Referat des bekannten Finite-Elemente-Fachmanns Prof. John H. Argyris von der Universität Stuttgart. In seinem Beitrag mit dem Titel "Crash Naturally but ElegantIy" sprach er ausführlich über neue Methoden zur noch naturgetreueren Nachbildung und Analyse der Verhältnisse, wie sie beim "Crash", also etwa bei Autounfällen, beobachtet werden. Dabei konnte er neben abstrakten theoretischen Darlegungen auch an Hand von Dias und Filmaufnahmen vorführen, wie gut sich die realen Geschehnisse heute schon mit Hilfe von Computern nachbilden lassen. Voraussetzung dafür sind allerdings die ganz neuen, teilweise noch in intensiver Weiterentwicklung stehenden Methoden, über die Argyris referierte.

*Peter Lange ist Wissenschaftsjournalist in München.