Der Einsatz von MPP-Rechnern sollte gut durchdacht sein

Standardapplikationen gibt es erst in unzureichender Menge

16.10.1992

Wer auf dem letzten Supercomputer-Symposium in Mannheim den euphorischen Präsentationen der Hardwarehersteller ausgeliefert war, die alle durchweg den schnellsten Supercomputer der Welt ankündigten, der hätte meinen können, daß jeder wissenschaftliche oder technische Anwender mit nichts anderem beschäftigt ist, als die "Grand Challenges" der Menschheit zu lösen. Diese Sichtweise geht jedoch an den Realitäten vorbei.

Zum einen gibt es eben nicht so viele Grand-Challenge-Anwender, um damit die optimistischen Wachstumsprognosen der Marktauguren rechtfertigen zu können. Zum anderen ist die Performance, die diese Systeme bei realen Applikationen erreichen, auch nicht annähernd so hoch wie die theoretische Spitzenleistung, die sich aus der ebenso einfachen wie blauäugigen Formel (theoretische Maximalleistung/Prozessor Î Anzahl der Prozessoren = Performance des MPP-Rechners) berechnen läßt. Damit wird lediglich der Eindruck suggeriert, viele VW-Käfer zusammen seien auch so schnell wie ein Ferrari.

Hohe Entwicklungszeiten und kurze Lebenszyklen

Auch das Argument, das Preis-Leistungs-Verhältnis bei massiv-parallelen Rechnern sei besser als bei konventionellen Architekturen, stimmt lediglich dann, wenn man den Portierungsaufwand und die Zeit dafür nicht in die Rechnung einbezieht. Genau dieses Problem aber hat der Beschaffer eines solchen Systems, der sich fragen muß, wie die Kosten-Nutzen-Relation dieser Anschaffung aussieht und wie lange es dauert, bis ein Return on Investment erzielt worden ist.

Ein wichtiger Gesichtspunkt ist der Investitionsschutz. Von einigen ganz wenigen Ausnahmen abgesehen, sind die Hersteller massiv-paralleler Systeme durchweg kleine Firmen, deren Überleben in den nächsten zwei Jahren davon abhängt, ob ihr nächstes (und einziges) Produkt am Markt Erfolg hat oder nicht. Technische Innovationen und zukunftsweisende Konzepte sind noch kein Garant für diesen Erfolg; die Liste der gescheiterten Anbieter wie Multiflow, BBN, Alliant - um nur einige zu nennen - wird wohl auch in Zukunft noch weiter wachsen. Die enorm gestiegenen Entwicklungskosten und die kurzen Lebenszyklen der Produkte lassen die erforderlichen Investitionen zum finanziellen Abenteuer werden und machen eine ausreichende Kapitaldecke des Anbieters zum wichtigsten Instrument einer längerfristigen Wettbewerbsfähikeit.

Die Anwender, von denen die Hersteller unverdrossen den Mut zur Innovation fordern, reagieren in dieser Situation sehr zurückhaltend. Standardapplikationen auf massiv-parallelen Systemen gibt es so gut wie nicht und die Investitionen in die notwendigen Softwareumstellungen sind entsprechend hoch.

Unabhängigkeit vom Hersteller und damit ein Schutz der Investitionen auf seiten der Software-Anbieter und der Anwender könnte nur durch die Etablierung von Standards geschaffen werden, doch die lassen auf sich warten.

So ist es kein Wunder, daß bis zum heutigen Zeitpunkt die Nachfrage nach massiv-parallelen Rechnern in keinem Verhältnis zu der Aufmerksamkeit steht, die dieses Thema in der Öffentlichkeit erfährt.

Welche Schlußfolgerungen lassen sich aus diesen Überlegungen ziehen? Es drängt sich die Parallele zu den Vektorrechnern auf, die seit der Einführung der Cray-1 im fahre 1976 in wesentlich höheren Stückzahlen abgesetzt wurden, als das ursprünglich prognostiziert worden war. Auch hier wird gern mit der hohen Spitzengeschwindigkeit argumentiert. Doch in Wirklichkeit reizen die Anwender auch bei den Vektorrechnern die Möglichkeiten der Architektur nur selten aus. Viel entscheidender für die Durchsetzung am Markt war wohl der Umstand, daß der Einstieg in die Vektor-Welt dem Anwender leicht gemacht wurde.

Mit wenig zusätzlichem Portierungs- und Lernaufwand (unterstützt durch automatische Compiler und einfachen Zugriff über bekannte Front-end-Systeme) konnten neue Aufgabenstellungen angegangen werden, die mit den bisher verwendeten Mainframes nicht in einem vertretbaren Zeitaufwand zu bewältigen waren. Die leistungsfähigen Skalareinheiten sorgten für signifikante Beschleunigungen auch dort, wo die Anwendung nicht oder nur geringfügig vektorisierbar war.

Für den Aufbau eines Applikations-Portfolios (heute gibt es rund 1000 Anwendungen auf Vektorrechnern), war außerdem wichtig, daß sich die Vektorisierung einer Anwendung auf Hochsprachenebene durchführen läßt und damit weitgehend unabhängig von der zugrundeliegenden Vektor-Hardware ist.

Vektor-Superrechner Mädchen für alles

Die Vektor-Supercomputer wurden damit de facto zu einem universellen Werkzeug für eine breite Klasse von Anwendungen im wissensthaftlich-technischen Bereich.

Auf die Situation der Parallelrechner übertragen, bedeutet dies:

- Nicht die theoretisch erreichbare Höchstgeschwindigkeit ist das entscheidende Kriterium für den Einsatz von MPP-Systemen, sondern einzig die Frage, ob sich dadurch die Produktivität der Anwender erhöhen läßt.

- Derjenige Anbieter hat einen entscheidenden Wettbewerbsvorteil, der die Stabilität der Software über zukünftige Hardwaregenerationen hinweg garantieren kann.

- Die zukünftige DV-Landschaft wird nicht monolithischer, sondern differenzierter. Massiv-parallele Systeme dürften alternative Architekturen (superskalar, Vektor) nicht einfach verdrängen, sondern ergänzen.

- Die Einzelleistung eines Prozessors hat einen wichtigen Einfluß auf die Performance des Gesamtsystems. Von zwei theoretisch gleichschnellen MPP-Systemen führt dasjenige mit weniger, aber dafür stärkeren Prozessoren die allermeisten Anwendungen schneller aus. Dies ist eine direkte Schlußfolgerung aus Amdahls Gesetz (Abb.1)

Der erste Punkt soll an einem anschaulichen Beispiel verdeutlicht werden: Die statistische Auswertung von großen Datenmengen nach bestimmten Kriterien ist eine häufige Anwendung in vielen Bereichen der Datenverarbeitung, beispielsweise bei Banken und Versicherungen, im Handel, in der öffentlichen Verwaltung etc. Die dafür erforderlichen Suchvorgänge erfordern hohe Integer-Rechenleistungen und eignen sich ideal für SIMD-Rechner (SIMD = single instruction, multiple data).

Damit lassen sich entsprechende Datenauswertungen in kürzester Zeit interaktiv am Bildschirm durchführen, die auf klassischen Mainframes langwierige Batch-Läufe erfordern: Durch diese erhebliche verkürzten Suchzeiten werden mehr Abfragen pro Zeiteinheit möglich. Für das Unternehmen resultiert daraus ein Informationsvorsprung, der in einen Wettbewerbsvorteil umgesetzt werden kann.

Als Digital Equipment vor einem Jahr mit dem massiv-parallelen System "Decmpp 12000" auf den Markt; die Barrieren für einen weitreichenden Einsatz solcher Systeme lagen eindeutig auf seiten der Software. Als geeigneter Lieferant der Hardwarekomponenten wurde die kalifornische Firma Maspar ausgewählt, die sich zu diesem Zeitpunkt bereits einen respektablen Marktanteil erobert hatte und die fortschrittlichste Software-Entwicklungsumgebung auf ihren Systemen bot. Die SIMD-Architektur der Maspar-Rechner ist zwar nicht ganz so flexibel wie die MIMD-Architektur (MIMD = multiple instruction, multiple data), hat jedoch den Vorteil, daß die Portierung von Applikationen unter Ausnutzung von datenparallelen Konstrukten in Hochsprachen wie "Fortran" oder "C" verhältnismäßig einfach ist und unter Verwendung von Crosscompilern sogar zu einem gewissen Grade automatisiert werden kann.

Entsprechender Aufwand wird in die Weiterentwicklung der Software gesteckt. In der "Massively Parallel Systems Group" in der Digital-Zentrale in Maynard arbeiten rund 100 Leute allein an Software-Entwicklung. Das Entwicklungsbudget umfaßt gegenwärtig 30 Millionen Dollars.

Eine eigene Marketing Gruppe arbeitet mit Third-Party-Softwarehäusern zusammen, um eine schnelle Portierung von Applikationssoftware zu ermöglichen. In der "Data Parallel Research Initiative" arbeitet Digital mit Universitäten und Forschungseinrichtungen an Entwicklungsprojekten im massiv-parallelen Bereich. Die Vertriebsaktivitäten in den Ländern werden durch eigene Lösungszentren unterstützt. All diese Aktivitäten machen deutlich, daß Digital gewillt ist, sich im massiv-parallelen Markt zu engagieren.

Entwicklungsziel ist die Realisierung einer ausgereiften Software-Umgebung für massiv-parallele Systeme, die über zukünftige Hardwaregenerationen hinweg kompatibel ist und die unterschiedliche Systemarchitekturen unterstützt.

In einem ersten Schritt wurde die Entwicklung eines High-Performance-Fortran-Compilers angekündigt, der Anfang des nächsten Jahres verfügbar sein wird und auf dem Fortran-90-Standard basiert. Dieser Kompiler arbeitet nach dem Front-end-Back-end-Konzept und wird sowohl SIMD, MIMD als auch vernetzte Workstations als Zielsysteme unterstützen. Damit dürfte es möglich sein, massiv-parallele Anwendungen in einer normalen Workstation-Umgebung zu entwickeln, auszutesten und für die Produktionsläufe das am besten geeignete Zielsystem auszuwählen.

Anwendungen, die ursprünglich für ein SIMD-System geschrieben wurden, lassen sich durch einfache Neukompilierung zu einem späteren Zeitpunkt auf ein MIMD-System portieren. Der Compiler kümmert sich um die tieferen Schichten der Software wie Routing, Message Passing etc. Ergänzt wird der High-Performance-Fortran Compiler durch verschiedene Bibliotheken. Für mathematische und statistische Anwendungen soll eine portierte Version der IMSL-Bibliothek zu Verfügung stehen, für Bildverarbeitung, gibt es eine spezielle Image Library etc.

Für produktive Software-Entwicklung werden die Tools des "Friendly Unified Software Environment " (Fuse) um diejenigen Funktionalitäten erweitert, die zur Unterstützung massiv-paralleler Systemplattformen erforderlich sind, beispielsweise Debugger, Datenvisualisierer und Profiler. Diese Werkzeuge sollen weitgehend kompatibel zur Standard-Fuse-Umgebung sein, um so den Lernaufwand für den Entwickler möglichst zu minimieren.

Diese Softwarestrategie ermöglicht rasche Portierung von Applikationen und eine weitgehende Unabhängigkeit von den Spezifika der zugrundeliegenden Hardware. Der Nutzen für den Anwender ist ein schnell wachsendes Applikations-Portfolio und ein weitgehender Schutz der getätigten Software-Investitionen.

Im Rahmen eines Netzwerk-Konzeptes werden die MPP-Systeme als Compute-Server betrachtet, die über NAS-(Network Application Support-)Software in die bestehende DV-Struktur eines Unternehmens integriert werden. Andere Compute-Server in einer solchen Umgebung können zum Beispiel auch Vektorrechner oder superskalare Systeme sein (Abb. 7). In einer solchen Umgebung erhält der Anwender für die Ausübung einer bestimmten Task automatisch dasjenige System zugewiesen, das die kürzeste Turn-around-Zeit garantiert.

Als Hardwareplattformen kommen zunächst Systeme von Fremdherstellern zum Einsatz. Diese werden im Laufe der Zeit durch Digital-eigene Systemkomponenten ersetzt beziehungsweise erweitert. In einem ersten Schritt sollen die Front-end-Rechner der Decmpp-Serie von Systemen der Alpha-Klasse ausgetauscht werden, die allein schon eine Einzelleistung von bis zu 150 Mflops auch für skalare Anwendungen liefern. Später soll der Austausch von massiv-parallelen Rechenwerken gegen Alpha-Prozessoren erfolgen. Die Firma Cray Research entwickelt bereits heute ein massiv-paralleles System auf Alpha Basis.

Systeme des Typs DecECmpp 12000 wurden weltweit über 100mal verkauft, in Deutschland beispielsweise an das European Molecular Biology Laboratory (EMBL) in Heidelberg oder die Technische Universität München. Das Entwicklungskonzept von Digital ermöglicht den Anwendern eine langfristige Planung ihrer IT-Strategie auch für den massiv-parallelen Bereich.

*Dr. Jochen Krebs ist Leiter Marketing High-end-Systeme bei Digital Equipment, Joseph Pareti arbeitet als Berater für DECs MPP-Systeme bei der Digital Equipment GmbH in Unterföhring.

AU:Von Jochen Krebs und Joseph Pareti*