Supercomputer - die Wandlung der zahlenfressenden Monster (Teil 3)

Viel Musik steckt noch in dem Geschäft mit den Riesen

17.11.1989

Das Geschäft mit den Supercomputern blüht. Große Datenbank-Anwendungen, Simulationsrechnungen, Expertensysteme - zunehmend interessieren sich auch kommerzielle Anwender für die Möglichkeiten der Riesen. Aber noch sind die Probleme der Parallelverarbeitung nicht vollständig gelöst.

Daß parallele Architekturen mehr und mehr an Beliebtheit zu gewinnen scheinen, unterstreichen auch die Zahlen der Marktforscher - ungeachtet der Tatsache, daß so mancher einschlägige Hersteller sich schon den Hals gebrochen hat. Denn auch wenn Firmen wie Floating Point Systems mit ihrem Parallelkonzept in Untiefen geraten sein mögen, und wenn es auch ehrgeizige Neugründungen wie Fifth Generation Computers, Culler Scientific oder auch die Chopp Computer Corporation längst nicht mehr geben mag - allein im Bereich der Supercomputer soll es dennoch recht flott vorangehen. Denn die amerikanische Computer Technology Research Group beziffert beispielsweise den 1986-Umsatz in diesem Sektor auf 3,9 Milliarden Dollar, während es fünf Jahre später schon 11,8 Milliarden sein sollen - mehr als das Dreifache.

Noch stolzer sehen die Wachstumsraten im Sektor Minisupercomputer aus, wiewohl die Ausgangsbasis hier eher schmal ist: Man erwartet ein Plus von 350 Prozent auf 1991 dann 1,8 Milliarden Dollar Umsatz. 1986 konnten erst 400 Millionen in die Scheuer gefahren werden.

Auch eher klein sind die Teilmärkte der anwendungsorientierten Spezialprozessoren sowie der fehlertoleranten Systeme, die 1986 bei 1,1 beziehungsweise 3,8 Milliarden Dollar lagen und die bis 1991 auch bloß um 45 beziehungsweise 37 Prozent auf 1,6 sowie 5,2 Milliarden expandieren sollen, also eher moderat wachsen werden. Und auch die Klassen der Mainframes sowie der Superminicomputer sollen in den genannten fünf Jahren nur allmählich wachsen, nämlich um 46 beziehungsweise 61 Prozent. Doch da die Ausgangsbasen hier Umsatzwerte von 140 beziehungsweise 23,4 Milliarden Dollar repräsentieren, werden am Ende immer noch Riesen-Umsätze erreicht: im Jahre 1991 20,5 beziehungsweise 37,7 Milliarden Dollar.

Es ist also Musik im Geschäft - und dies vor allem dort, worauf bislang kaum jemand achtete, nämlich bei den Supercomputern großer wie mittlerer Leistung und herkömmlichen vektorieller wie innovativer paralleler Bauart. Das dürfte zumindest dann auch nicht weiter verwundern, wenn ihnen der erwartete Einmarsch auch in die Gefilde der kommerziellen Datenverarbeitung tatsächlich gelingen sollte.

Strategien des Parallelisierens

Einen Beitrag dazu, und hier nun insbesondere einen Beitrag zur weiteren Vereinfachung des täglichen Umgangs mit parallelen Maschinen in der Programmierung wie im Betrieb, will an der TU München Bodes Forscher-Kollege Dr. Thomas Bemmerl leisten. Er stellte Journalisten unlängst ein selbstentwickeltes, neuartiges Werkzeug vor, mit dessen Hilfe die Zerlegung eines gegebenen Problems in parallele Prozesse zwar vielleicht nicht gleich ein Kinderspiel wird, aber eben doch erheblich einfacher.

Diese Zerlegung, so erläutern Bode und Bemmerl, kann grundsätzlich auf zwei verschiedene Arten erfolgen, wobei immer dort, wo man es mit großen Mengen an Daten zu tun ha also mit "großen Datenräumen", der - erste - Weg der Daten-Aufteilung ratsam scheint. Ein Vorgehen also, das vor allem bei vielen Aufgaben technisch-wissenschaftlicher Natur nahe liege und bei dem man den einzelnen Prozessoren unterschiedliche Teilbereiche de Datenraums zuweist, die sie Teile darin mit den gleichen Programmen bearbeiten.

Beispiele für diese Strategie sind etwa die Visualisierung komplexer mathematische Strukturen und Entwicklungen an Bildschirmen, wie man dies von der bekannten Mandelbrot-Menge mit ihren "Apfelmännchen" her kennt, oder auch die Zerlegung umfangreicher Matrizen in einzelne - und dann parallel bearbeitbare - Teilabschnitte. Doch auch aus der Praxis sind bereits Fälle bekannt, in denen Parallel-Systeme - wie etwa eines mit immerhin 64 Prozessoren erledige die Aufgabe, die Inhalte von Bildschirmdarstellungen mit hoher Geschwindigkeit so zu komprimieren, daß nachgeschaltete Transport- und Verarbeitungstufen mit den Bilder dann um so leichteres Spiel haben.

Eher für den Bereich der Künstlichen Intelligenz, aber auch für den der Steuerungsprobleme sowie den der Echtzeit-Bearbeitung komplexe Aufgabenstellungen, paßt laut Bemmerl die zweite Stategie der Parallelisierung: jene, bei der der Programmcode selber in einzelne Teile aufgebrochen und jeder einzelne Prozeß dann auf einem anderen Prozessor zum Laufen gebracht wird. Dabei wird im allgemeinen ein Wirts-Rechner eingesetzt, der sich mit der Verteilung der Prozesse auf die Bearbeitungs-Einheiten befaßt und die Aufgabe hat, für deren gleichmäßige Auslastung zu sorgen.

Werkzeuge für Parallel-Programmierer

Beide Strategien der Aufspaltung einer Aufgabe, die in der Realität oft in vielgestaltigen Mischformen verwirklicht werden, setzen ausgefeilte Strategien und Techniken der Aufteilung der einzelnen Prozesse auf die Prozessoren voraus, erläutert Bemmerl weiter. Speziell diesem Zweck sowie der Erleichterung von Aktivitäten wie der Optimierung des Systems, der gleichmäßigen Lastaufteilung, der Messung und Analyse konkret geforderten Prozessor-Leistungen, der Fehlersuche und weiterer Aufgaben, dient Bemmerls Parallelrechner-Werkzeugkasten "Topsys" oder auch "Tools for Parallel Systems". Mit seiner Hilfe kann der Programmierer beziehungsweise Betreiber eines modernen Parallelrechners sich in grafisch anschaulicher Form zeigen lassen, wie stark bestimme Knoten eines Hyperkubus gerade ausgelastet sein mögen, wie intensiv die einzelnen Prozesse Miteinander Nachrichten austauschen, und anderes dieser Art mehr.

Nicht nur die Details der Einrichtung und der Leistungen dieses neuen Parallelrechner-Toolsystems machen Topsys zu einem ausgesprochen inneres santen, zukunftsweisenden Projekt; auch die Tatsache, das Topsys betont flexibel, erweiterbar, portierbar und adaptierbar ausgelegt ist, lenkt das Augen merk auf diese Münchner Entwicklung. Denn dadurch ist Topsys ja nicht nur auf den momentan eingesetzten 32-Knoten-Parallrechner fixiert, sondern auch offen für die Übertragung auf andere, künftige Multiprozessor-Rechner.

Militärs stehen bei Touchstone Pate

Diese Offenheit drückt sich unter anderem auch darin aus daß Bemmerl und seine Helfer Topsys nicht nur hinsichtlich der Einzelnen, parallelen Rechnerarchitekturen flexibel zu halten versuchen, sondern auch hinsichtlich der internen Architektur der einzelnen Prozessor Knoten. Außerdem sollen verschiedene Programmiersprachen, Prozeß-Konzepte und Compiler unterstützt werde und ebenso unterschiedliche Wirtsrechner, Werkzeug-Arten, Instrumentierungstechniken und Abstraktionsniveaus.

Offenheit für immer neu Entwicklungen ist natürlich besonders in einer Welt von entscheidender Bedeutung, in der neue und immer bessere Architekturen fast schon wie die Schwammerl aus dem Boden schießen. Dies belegt aktuell auch eine Neupräsentation aus Kanada, bei der es um einen Rechner mit 64 bis maximal 1024 Prozessoren und - angeblich - gleich guter Eignung für technisch-wissenschaftliche wie für kaufmännische Berechnungen geht. Es handelt sich dabei um den SPS-2 der Firma Myrias Research Corporation aus Edmonton in der Provinz Alberta, der sich übrigens schon in amerikanischen wie kanadischen Militär-Departements bewähren soll.

Militärs stehen auch Pate bei einer zukunftsweisenden Intel-Neuentwicklung auf dem Gebiet der Parallelrechner, die unter dem Namen "Touchstone" bekannt wurde und bei der es sich um ein 27,5 Millionen-Dollar-Forschungsprojekt der DARPA, also der US-amerikanischen Defense Advanced Research Projects Agency, handelt.

Touchstone verfolgt laut Intel das Ziel, bei Multiprozessorsystemen, die nach dem Prinzip des Nachrichtenaustauschs zwischen den einzelnen Prozessor, Knoten arbeiten, gegenüber der aktuellen Technik eine zehnfache Leistung zu erzielen. Doch sollen jene neuen Maschinen dann, pro Dollar gerechnet, auch rund zehnmal soviel wie heutige Hochleistungsrechner bieten.

Diese kommenden Systeme sollen intern auf Mikroprozessoren des Typs 80860 mit rund 1 Million Transistoren und einer internen 128-Bit-Struktur basieren und bis zu 2048 Prozessoren umfassen. Dabei wird erwartet, daß jeder einzelne dieser Knoten etwa die gleiche Leistung bringt wie die Ur-Cray-1 aus den 70er Jahren. Das Gesamt-System soll in den Bereich von 100 GFLOPS (100 Milliarden Gleitkomma-Operationen pro Sekunde) vordringen.

Touchstone beeindruckt als Projekt nicht nur mit dieser summarischen Leistungsangabe, sondern auch mit Details wie der Tatsache, daß jeder einzelne 860er-Prozessor 80mal so schnell sein soll, wie ein heutiger 386er. Oder auch mit dem Hinweis der Projektmanager, der Touchstone solle über Hunderte von Plattenlaufwerken mit Terabytes an Speicherkapazität verfügen, und speziell für diesen Speicher seien von der University of California in Berkeley neuartige Techniken zur Verbesserung der Zuverlässigkeit entwickelt worden.

Von der Carnegie-Mellon-Universität in Pittsburgh wiederum stammt mit dem Betriebssystem "Mach" ein Unix-Derivat speziell für parallele Systeme, das nun mit Blick au massiv parallele Architekturen mit verteiltem Speicher weiterentwickelt werden soll. Und die Princeton-University wiederum steuert eine Technik bei, die dem Anwender selbst bei einer derart verteilten Prozessor- und Speicher-Architektur das Gefühl vermitteln soll, er habe es mit einem einzigen, von allen Prozessoren gemeinsam benutzten zu tun.

Alle Elemente scheinbar unmittelbar verbunden

Nicht minder bedeutsam für die Zukunft der Technik paralleler Maschinen sind die Arbeiten an innovativen Kommunikationsstrukturen zur Verbindung der Knoten untereinander sowie ihren mit zugehörigen Speicher-Systemen. Hier streben die Touchstone-Ingenieure Transferraten zwischen 100 und 200 Megabyte pro Sekunde an. Ziel ist es, ein System zu schaffen, bei dem für die Benutzer scheinbar alle Elemente unmittelbar miteinander verbunden sind.

Die neue Maschine, deren innovative Techniken parallel zur Vollendung des Top-Systems mit seinen über 2000 Prozessoren Zug um Zug in die kommerziell gehandelten Intel-Parallelrechner einfließen sollen, wir von den Militärs zunächst Form mehrerer und ausbaubarer Prototypen installiert werden, sehen die aktuellen Planungen vor. Und dabei soll eine unter anderem auch "kooperierende Expertensysteme" betrieben, die ja heute als Herzstück moderner, intelligenter Waffen gelten und von denen die einzelnen Teil-Systeme hier nun jeweils ein paar der Rechner-Knoten belegen, wobei sie allesamt fortlaufend Nachrichten miteinander austauschen.