Interview mit Wolfgang Gentzsch von Genias

Für den Erfolg sind vor allem Systemsoftware und Tools wichtig

16.10.1992

Professor Wolfgang Gentzsch gehört zu den deutschen Softwerkern, die sich auf Probleme der Parallelisierung von Anwendungen für massiv-parallele Systeme spezialisiert haben. Sein Genias-Unternehmen gründete er zu einem Zeitpunkt, als in Deutschland in Sachen Parallelcomputing wegen der Negativschlagzeilen zu Suprenum und dem TX3-Projekt von iP-Systems die Fahnen schon auf Halbmast hingen. Mit Gentzsch sprach für die CW Uwe Harms.

CW: Herr Gentzsch, Sie gehören zu den ersten Parallelrechner-Anwendern in Europa. Wie kam es dazu?

Gentzsch: Als ich 1979 zur Deutschen Forschungsanstalt für Luft- und Raumfahrt (DLR) nach Göttingen kam, um dort die Abteilung für Numerische Strömungsmechanik aufzubauen, ging ich zunächst für zwei Monate mit zwei Kollegen in die USA. Dort haben wir, etwa zehn verschiedene Anwendercodes auf die Vektorrechner von CDC und Cray sowie auf den Parallelrechner HEP von Denelcor portiert. In der Folgezeit kamen dann eigentlich alle bekannten Vektor- und Parallelrechner hinzu. Insgesamt waren es an die 40 verschiedene Systeme, die innerhalb der letzten zehn Jahre auf den Markt kamen...

CW: ..und zum Großteil auch wieder verschwanden.

Gentzsch: In der Tat. Parallelrechner wie der DAP und der HEP, die T-Serie von FPS, der Rechner von Myrias, BBNs Butterfly, oder auch der TX3 von iP-Systems und der Suprenum-Rechner, sie alle kamen zu früh und ohne wirklich brauchbare Anwendungssoftware auf den Markt. Dadurch war ihnen ein breiter kommerzieller Erfolg verwehrt.

CW: Sie haben Genias Anfang 1990 gegründet, zu einer Zeit also, als dem Suprenumprojekt und dem TX3 von iP-Systems schon keine großen Chancen mehr eingeräumt wurden. Hätten Sie sich nicht einen besseren Zeitpunkt aussuchen können?

Gentzsch: Tatsächlich war 1990 in Deutschland die Stimmung bezüglich Parallel Computing auf dem absoluten Nullpunkt. Andererseits kamen aber zu dieser Zeit gerade die ersten Erfolgsmeldungen aus den USA über die Parallelisierung von großen Anwendungen. Einige US-Firmen aus der Automobilbranche, der Luftfahrt und der Erdölindustrie kauften ihre ersten Parallelrechner und setzten sie effektiv ein. Diese Trendwelle würde über kurz oder lang auch nach Europa schwappen. Nach sorgfältiger Marktanalyse habe ich dann die Gesellschaft für Numerisch-Intensive Anwendungen und Supercomputing Genias gegründet. Sie ist eine Art Ingenieurbüro für Hightech-Software und Anwendungen, übrigens das erste dieser Art in Europa. Inzwischen hat Genias fast drei Jahre praktische Erfahrung auf dem Gebiet moderat und massiv paralleler Systeme gesammelt - mit inzwischen schon 15 Mitarbeitern. Ähnlich gelagerte Initiativen werden gerade erst gestartet, und das zum Teil mit erheblichen öffentlichen Mitteln.

CW: Parallelrechner gibt es nun schon seit mehr als zehn Jahren. Trotz ihrer großen Vorteile gegenüber Einprozessor-Systemen setzen Wissenschaftler und Ingenieure erst allmählich diese Rechner zur Lösung ihrer Probleme ein. Woher kommt dieses Zögern?

Gentzsch: Die Rechenleistung bisheriger Systeme war für den Anwender wohl nicht attraktiv genug: Die reale Leistung beim Transputer T800 lag beispielsweise bei etwa 0,5 Mflops pro Knoten, beim Ncube/2 bei 1 Mflops und beim Intel/860 bei 5 Mflops. Eine leistungsfähige Workstation bringt es bei geeigneten Anwendungen heute schon auf mehr als 20 Mflops, bei niedrigerem Preis. Deshalb waren die Parallelrechner in der Vergangenheit mehr als Forschungsobjekt für den Informatiker und für den Naturwissenschaftler als Einstieg ins Parallel Computing geeignet. Die Hauptursachen für die zögernde Akzeptanz der Anwender liegen aber im wesentlichen im Mangel an Software-Unterstützung und an fehlenden Standards.

CW: DSM mit Infinity, Intel mit Paragon, Thinking Machines mit der CM-5 und Parsytec mit der GCel sind schon auf dem Markt vertreten. Cray Research, IBM, Ncube, Convex und Fujitsu haben ihre Parallelrechner schon offiziell angekündigt. Bedeutet das den Startschuß ins Parallel Computing?

Gentzsch: Sicherlich beschleunigen die Aktivitäten der Hersteller den Trend, die Rechner allein genügen aber nicht mehr. Neben einer leistungsfähigen, parallelen Hardware wird eine geeignete System-Software benötigt, die Parallel Processing erst ermöglicht. Zweitens werden Software-Tools benötigt, die uns beim Analysieren und Parallelisieren von Programmen unterstützen. Schließlich kennen wir jetzt schon die geeigneten Anwendungen, die sich effizient parallelisieren lassen. In allen drei Bereichen sind in den letzten Jahren große Fortschritte erzielt worden.

Die Portabilität der Programme wird durch "Express" ermöglicht, die Parallelisierung durch "Forge 90" unterstützt. Gerade beim dritten und sicher wichtigsten Feld, den parallelen Anwendungen, sind im Moment bemerkenswerte Erfolge erzielt worden: erste parallele Versionen von Codes wie etwa "Fire" und "Pamcrash" zur Simulation von Motorinnenraum-Strömungen bzw. Automobil-Crashes werden gerade getestet.

In einigen Automobil-Konzernen hat man die große wirtschaftliche Bedeutung schon erkannt und nutzt die Parallelverarbeitung: Bei BMW ist ein 128-Prozessor Ncube im Einsatz, bei Audi wurde soeben ein Projekt über parallele Anwendungen auf Workstation-Clustern abgeschlossen, bei VW wurde gerade begonnen, einen großen Produktions-Code auf ein Workstation-Cluster zu portieren. Bei Hoechst wird in diesen Tagen ein Workstation-Cluster installiert, um Molekularstrukturen parallel zu simulieren. Diese Anzeichen und unsere eigenen Erfahrungen bei Genias im Parallelisieren großer Produktionsprogramme etwa für die Automobil-, Luft- und Raumfahrtindustrie weisen eindeutig darauf hin, daß jetzt auch für die Industrie der richtige Zeitpunkt gekommen ist, ins Parallel Computing einzusteigen.

CW: Angenommen, die FuE-Abteilung eines Konzerns setzt einige sehr rechenintensive Programme ein. Welche Strategie zum Einstieg würden Sie diesen Ingenieuren empfehlen?

Gentzsch: Werden sogenannte Third-Party-Programme benutzt, die von anderen Softwarehäusern in der Regel als Binärcode in Lizenz vergeben werden wie "Nastran", "Ansys" etc., kann nur das entsprechende Softwarehaus beeinflußt werden. Der Anwender hat da keine Möglichkeit zum Portieren. Arbeitet die FuE-Abteilung dagegen vorwiegend mit Quellcodes, so sind die Chancen zum Parallelisieren schon besser. Meine erste Empfehlung: gründliche Analyse des Programms. Sind die verwendeten Algorithmen und Datenstrukturen für eine Parallelisierung geeignet? Müssen bestimmte Programmteile umstrukturiert werden? Welche Eigenschaften muß der ideale Zielrechner besitzen? Solche Fragen können mit Unterstützung von Genias und mit dem Analyse-Tool "Forge 90" geklärt werden. Proberechnungen oder kleinere Poduktionsrechnungen lassen sich auf dem hauseigenen Workstation-Cluster durchführen, da in vielen FuE-Abteilungen Workstations schon vernetzt sind. Das verursacht keine extra Hardwarekosten und kann sofort in Angriff genommen werden. Dieser Einstieg ins Parallel Computing ist nahezu ohne Risiko.

CW: Worin sehen Sie die Hauptgründe für die rasante Zunahme der Workstations im Vergleich zu Supercomputern und Mainframes?

Gentzsch: Zwei Ursachen sind zu erkennen. Einmal das immer günstigere Preis-Leistungs-Verhhältnis der Workstations. Eine Workstation mit etwa 100 Mflops Spitzenleistung, einem Viertel GB Hauptspeicher und mehreren GBs Platte kostet inzwischen vielleicht 200 000 Mark.

Ein Supercomputer mit 1000 Mflops Spitzenleistung und ähnlicher Ausstattung kostet zwischen fünf und zehn Millionen Mark, ganz zu schweigen von den Betriebskosten. Zweitens wächst der Bedarf an lokaler Rechenleistung immer stärker. Der Wissenschaftler möchte seine Messungen theoretisch untermauern, der Ingenieur berechnet kompliziertere Modelle mit immer höherer Genauigkeit und das möglichst am eigenen Arbeitsplatz. Bei vielen Fragestellungen kann dieser Bedarf oft schon durch eine oder mehrere Workstations befriedigt werden.

CW: Das bedeutet bei größeren Problemen, daß mehrere Workstations gleichzeitig parallel an einer Anwendung arbeiten. Dazu ist sicherlich ein starker Eingriff in die existierenden Computerprogramme nötig. Wie kann der Anwender unterstützt werden?

Gentzsch: Für die Parallelverarbeitung auf Workstation-Clustern benötigt man Software-Tools, also zum einen eine portable Benutzeroberfläche, die die Kommunikation der Workstations untereinander ermöglicht. Dann kann der Anwender das Senden und Empfangen von Nachrichten über Unterprogrammaufrufe realisieren. Die bekannteste und am weitesten verbreitete Oberfläche ist sicher "Express", die von Genias vertrieben wird. Andere, weniger komfortable Oberflächen sind etwa "PVM" und "Parmacs".

Daneben müssen Analyseprogramme Hinweise auf rechenintensive Programmteile geben und das Anwenderprogramm selbst an das Cluster angepaßt werden. Hierfür nutzen wir "Forge 90". Leider ist aber nicht jede Anwendung ideal parallelisierbar.

CW: Kendall Square Research, neu am Markt, behauptet, mit ihrem neuen Parallelrechner KSR-1 nahezu sämtliche Probleme der Softwareportierung gelöst zu haben. Über das sogenannte Virtual Shared Memory Konzept (VSM) wird derzeit viel geschrieben und diskutiert. Ist das die Lösung der Parallelisierungsschwierigkeiten ?

Gentzsch: Das VSM-Konzept ermöglicht dem Benutzer, einen Parallelrechner mit verteiltem Speicher ähnlich wie einen Shared-memory-Parallelrechner zu programmieren. Der Anwender hat also einen einzigen großen Adreßraum vor sich.

Ich bin der Meinung, daß sich solche Rechner bei einfachen Standardalgorithmen ohne rekursive Datenstrukturen leichter programmieren lassen als etwa die MIMD-Rechner von DSM, Intel, Ncube oder Parsytec, bei denen die Daten gemäß Message-Passing-Paradigma explizit als Nachrichten zwischen den Prozessoren ausgetauscht werden.

Leider kommen solche Algorithmen in praktischen Anwendungen selten vor, und dann ist ihre Implementierung auch für die Parallelrechner mit verteiltem Speicher trivial. Für komplexe Anwendungsprogramme dagegen ist nach meiner Ansicht das Programmieren von VSM-Maschinen genauso schwierig, wie für die Rechner mit verteiltem Speicher.

CW: Wie charakterisieren Sie eigentlich die ideale Anwendung für Parallelrechner?

Gentzsch: Eine für Parallelrechner effiziente Anwendung muß unter anderem folgende Kriterien erfüllen: Die nötigen Kommunikationen müssen gering im Vergleich zu den eigentlichen Berechnungen sein. Ferner sollte sich die Anwendung in möglichst viele, nahezu unabhängige und gleich große Einzelaufgaben zerlegen lassen. Der notwendige Synchronisationsaufwand muß gering sein, sonst müssen Prozessoren unbeschäftigt auf andere warten. Schließlich sollten die Ergebnisse der Einzelaufgaben leicht zu einem Gesamtergebnis verknüpft werden können.

CW: Gibt es denn überhaupt reale Anwendungen, die diese Bedingungen erfüllen und damit für Workstation-Cluster und Parallelrechner geeignet sind?

Gentzsch: Im Grunde genommen gehören alle sogenannten großen Herausforderungen oder auch Grand Challenges der nächsten Jahre in diese Klasse der parallelen Anwendungen, die Motorinnenraum-Strömung ebenso wie die Erforschung unserer Gene, die Klimaforschung, zahlreiche Teilgebiete der Theoretischen Physik, die Entwicklung neuer Materialien und besserer Medikamente, um nur einige zu nennen. Diese Anwendungen muß man nur entsprechend aufarbeiten, also parallelisieren. Hier müssen neue, parallele Lösungsverfahren entwickelt und eingesetzt werden. Dies ist als riesiges Betätigungsfeld schon von den Hochschulen entdeckt worden, insbesondere auch in Deutschland.

CW: Sind Workstation-Cluster nicht zu langsam für die anstehenden komplexen Aufgaben?

Gentzsch: Das ist zum Teil eine Frage des Geldbeutels. Immerhin läuft eine gut parallelisierte Anwendung schon auf etwa acht RS/6000-Workstations von IBM schneller als die vektorisierte Anwendung auf einem Cray Y-MP Prozessor. Die acht RS/6000-Rechner kosten heute weniger als eine Million Mark. Alle zwei Jahre ist eine neue RISC-Generation zu erwarten, die zwei- bis viermal schneller ist. Bei den herkömmlichen Supercomputern dauert dieser Zyklus etwa vier bis fünf Jahre. Wie lange das so weiter geht, weiß ich nicht. Irgendwo in der Nähe von 1000 Megahertz wird eine weitere Leistungssteigerung auf einem Chip sehr schwierig. Dann muß man auch bei den Workstations ins Massiv-Parallele ausweichen, um noch Steigerungen zu erzielen. Andererseits bin ich überzeugt davon, daß man nicht beliebig viele vernetzte Workstations als Parallelrechner einsetzen kann. Wird Höchstleistung benötigt, so wird der Einsatz von massiv-parallelen Systemen unbedingt erforderlich.

CW: Wenn die Supercomputer, wie Sie sagen, bald ihre obere Leistungsgrenze erreicht haben, die Parallelrechner dagegen sowohl an Einzelprozessor-Leistung als auch bezüglich der Anzahl der Prozessoren noch mächtig zulegen können, so bedeutet dies doch eigentlich das baldige, Ende der klassischen Supercomputer.

Gentzsch: Mittelfristig wird genau dies eintreten. Im Moment jedoch gibt es noch unzählige Computerprogramme mit bis zu einer Million und mehr Befehlen, die zum Teil schon vor 20 Jahren geschrieben wurden! Solche Programme sind heute unverzichtbarer Bestandteil der meisten FuE-Aktivitäten in Industrie und Hochschulen. Erst langsam werden moderne, parallelisierbare Codes mit neuen Algorithmen diese alte Software verdrängen. Sicherlich muß man darauf noch fünf bis zehn, Jahre warten. Damit sterben dann auch die klassischen Vektor-Computer aus beziehungsweise werden als Vektor-Knoten in massiven Parallelrechnern eingesetzt.

CW: Während sich die Japaner im klassischen Supercomputer-Bereich zu einer starken Konkurrenz des amerikanischen Herstellers Cray Research entwickelt haben - hier insbesondere Fujitsu und NEC -, hört man auf dem Parallelrechner-Sektor nur wenig von ihnen.

Gentzsch: Auch die Japaner haben vergleichbare Parallelrechner-Projekte wie die Amerikaner und die Europäer. Fujitsu hat gerade ein Vektor-Parallelrechner-System mit bis zu 222 Prozessoren angekündigt. Im nächsten Jahr soll an der TH Darmstadt ein Acht-Prozessorsystem installiert werden. Auch die großen US-Firmen wie IBM, Cray und Convex werden erst im Laufe des nächsten Jahres mit massiv-parallelen Systemen auf den Markt drängen. Fujitsu hat noch das AP 1000-System in der Erprobung, ein Parallelrechner mit 64 bis etwa 1024 Prozessoren. Weitere Prototypen gibt es zur Zeit auch bei Matsushita mit dem 256-Prozessor "Adenart", bei Anritsu mit dem 480-Prozessor "QCDPAX" und am Elektronischen Labor in Tsukuba. Dort entsteht ein 16 384-Prozessor "EM-5", der in einigen Jahren mehr als ein Tflop leisten soll.

CW: In den USA wurde gerade das, umfangreiche High-Performance-Computing-and-Communication-Programm (HPCC) verabschiedet, das zirka 4 Milliarden Dollar zur Förderung des Supercomputing bereitstellt. Daneben muß man noch die Darpa-Gelder aus dem Militärhaushalt und aus anderen Töpfen hinzurechnen. In Europa tagt dagegen schon seit mehr als zwei Jahren eine Kommission unter Leitung des Nobelpreisträgers Carlo Rubbia ohne sichtbaren Erfolg, auch die Industrieinitiative scheint keine Durchbrüche erzielt zu haben.

Gentzsch: Immerhin wurde nun nach etwa zwei Jahren der Bericht der Rubbia-Kommission fertiggestellt, der eine jährliche Förderung von 1 Milliarde ECU vorschlägt. Um einiges schneller war die Europäische Industrieinitiative Ei3, die sich mehr auf industrielle Anwendungen konzentriert und dafür etwa 250 Millionen ECU pro Jahr fordert. Schließlich wurde auch vom BMFT vor einem Jahr eine HPSC-Initiative ins Leben gerufen, die inzwischen ebenfalls ein sehr konkretes Papier verabschiedet hat. Aufgrund der angespannten Finanzlage des BMFT wird hier die Parole ausgegeben: möglichst hohe Effizienz mit möglichst wenig Geld. Das heißt im Klartext, daß existierende Zentren mit weiterem HPSC-Equipment ausgestattet werden und der Zugang zu diesen Rechnern einem weiten Kreis von Forschern ermöglicht werden soll.

CW: Aufgrund der rasanten Computerentwicklung der letzten Jahre ist eine Vorhersage über die Entwicklung des Computerszenarios nicht leicht. Wie sieht nach Ihrer Meinung die Rechnerlandschaft in einigen Jahren aus?

Gentzsch: Ich möchte auf drei Bereiche kurz eingehen: Computer, Visualisierung und Netzwerke.

Erstens Computer. In etwa drei Jahren wird man Workstations nahezu überall vorfinden, ob am Arbeitsplatz, zu Hause oder unterwegs. An der oberen Leistungsskala werden sich die parallelen Supercomputer etablieren. Daneben werden Datenbanksysteme weit verbreitet sein.

Der zweite Bereich, die Computergrafik, Visualisierung, Animation ist in den letzten Jahren geradezu explodiert. Schon heute werden von den Supercomputern riesige Datenmengen erzeugt, die nur noch mittels grafischer Darstellung effizient ausgewertet werden können. Wenn in etwa zwei Jahren Workstations fast die Leistung eines Cray Y-MP-Prozessors erreichen, können wir Anwendungen in Echtzeit rechnen und sofort auf dem Bildschirm darstellen.

Drittens Netzwerke: Hier hat sich bisher die Telekom in erschreckendem Maße als technologischer Bremser betätigt. Obwohl schnelle Netze verfügbar sind, kostet die Nutzung einer Ein-Mbit/s-Leitung zwischen Hamburg und München etwa eine Million Mark im Jahr. Das sind Tarife, die selbst für die Industrie untragbar sind. Hier muß die Telekom möglichst bald ihre Preispolitik ändern, damit in einer großen nationalen beziehungsweise europäischen Initiative die Wirtschafts- und Forschungszentren mit Gigabit-Leitungen kostengünstig untereinander verbunden werden können - in den USA ist das schon Realität. Von unserer Workstation aus könnten wir dann diejenigen Rechner nutzen, die am besten zu unserer Anwendung passen. Wir selbst brauchen , nicht mehr durch dichten Berufsverkehr zum Arbeitsplatz zu fahren, um unseren Computer zu bedienen. Das können wir dann auch zu Hause tun, oder im Biergarten an der Isar mit einem portablen System.