"Das Von-Neumann-Konzept wird weiterleben"

14.11.1986

Mit Professor Dr. Wolfgang Paul, Saarbrücken, sprach CW-Redakteur Christoph Hammerschmidt

þHerr Dr. Paul, Sie haben - gemeinsam mit zwei Kollegen - einen Förderpreis der Deutschen Forschungsgemeinschaft erhalten. Für welche konkreten Arbeiten haben Sie diesen Preis bekommen?

Das weiß ich selbst noch gar nicht. Ich habe bisher nur erfahren, daß ich wegen wissenschaftlicher Leistungen in der Vergangenheit den Förderpreis bekommen habe.

þIhr Gebiet sind innovative, insbesondere parallele Computerarchitekturen. Wie, glauben Sie, sieht die Computerarchitektur der Zukunft aus, sagen wir in zehn Jahren?

Das ist eine berechtigte Frage. Das wird von uns ja gerade erforscht. Es wird viele Architekturen geben. Es wird weiter Mainframes geben, es wird weiter Vektorrechner geben. Es wird in verstärktem Maße massive Parallelrechner geben. Ich glaube nicht, daß es da in den nächsten zehn Jahren einen Parallelrechnertyp gibt, von dem man sagen wird: Der ist es.

þMeinen Sie, daß das Von-Neumann-Konzept langfristig zum Aussterben verurteilt ist?

Nein. Das Von-Neumann-Konzept ist, wenn es überhaupt zu etwas verurteilt ist, dazu verurteilt, weiterzuleben, weil darin zuviel Software investiert worden ist. Das kann man nicht einfach wegwerfen. Von-Neumann-Rechner wird es noch lange geben.

þWelche Betriebssysteme, glauben Sie, werden angesichts der hardwaretechnischen Entwicklung, insbesondere auf dem Parallelrechner-Sektor, überleben?

Auf dem Parallelrechner-Sektor gibt es eigentlich kaum etwas, was ich ein ernstzunehmendes Betriebssystem nennen könnte. Da muß man erst mal ein Betriebssystem erfinden. Parallelrechner befinden sich zur Zeit im experimentellen Stadium ebenso die dazugehörigen Betriebssysteme. Es gibt noch überhaupt kein Betriebssystem, das sich in irgendeiner Weise durchsetzen könnte.

þNeuerdings scheint die RISC-Philosophie wieder stärker aufzuleben. Sehen Sie, gerade als ehemaliger Mitarbeiter von IBM, eine Querverbindung zwischen RISC und Parallelverarbeitung?

Das sind meiner Meinung nach zwei verschiedene Paar Schuhe. Bei RISC-Verarbeitung geht es um folgendes: Man hat früher Rechner gebaut mit einem sehr großen Befehlsvorrat, ein klassisches Beispiel dafür ist die IBM-Serie /370, und diese Maschinen waren sehr komfortabel zu programmieren. Nachteilig machte sich der große Hardwareaufwand bemerkbar, und es waren relativ langsame Maschinen. Dann hat man herausgefunden, daß eigentlich von diesen Funktionen sehr viele die meiste Zeit nicht benutzt werden. Also baute man Maschinen, die weniger Instruktionen haben und wo die einzelnen Instruktionen sehr schnell ausgeführt werden, und die anderen dafür simuliert werden. Das ist RISC. Das ist eine Philosophie, wie man Rechner baut.

Bei Parallelrechnern ist die Idee, daß sich manche Teilaspekte eines Problems unabhängig voneinander bearbeiten lassen. Wenn ich mir zwei Rechner leisten kann - und das kann man, sogar 20 oder 30, denn sie sind billiger geworden als früher -,

dann versucht man, diese gleichzeitig an dem Problem rechnen zu lassen. Solche Einzelrechner können wieder RISC-Rechner sein - oder auch nicht.

þKönnte man es so formulieren: RISC ist ein Konzept, Rechner schneller zu machen. Parallelrechner sind ein Konzept, Aufgaben schnell zu erledigen ...

... mit vielen verschiedenen Rechnern. Ein Parallelrechner besteht aus Knotenrechnern, aus vielen, vielen Computern, die über ein Netzwerk während der Rechnung Daten austauschen. Diese einzelnen Computer, Computer im klassischen Sinn, nennt man bei Parallelverarbeitung Knotenrechner. Und RISC ist etwas, um konventionelle Rechner oder Knotenrechner, Parallelrechner schneller zu machen. Sie können Parallelrechner bauen aus einem Nicht-RISC-Rechner.

þWelche Konsequenzen ergeben sich aus Ihrer Sicht für die Software und für die Anwender aus der technischen Entwicklung von Parallelrechnern?

Softwaremäßig gibt es da zwei Zugänge, die die Software-Entwickler bei Parallelrechnern gewählt haben. Der erste wurde wegen der hohen Investitionen in existierende Programme eingeschlagen. Er besteht darin, daß man versucht, automatische Übersetzer zu finden, die ein existierendes Programm so umstricken, daß es auf mehreren Maschinen gleichzeitig laufen kann. Die Übersetzerprogramme müssen dann die Parallelität in dem vorgelegten Anwendungsprogramm automatisch erkennen und daraus ein Schema entwickeln, um mehrere Prozessoren gleichzeitig am Laufen zu halten. Und das ist sehr, sehr schwierig. Das ist der eine Zugang. Diesen Weg versucht man bei kleinen Anzahlen von Prozessoren einzuschlagen, bei Parallelmaschinen mit 2, 4, oder wenn man optimistisch ist, mit 16 Prozessoren. Man versucht dann vielleicht mit 16 Maschinen neunmal so schnell zu rechnen wie mit einer Maschine. Der andere Zugang besteht darin, neue Programme für Parallelrechner zu erstellen. Man kann dann davon ausgehen, daß der Programmierer bei seinem Programm selber am besten die Parallelität versteht, daß er weiß, wie er seine Aufgabe auf mehrere Rechner gleichzeitig verteilen kann. Das gibt ihm ein Mittel in die Hand, den Parallelismus explizit zu formulieren.

þDie Gesellschaft, in der wir leben, wird immer stärker von Anwendungen der Informatik durchsetzt und verändert. Stichworte sind Automatisierung und Verdatung. Inwieweit betrachten Sie diese Entwicklung als problematisch?

Na ja, das kann einem auch auf die Nerven gehen. Wenn Sie zum Beispiel vom Computer einer Bank eine Mahnung für eine Rechnung zugeschickt bekommen, und Sie haben die Rechnung schon längst bezahlt, und vielleicht erscheint dann auch noch der Gerichtsvollzieher, dann ist das schon ein wenig problematisch. Und wenn man daran denkt, daß Waffen computergesteuert abgeschossen werden können, und wenn man weiß, daß es im wesentlichen unmöglich ist, strikt korrekte Programme zu schreiben, das kann einen schon besorgt machen.