Supercomputer konkurrieren mit Grids

27.07.2005
Von Dr. Bernd

Mit der grundlegenden Neudefinition der CPU-Architekturen, die Anfang der 80er Jahre unter dem Begriff "Risc" ihren Einzug in die Welt der verfügbaren Systeme feierten, änderten sich die Rahmenbedingungen wesentlich. Die neuen Instruktionssätze waren so konzipiert, dass der gesamte Computer im Fließbandprinzip arbeitete: Gleitkomma-, Festkomma-, Lade/ Speicher-Operationen - alles konnte nun durch die gleiche Pipeline fließen, mit hohem Leistungsgewinn und unabhängig von Vektorstrukturen.

Risc, Cisc und MPP

Die alten (Cisc-)Architekturen gerieten damit zunächst ins Hintertreffen, fanden jedoch auf der Implementierungsebene Lösungen, um diesen Nachteil durch Separation der komplexen Instruktionen auszugleichen. Der Leistungsaspekt des Vektorrechners reduzierte sich damit aber auf den immer selteneren Anwendungsfall, bei dem hierarchische Speicherarchitekturen (Cache) ineffizient sind.

Anfang der 90er Jahre schien sich die Chance für den "massiv-parallelen" Supercomputer auf Grundlage von kostengünstiger Basistechnologie zu eröffnen. Massiv-paralleles Processing (MPP) galt als Alternative und mögliche Nachfolge des Vektorrechners; der Fokus der Entwicklung und der Differenzierung lag auf der Verbindungstechnik und -topologie zwischen den in großer Zahl vorhandenen "Knoten". Vor dem Aufbau eines hinreichenden Anwendungsspektrums galt es, die Frage nach der Wichtigkeit der globalen Speicherkonzepte und des adäquaten Grades von Kohärenz lokaler Speicher zu klären. Doch MPP ging schon vorher mit dem Verschwinden aller entsprechend fokussierten Anbieter nach wenigen Jahren unter. Es gab kaum skalierende Anwendungen, und der Wert der MPP-Architekturen war in realen Umgebungen schwer nachweisbar.

Zum Kunstwerk integriert