64-Bit-Computing/Der Weg der Datenverarbeitung führt von superskalar zu parallel

Itanium fordert die Risc-Plattformen heraus

07.12.2001
Intel will den Risc-Plattformen mit seinen Itanium-Prozessoren das Revier im 64-Bit-Computing streitig machen. Zwar kann der Neuling auf eine Reihe technischer Fortschritte zurückgreifen, doch der Chip allein macht noch kein 64-Bit-System. So müssen auch Compiler, Betriebssysteme und Applikationen an die neue Welt angepasst werden. Von Karl-Ferdinand Daemisch*

Die Wurzeln der 64-Bit-Technologie reichen zurück bis ins vorige Jahrzehnt. Diese Tatsache sowie die Implementierungen, die diverse Risc-Anbieter (Reduced Instruction Set Computing) längst etabliert haben, rücken wegen der IA-64-Prozessoren stark in den Hintergrund. Von Hewlett-Packard und Intel gemeinsam entwickelt sind die Itanium-Chips der späte Beitrag des kalifornischen Chipgiganten zum 64-Bit-Computing. Mit der hoch parallelisierenden Epic-Architektur versprechen sich die Entwickler bisher nicht erreichte Performance-Horizonte. Genau das Gleiche wollen Lösungsansätze mit technisch völlig anderen Ideen erreichen.

Als Intel seine unter den Code-Namen "Merced" und "McKinley" entwickelte 64-Bit-Prozessorreihe mit großer Verspätung endlich vorstellte, brach so etwas wie Goldgräberstimmung unter vielen Hardwareanbietern aus. Ganz nüchtern betrachtet bedeutet IA-64 lediglich Intels lang geplanten Aufstieg in diese bisher von fünf Typen erfolgreich besetzte Prozessor-Oberklasse.

Die 64-Bit-Technologie ist, an IT-Zeitzyklen gemessen, fast schon uralt. DEC (Digital Equipment Corp.), heute eine Compaq-Unterabteilung, brachte bereits 1992 die ersten seiner schnellen 64-Bit-fähigen Alpha-CPUs auf den Markt. Es folgten Hewlett-Packard mit seiner "PA Risc"-Familie, die Chips der R-Klasse von Mips unter SGI-Regie, Sun Microsystems mit der Sparc-Architektur sowie die Power-PC-Prozessoren, die vom Duo Motorola und IBM entwickelt wurden: Alle genannten Risc-Reihen sind mit superskalarer Technik ausgerüstet und laufen unter speziell an die jeweilige Architektur angepassten 64-Bit-fähigen Unix-Betriebssystemen.

Zu den markantesten Merkmalen dieser Risc-CPUs zählten der gegenüber der Cisc-Technik (Complete Instruction Set Computing) stark verringerte Befehlsvorrat des Prozessor- Microcode-Kernels. Außerdem besitzen die Chips mehrere Pipes, in denen CPU-gerecht vorbereitete Befehle zur Instruktionsverarbeitung auf den nächsten Arbeitstakt des Prozessors warten. In der Regel funktioniert diese Befehlsabarbeitung auf jeweils vierfach parallelen Pipes. Die Funktion "Branch Prediction" in der Risc-Welt meint die Bereitstellung von Befehlen des - vermutlich zutreffenden - Zweigs einer Entscheidung.

Seit 1994 bastelt Intel an IA-64Auch für Intel war irgendwann klar, einen Weg in die 64-Bit-Welt aufzeigen zu müssen. Allerdings wandelte der kalifornische Chiphersteller aus Santa Clara nicht auf den ausgetretenen Pfaden der Risc-Vertreter, sondern suchte sich einen neuen Weg. Am 8. Juni 1994 von HP und Intel in einer wenige Zeilen umfassenden, dürren Meldung bekannt gegeben, löste das Vorhaben "Merced" zu Beginn kaum Reaktionen in der IT-Branche aus. Doch beschrieb der Inhalt bereits damals ein technisch revolutionäres Konzept. Die Reihung "von Cics zur Risc" wurde durch den Nachfolger "Epic" ergänzt.

Explicitly Parallel Instruction Computing(Epic) entspricht einer modifizierten Entwicklung des von HP-Chef-Vordenker Joel Birnbaum weiter gedachten VLIW-Verfahrens (Very Large Instruction Word). Die bei IA-64 gewählte Umsetzung bedingt jedoch gegenüber der bisher geübten Philosophie tiefgreifende Änderungen in der Hardwarestruktur des Chips sowie in der Software von Compilern wie Betriebssystemen.

Damit setzt die von Intel und HP entwickelte IA-64-Architektur die Marke eines kompletten Neuanfangs: Eine neue Generation von Hochleistungs-CPUs baut darauf auf. Epic signalisiert das Ende der superskalaren Risc-Technik, wie sie in den bisherigen 64-Bit-Chips der Risc-Vertreter zum Einsatz kam.

Erste Systeme auf Basis der heute als Itanium bezeichneten CPUs stammten von Intel sowie von Mitstreiter HP: eine Workstation, ein Vierwege-Server für Web-Anwendungen und ein 16-CPU-System mit cc/Numa-Architektur (Cache-Coherent/Non-Uniform Memory Access). Bis zu 25 weitere Systeme sollen im Augenblick noch in den Produktpipelines diverser Anbieter stecken.

IA-64 mit Epic bildet eine Architektur auf einem Chip, die eine Reihe paralleler, für verschiedene Funktionen zuständige Verarbeitungs-Units mitbringt. So können zum Beispiel, während Zahlenberechnungen in Integer-Units ablaufen, in parallel operierenden FP-Units Floating-Point-Operationen ausgeführt und daneben Branch-Prediction in vielfach größerer Instruktionstiefe als bisher betrieben werden. Demnach stellt Epic, wie IDC-Analysten bereits 1998 verkündeten, "den kompletten und keineswegs trivialen Bruch Intels mit seiner aktuellen Chiparchitektur dar".

64-Bit bringt auf dem Desktop gar nichtsDiese Aussage muss jedoch relativiert werden. Sie trifft im Grunde nur auf die 64-Bit-Welt der Hochleistungsprozessoren für "schwere Eisen" der Server- und Mainframe-Klasse zu. 64-Bit-Computing im Desktop-PC macht für Textverarbeitung und Tabellenkalkulation keinen Sinn. Hier sind 32-Bit-CPUs, die von Intel parallel auch weiter gepflegt werden, auf lange Zeit mehr als ausreichend.

Ein Prozess, von den Analysten längst - allerdings viel zu früh - prognostiziert, setzt nun massiv ein: das Aussterben der Risc-Prozessoren. Hersteller wie HP, aber auch Mips oder kürzlich Compaq, das bis zum Jahr 2004 seine Alpha-Plattform ablösen will, führen ihre Chiparchitekturen nicht weiter. Neben IBM mit PowerPC scheint einzig Sun seine Sparc-Linie weiter zu erhalten. Alle anderen Hardwareanbieter wollen dagegen in absehbarer Zukunft nur noch Intel-Chips verwenden.

Das hat Gründe, zum Beispiel die Kosten: Jeder neue Chip, und sei es nur die Weiterentwicklung eines bereits vorhandenen Typs, kostet etwa 500 Millionen Dollar. Die Fabrik, die erforderlich ist, um ihn zu fertigen, erfordert etwa den zehnfachen Betrag. So rechnen sich die im besten Fall mit einer Million abgesetzten Stück eines Risc-Chips gegenüber den Zig Millionen Intel-CPUs einfach nicht mehr.

IBMs Chiptechnik basiert auf parallelen CPUsDie IA-64-Technologie weist eine hoch parallelisierende Datenverarbeitung auf. Dies ist jedoch nicht der einzige Ansatz, um die von den Anwendern geforderten Leistungspotenzen bei Performance und Datendurchsatz zu erreichen. Ein anderes logisches Konzept entwickelte zum Beispiel Branchenprimus IBM. Das Projekt, das ebenfalls als ein hoch parallelisierendes Verfahren beschrieben werden kann, nutzt bei den neuen Power-PC-Prozessoren zwei parallel auf einem Chip zusammenarbeitende CPUs - inklusive jeweiliger gemeinsamer, großer Cache-Speicher von 6 MB im Level-2- und 128 MB im Level-3-Cache. "Der PowerPC 4" wird, mit 1,1 und 1,3 Gigahertz getaktet, in dem ab Dezember 2001 ausgelieferten Unix-System "Regatta" arbeiten.

Für die IBM-Strategen bedeuten 64-Bit noch lange nicht das Ende der Fahnenstange. Der nächste logische Schritt zu 128-Bit-CPUs ist in den Forschungslabors schon längst gemacht. Bereits 1999 dachte darüber auf einer IBM-AS-400-Veranstaltung in München IBM-Chef-Entwickler Frank Soltis laut nach.

Die Aussage "64-Bit System" impliziert als Marketing-Botschaft "schneller, besser, moderner", und beschreibt zunächst keine technischen Vorteile, etwa eine gegenüber 32-Bit-Systemen verdoppelte Leistung. Im Gegenteil: Es kann sogar sein, dass 32-Bit-Rechner eine Anwendung schneller und effizienter bearbeiten als ein 64-Bit-fähiger Computer. Daher muss eine Leistungsbeurteilung mehrere unterschiedliche Ebenen berücksichtigen.

Die unterste betrifft die Chiphardware: Ein 64-Bit-System wird hier dadurch klassifiziert, dass die internen Register eines Prozessors mit einer Breite von mindestens 64 Bit implementiert sind. Weiter muss der Datenbus, der den Chip mit externen Bus-Schnittstellen verbindet, ebenfalls mindestens auf eine Breite von 64 Bit ausgelegt sein. Ferner sehen die Spezifikationen vor, dass das Befehlsformat 64-Bit-Operationen unterstützt. Dies verlangt aber Software sowie geeignete Compiler und Betriebssysteme.

Schneller wird eine CPU jedoch nicht allein durch die größere Bandbreite der Operations- und Datenkanäle. Um die benötigten Informationen dem Prozessor schnell genug zuzuführen, müssen Prozess-Operanden und -Daten in den der CPU möglichst nahen Cache-Speichern vorgehalten werden. Diese umfassen heute schon bis zu dreistufige und in manchen 64-Bit-CPUs schon Megabyte-große Speicher-Hierarchien.

Zunächst maßgebend für die Leistung sind aber die Prozessor-Taktraten. Die Erhöhung der Taktfrequenz hängt wiederum von diversen Faktoren ab: dem Herstellungsprozess mit Dichte und Anzahl der Transistoren, den möglichst kurzen Verbindungsstrecken mit geringen Verlustleistungen, also etwa Kupferleitung statt Aluminium, sowie einer effizienteren Kühlung der Chips. Zuletzt kann auch eine Steigerung der pro Takteinheit erbrachten Arbeit einen Chip schneller machen. Dies führt zwangsläufig zur weit gehenden Parallelisierung der Abläufe und erfordert Funktionen wie zum Beispiel exakte Vorhersagen von Operationsverzweigungen.

Solche Vorhersagen führen die bisherigen "superskalaren" 32- wie 64-Bit-Systeme mit ihrer mehrfachen Pipe-Architektur zwar auch schon aus. Der neue Ansatz der Epic-Architektur umgeht aber einen Nachteil dieser Pipes, in denen Befehle nacheinander zur Verarbeitung durchgereicht werden. Durch die bei Epic vorhandenen, mehrfachen Units mit unterschiedlichen Aufgaben wird die Ausführung der vom Compiler entsprechend gekennzeichneten Befehle - etwa eine Integer-Operation - direkt auf die nächste freie Unit weiter geleitet.

Dabei muss das Betriebssystem dafür sorgen, dass sehr große Datensätze sowie ein großer virtueller Arbeitsbereich unterstützt werden. 64 Bit ermöglichen hier das Durchbrechen der bisher durch 32-Bit begrenzten 4 GB großen Adressräume im Arbeitsspeicher.

Applikationen müssen angepasst seinWer 64-Bit-Computing nicht wirklich braucht, handelt sich damit eher Nachteile als die erwartete Super-Performance ein. Dies hängt mit den internen Strukturen der Anwendungen zusammen. Eine 32-Bit-Applikation mag zwar möglicherweise auf einem 64-Bit-System laufen. Sie arbeitet aber ohne entsprechende Code-Anpassung nach wie vor als 32-Bit-Version, nutzt also die 64-Bit-Funktionen nicht nur nicht aus, sondern kann dadurch das System sogar verlangsamen. Wer zudem nur relativ statische Computing-Systeme betreibt, hat kaum Verwendung für Leistungsmerkmale der 64-Bit-fähigen Chip-Oberklasse.

Dagegen brauchen Applikationen wie Data Warehouses und Olap (Online Analytical Processing) im kommerziellen Umfeld 64-Bit-Systeme, um die immens große Datenmengen, die in heute bis zu mehreren hundert Terabyte (TB) fassenden Datenbanken liegen, zu verarbeiten. Dabei macht sich ein Leistungszuwachs vor allem durch die direkt vorgehaltenen Informationen, die im nun möglichen virtuellen Adressraum von mehr als 4 GB abgelegt werden können, am deutlichsten bemerkbar. Weiter lassen sich nun auch extrem große Dateien mit mehr als 2 GB Umfang verarbeiten. Um aber diese Verarbeitung korrekt abzuwickeln, ist der Benutzer in der Regel gezwungen, seine Anwendungen neu zu kompilieren. Oft genug wird die Portierung auch erfordern, dass zusätzlich händische Anpassungen am Code vorgenommen werden.

Der Erfolg hängt von den Anwendungen abSollten die Standardanwendungen unabhängiger Softwarehäuser rasch und in vollem Umfang für die Itanium-Architektur verfügbar sein, könnte dieser Highend-Markt eine Art PC-Effekt erfahren. Zu diesem Schluss kommt jedenfalls eine Untersuchung der Aberdeen Group. Die Analysten folgern weiter: Wie damals das Erscheinen der PCs Auswirkungen in Richtung "Commodity" und durch Massenfertigung einen bis heute nicht gestoppten Preisrutsch auslösten, so können im 64-Bit-Umfeld eventuell ähnliche Prozesse einsetzen. So könnten zum Beispiel E-Business-Anwendungen, die bisher an zu schwacher Performance und schmalbrüstigen Verschlüsselungssystemen krankten, damit die Leistungshürde zur Profitabilität überspringen. (ba)

*Karl-Ferdinand Daemisch ist freier Fachjournalist in Lörrach.

Abb.1: Server-Architekturen

Nach Ansicht der Marktforscher wird der Anteil der Risc-Plattformen am Server-Markt bis 2010 deutlich zurückgehen. Gewinner soll Intels Itanium-Plattform sein, deren Anteile kontinuirlich steigen. Quelle: IDC

Abb.2: Chiparchitekturen

Ein Überblick über derzeitige Risc-Architekturen (AMD zum Vergleich) und ihre Taktraten. Quelle: spec