Auf allen Vieren

16.02.2007
Von 


Wolfgang Miedl arbeitet Autor und Berater mit Schwerpunkt IT und Business. Daneben publiziert er auf der Website Sharepoint360.de regelmäßig rund um Microsoft SharePoint, Office und Social Collaboration.
Nachdem das Megahertz-Rennen zwischen Intel und AMD an physikalische Grenzen stieß, wurde der Wettkampf verlagert. Das neue Duell dreht sich um die Anzahl der Prozessorkerne, aktuell ist man bei Quad-Core-CPUs angelangt.

Verkehrte Welt? Seit Jahren haben die Marketing-Abteilungen der Computerindustrie die Kunden auf die simple Megahertzformel konditioniert: höhere Taktfrequenz = mehr Leistung = ein besserer Computer. Mit den im vergangenen Jahr neu erschienenen Mehrkernprozessoren scheinen sich diese bekannten Gesetze plötzlich ins Gegenteil zu verkehren, die Taktfrequenz geht bei neuen Prozessorserien sogar wieder nach unten. So legte Intel beispielsweise bei der Premiere seines ersten Doppelkern-Prozessors "Core 2 Duo E6300" die Latte auf niedrige 1,86 Gigahertz. Und in diesem Jahr sollen Einstiegsmodelle mit einer Taktrate von 1,4 Gigahertz auf den Markt kommen.

Aussteller Quad-Core-Systeme

  • AMD Advanced Micro Devices: Halle 2, Stand C22;

  • Acer Computer: Halle 25, Stand D40, (M102);

  • IBM Deutschland: Halle 1, Stand F41;

  • Intel: Halle 21, Stand B42;

  • Fujitsu Siemens Computers: Halle 1, Stand G51;

  • Sun Microsystems: Halle 1, Stand A90;

  • Transtec: Halle 2, Stand C20.

Gründe für die Abkehr vom Gigahertz-Wahn gibt es mehrere. Zunächst einmal hatte Intel im Wettrennen mit AMD schlicht zu hoch gepokert, indem es seinerzeit den "Pentium 4" für Taktraten jenseits der 4-Gigahertz-Marke konzipiert hatte. Die physikalischen Gesetze brachten dieses ehrgeizige Vorhaben allerdings schnell ins Stocken, so dass bald nach anderen technischen Neuerungen gefahndet werden musste, um die Kunden bei der Stange zu halten. Dem Erzrivalen AMD gelang es zwischenzeitlich, mit der 64-Bit-Erweiterung (x64) in der Gunst der Kunden an Intel vorbeizuziehen, bevor der Marktführer eine nahezu unüberschaubare Zahl an CPU-Erweiterungen ersann, beispielsweise Komponenten für Virtualisierungssoftware oder Multimedia-Heim-PCs (Viiv).

AMDs Executive Vice President Henri Richard zeigt einen AMD native-Quad-Core (links) und einen Intel Pseudo-Quad-Core.
AMDs Executive Vice President Henri Richard zeigt einen AMD native-Quad-Core (links) und einen Intel Pseudo-Quad-Core.

Als Ausweg aus dem Gigahertz-Dilemma hat sich nun die Parallelisierung der Prozessorkerne herauskristallisiert, wie sie zuvor schon IBM und Sun bei ihren Risc-Prozessoren eingeführt hatten. Den Startschuss für diesen neuen Wettbewerb bei PC-Servern hat Marktführer Intel im vergangenen Sommer mit der Einführung der Core-2-Architektur gegeben. Unter dem Label "Core 2 Duo" wurden anfangs je fünf CPUs für Desktops ("Conroe") und für Notebooks ("Merom") in 65-Nanometer-Technik vorgestellt, die laut Hersteller bei 40 Prozent mehr Leistung 40 Prozent weniger Strom aufnehmen (zum Vergleich: Core 2 Duo: 65 Watt, Pentium 4: 95 Watt, Pentium D: 130 Watt).

Bereits im November warf Intel weitere Kerne in die Waagschale und stellte seine erste VierKern-CPU-Serie für Highend-PCs und für Server vor. Die Desktop-Reihe hört dabei auf den Namen "Core 2 Extreme Quad-Core", das Pendant für Server heißt "Quad-Core Xeon 5300". Erzrivale AMD schien von diesem Tempo zunächst überrascht und konnte anfänglich nicht dagegenhalten. Einer der Gründe dafür liegt in einem Rückstand bei der Herstellungstechnik: Intel war bereits im Sommer 2006 in der Lage, Prozessoren in einer verkleinerten 65-Nanometer-Struktur zu produzieren, während AMD erst Ende des vergangenen Jahres diesen Herstellungsprozess beherrschte.

In der Zwischenzeit bemüht sich AMD, wieder mit Intel gleichzuziehen. So wurden soeben modernisierte Doppelkern-Modelle vorgestellt, während man die offene Vierkernflanke derweil mit einem Griff in die Marketing-Trickkiste zu schließen versucht. Hinter der Bezeichnung des brandneuen Quad-Cores "Quad FX" verbirgt sich nämliche eine Pseudo-Vierfach-Lösung, bei der in Wirklichkeit Dual-Core-CPUs zum Einsatz kommen, die paarweise in Doppelsockel-Mainboards gesteckt werden. Vom äußeren Anschein her handelt es sich hierbei also um eine klassische Mehrprozessor-Maschine. AMD trommelt aber bereits jetzt für ein Zukunftsprodukt, das ab Jahresmitte am Markt erhältlich sein soll. Den in Aussicht gestellten Opteron-Quad-Core (Codename "Barcelona") nennt der US-Hersteller mit deutschen Produktionsstätten ganz selbstbewusst den ersten "echten" Quad-Core-Prozessor. Dieser Seitenhieb in Richtung Intel ist durchaus begründet, denn auch dessen aktuelle Modelle entsprechen nicht der reinen Quad-Core-Lehre: Bei seinen derzeitigen Serien integriert der Marktführer nämlich zwei Dual-Core-Chips in einem Prozessor-Gehäuse - immerhin reicht dazu ein CPU-Sockel.

Multikern-Prozessoren

Mehrprozessorsysteme basierten bisher auf Hauptplatinen mit mehreren Sockeln für klassische Einzel-CPUs. Multi-Core-Prozessoren hingegen vereinen zwei, vier oder mehr Recheneinheiten innerhalb eines Prozessorgehäuses und belegen so auf der Hauptplatine nur einen Sockel. Aus Sicht des Betriebssystems spielt das keine Rolle - es nimmt jeden dieser Kerne als eine eigenständige CPU wahr.

AMD setzt beim reinrassigen Vierkernchip Akzente in Form eines neu entwickelten Crossbar, der als zentraler Austauschknoten für alle vier auf einem Chip zusammengefassten Kerne dient. Das beschleunigt den internen Datenverkehr und ermöglicht unter anderem einen schnelleren Zugriff auf den Hauptspeicher, was laut AMD zu einer doppelt so schnellen Verarbeitung von Daten und Befehlen führt. Intel wiederum wird sich in diesem Prestigeduell wohl keine Pause gönnen - der echte Quad-Core vom Marktführer ist ebenfalls für dieses Jahr angekündigt.

Die großen Hardwarehersteller sind mittlerweile allesamt mehr oder weniger umfassend auf den Quad-Core-Zug aufgesprungen. Dell beispielsweise bietet alle Server mit der Vierfachoption an. Jürgen Kleinheinz, der bei Dell Deutschland das Server-Marketing verantwortet, rechnet damit, dass für viele Anwender ein Umstieg auf Mehrkern-CPUs attraktiv ist: "Der aktuelle Trend zur Virtualisierung von Server-Instanzen wird durch Multicore-Technik noch beschleunigt, weil sich damit auf einer Maschine mehr virtuelle Betriebssysteme als bisher unterbringen lassen." Ein nicht unerheblicher Aspekt sei außerdem das Thema Softwarelizenzen. Da die meisten Softwarehersteller die Lizenzkosten pro CPU-Sockel berechnen, zeichne sich für Unternehmen hier ein enormes Einsparpotenzial ab, sofern sie von Multiprozessor-Servern auf Multicore-Systeme umsteigen. "Hier könnte sich schon bald die nächste Konsolidierungswelle anbahnen", glaubt Kleinheinz.

Auch das Thema Stromverbrauch wird nach Einschätzung von Experten das Multikern-Thema weiter beflügeln. Bereits jetzt arbeiten viele Rechenzentren am Versorgungslimit, und für 2008 prophezeit Gartner, dass rund die Hälfte aller Rechenzentren in puncto Stromverbrauch und Klimatisierung massive Probleme bekommen werden. Da aktuelle Quad-Core-Prozessoren eine deutliche Leistungssteigerung bei gleich bleibendem Energieverbrauch versprechen, dürften sie sich auch für RZ-Modernisierungen empfehlen.

IBM zählt zu den Anbietern, die auf der CeBIT bereits ein umfangreiches Portfolio an Multi-Core-Rechnern vorweisen können. So ist die x-Serie mit dem Modell "x3650" vertreten, dessen zwei Sockel Platz für Dual- oder Quad-Core-Chips bieten. Außerdem kann Big Blue auf der hauseigenen Power-Plattform Quad-Core-Technik liefern. Gut im Rennen liegt der IT-Riese außerdem mit der in Kooperation mit Sony entwickelten "Cell"-Prozessorarchitektur, die beispielsweise in Blades zum Einsatz kommt.

Die Software muss mitspielen

Zwei, vier oder mehr Recheneinheiten in einem Prozessorgehäuse klingen nach mächtig viel Leistung für marktübliche PCs oder Server. Doch eine solche hoch gezüchtete Hardware alleine macht noch keinen Sprinter - es muss nämlich auch die Software mitspielen. Die Problematik dabei ist vielschichtig und beginnt zunächst einmal beim Betriebssystem. Systeme wie Windows, Linux, Unix oder Mac OS können schon seit langem mit mehreren Prozessoren umgehen - Windows Server 2003 beispielsweise läuft auf Maschinen mit bis zu 64 Prozessoren. Gängige Anwendungen werden damit aber nicht zwangsläufig schneller, der Anwender profitiert zunächst einmal lediglich beim Multitasking: Sofern er mehrere Programme parallel laufen lässt, verteilt das Betriebssystem die Arbeit auf mehrere CPUs, so dass mehrere Programme im Hintergrund mit voller Leistung arbeiten.

Wirklich ausnutzen lassen sich die "Zusatzmotoren" erst dann, wenn die eingesetzte Software von ihren Entwicklern auf Multithreading hin optimiert wurde. Ein Thread bezeichnet einen Ausführungsstrang, und klassische Software ist so konzipiert, dass der Prozessor immer nur einen Thread abarbeitet, bevor der nächste an die Reihe kommt. Ist die Software hingegen Multithreading-fähig aufgebaut, so kann sie einzelne Abläufe zur gleichzeitigen Abarbeitung auf mehrere Prozessoren oder Kerne verteilen. Wie stark der Leistungszuwachs bei Multicore-PCs ausfällt, hängt also primär vom Parallelisierungsgrad der Software ab - im Idealfall steht für jeden Ausführungsstrang ein Kern zur Verfügung.

Allerdings sind dem Leistungszuwachs auch Grenzen gesetzt, wie Gene Amdahl bereits 1967 im Amdahl-Gesetz formulierte. Vereinfacht gesagt steigt mit der Verteilung von Programmen auf mehrere Prozessoren der Verwaltungsaufwand, so dass ab einer gewissen Anzahl von Threads die Verwaltung der Parallelisierung den beabsichtigten Leistungsgewinn wieder auffrisst. Selbst bei Dual-Core-Prozessoren kann man nicht von einer Verdoppelung ausgehen, sondern rechnet mit einem realen Leistungszuwachs auf das 1,3- bis 1,7-fache.

Das Rennen zwischen Intel und AMD bleibt indes spannend. Intel ist mittlerweile bei der Verkleinerung der Strukturbreiten wieder einen Schritt voraus und stellt erste Serien in einem 45-Nanometer-Prozess her, was unter anderem zu einem noch niedrigeren Stromverbrauch führt. Bis Ende 2007 dürften beide Hersteller mit Octo-Core-CPUs auf Basis von zwei Quad-Core-Prozessoren aufwarten und so neue Dimensionen im PC- und Server-Leistungsspektrum erklimmen. (kk)