PC-Trends

Gigahertz-Orgien sind passé

15.10.2004
Nach Jahren der Stagnation kommt wieder Bewegung in die PC-Technik. Die Neuerungen sind allerdings nicht so plakativ wie das Gigahertz-Rennen der Vergangenheit, und sie werden noch Zeit brauchen, bis sie sich durchsetzen.

Von Jan Schulze*

Nach über 20 Jahren seiner Existenz ist der PC zum Commodity-Werkzeug schlechthin geworden. Die Margen der Hersteller tendieren gegen Null, die Markenbindung der Kunden auch. Es ist eine Binsenweisheit, dass sich die Produkte technisch kaum mehr unterscheiden. Das liegt nicht zuletzt daran, dass es seit Jahren keine durchgreifende Revolution in der PC-Technologie gab. War es Anfang 1999 noch eine kleine Sensation, als Intel die Überwindung der Gigahertz-Grenze beim Prozessortakt verkündete, interessiert sich heute fast niemand mehr für neue "Höher-Schneller-Weiter"-Meldungen.

Komponenten haben ihren Preis

Auch für die Komponentenhersteller ist es zunehmend aufwändig geworden, neue Leistungsrekorde einzufahren - was sich in den Preisen niederschlägt. Alleine eine Grafikkarte der neuesten Generation kostet deswegen oft mehr als ein kompletter Durchschnitts-PC - und nutzt nur dem Spieler, der keine Kosten scheut. 500 Euro kann man für dieses Bauteil problemlos ausgeben. Lotus Notes und SAP-GUI profitieren aber nicht davon. Mit einigen tief greifenden Konzepten will die Computerbranche - allen voran der Prozessorhersteller Intel - den PC weiterentwickeln. Dabei haben sich die Hersteller von immer schneller getakteten Prozessoren abgekehrt.

Das hat mehrere Gründe: Zum einen braucht es keinen 3-Gigahertz-PC, um mit Microsofts Windows XP und mit den üblichen Büroanwendungen flüssig zu arbeiten. Zum anderen stecken die heutigen Maschinen voller Technologien, die teilweise bald 20 Jahre auf dem Buckel haben: Die Leistungsfähigkeit der Prozessoren wird immer wieder durch Flaschenhälse im Gesamtsystem ausgebremst. So werkelt auch in einem System mit einem Bustakt von 200 Megahertz und mehr noch immer die PCI-Schnittstelle mit mageren 33 bis 66 Megahertz. Auch die Geschwindigkeit der Speicherbausteine hat sich nicht in dem Maß entwickelt, wie es bei den CPUs der Fall war. Der Prozessor verbringt deswegen einen guten Teil des Tags damit, auf den Speicher zu warten.

Die Prozessorhersteller haben darauf reagiert und ihren Fokus von höheren Taktraten auf leistungsfähigere Architekturen verlegt. Die Schlagwörter dabei sind "Hyperthreading" bei Intel und "Dual Core" beim Konkurrenten AMD. Beim Hyperthreading wird im Prozessor ein zweiter, virtueller Prozessor genutzt. Damit kann die überschüssige Rechenleistung des physikalischen Prozessors, der zum Beispiel noch auf die Rückmeldung des Speichers wartet, bereits der nächsten Berechnung zugute kommen und so die Wartezeiten verkürzen. Diese Technologie setzt Intel im aktuellen Pentium-4-Prozessor ein. Beim Dual-Core-Ansatz von AMD werden zwei Prozessorkerne auf einen Chip gebaut, um die Wartezeiten zu reduzieren. Erste Dual-Core-Prozessoren für Server will AMD im kommenden Jahr auf den Markt bringen, kurz darauf soll die Desktop-Variante folgen.

Gegen Hitze und Lärm

Offensichtlich hat auch die PC-Industrie erkannt, dass es Zeit für neue Konzepte ist. Dabei tritt die Leistungssteigerung nicht mehr in dem Maß in den Vordergrund, wie das in der Vergangenheit der Fall war. Denn Leistung bedeutet zunächst einmal Hitze und Lärm: Über 100 Watt verwandelt ein aktueller Prozessor der gehobenen Preisklasse in warme Luft, beim Topmodell von Intel mit 3,2 Gigahertz sind es unter Volllast schon mal 200 bis 300 Watt. Ein heutiger Rechner besteht deswegen nicht zuletzt aus Lüftern, deren Geräuschentwicklung die Nerven vieler Anwender blank legt. Dem will der Prozessorprimus Intel mit einem neuen Formfaktor zu Leibe rücken: BTX soll den heute üblichen Standard ATX ablösen und damit kleinere, leisere Rechner in die Büros und heimischen Arbeitszimmer bringen.

Ansätze für kleinere Bauformen gab es auch schon in der Vergangenheit, sie hatten jedoch mit zwei Problemen zu kämpfen: Standards wie Micro-ATX und Flex-ATX wurden zwar allgemein akzeptiert, doch sie waren immer weniger in der Lage, mit den stromhungrigen Komponenten und der notwendigen Kühlung Schritt zu halten. Die "Barebones" - Mini-PCs mit schickem Design - lösten diese Probleme mit proprietären Konstruktionen, aber gleichzeitig entfernten sie sich damit von den Standards. Das macht diese Geräte recht teuer.

Mit BTX soll sich das ändern. Einer der Kernpunkte der neuen Spezifikation ist es, die thermischen Belastungen zu reduzieren: Bei den heute üblichen ATX-Mainboards wurde zum Beispiel im Rahmen der Spezifikation nicht darauf geachtet, dass die Luft während des Durchströmens des Gehäuses auf möglichst wenig Widerstand stößt - das war zu Zeiten des ersten Pentium-Prozessors auch nicht nötig. Bei BTX dominiert ein Designprinzip, dass den Einsatz von Gehäuselüftern überflüssig machen soll. Der bessere Luftstrom soll zudem auch die monströsen Kühler heutiger Prozessoren auf ein kleineres Maß zurückstutzen oder ganz ersetzen. Auch sonst hat Intel viel Neues vorgesehen. Alte ATX-Netzteile können nur bedingt mit BTX-Rechnern eingesetzt werden, die aktuellen Gehäuse sind völlig ungeeignet.

Obwohl Intel bereits im vergangenen Jahr BTX angekündigt hat, sind bislang noch keine Serienrechner auf dieser Basis zu sehen. Dell, HP und IBM haben zwar schon BTX-PCs herausgebracht, aber die Großserienfertigung ist noch nicht angelaufen. Auch die Mainboard-Hersteller halten sich noch zurück, nur wenige sind bislang auf diesen Zug aufgesprungen. Das hat gute Gründe: Einige Experten sind etwa der Meinung, dass sich der neue Formfaktor für die Prozessoren des Intel-Konkurrenten AMD nicht eignet. Zudem hat kaum ein Anbieter daran Interesse, gleichzeitig Fertigungskapazitäten für ATX und für BTX bereitzustellen. Nicht zuletzt die geringen Margen im Hardwaregeschäft wirken sich hier hemmend aus. Es wird also wohl noch einige Zeit dauern, bis die BTX-Plattform sich im Handel gegen den etablierten Vorgänger durchsetzt.

Ein weiteres neues Schlagwort der PC-Branche ist "PCI Express", kurz "PCIe". Damit sollen die Schnittstellen für Erweiterungskarten von ihrem bremsenden Erbe befreit werden. Auch diese Entwicklung stammt aus dem Hause Intel. Der Hintergedanke bei PCI Express ist, zwischen dem Hauptspeicher und der angeschlossenen Komponente eine direkte Verbindung herzustellen, anstatt den Umweg über Chipsatz und CPU zu gehen. Damit sind Datenraten bis zu 4 GB/s möglich. Zum Vergleich: Die normale PCI-Schnittstelle schafft knapp über 130 MB/s. Somit eignet sich PCI Express besonders für drei Baugruppen: Grafikkarten, Raid-Controller und Gigabit-Netzkarten.

Bei den Grafikkarten ist es wohl nur eine Frage der Zeit, bis PCI Express den nun üblichen AGP-Port ersetzt. Ansonsten teilt die Schnittstelle momentan noch das Schicksal vieler neuer Entwicklungen: Bislang sind fast keine Steckkarten jenseits der Grafikkarten erhältlich. Zudem fehlen noch die entsprechenden Chipsätze für AMD-Prozessoren. Doch die zunehmenden Datenmengen in allen Anwendungsbereichen sprechen mittelfristig für PCIe.

64 Bit für den Desktop

Während im Bereich der Mainboards zurzeit Intel die Marschrichtung der kommenden Jahre vorgibt, ist bei den Prozessoren AMD entwicklungsseitig zunehmend in den Vordergrund gerückt. Das Zauberwort der PC-Trends lautet "64 Bit". Während diese Technik in Highend-Servern schon seit geraumer Zeit etabliert ist, dringen die neuen 64-Bit-Prozessoren nun langsam auch zum PC vor. Hier ist der CPU-Marktführer Intel abgeschlagen. Dessen 64-Bit-Prozessor "Itanium" ist auf Server spezialisiert - und auch da nicht recht erfolgreich. Denn Itanium ist ein reiner 64-Bit-Prozessor und somit nicht kompatibel zur heutigen 32-Bit-Welt. Anwendungen müssen also aufwändig umgeschrieben werden, um mit guter Performance darauf zu laufen. AMD war cleverer. Dessen 64-Bit-Modelle "Athlon 64" für den Desktop und "Opteron" für Server beherrschen sowohl 32 als auch 64 Bit. Im Prinzip handelt es sich um einen herkömmlichen 32-Bit-Prozessor mit 64-Bit-Erweiterung.

Neben der etwas höheren Arbeitsgeschwindigkeit bringen 64-Bit-Prozessoren vor allem den Vorteil, mit mehr Speicher arbeiten zu können. In der 32-Bit-Welt gilt für den adressierbaren Speicher die Obergrenze von 4 GB. Der Athlon 64 kann dagegen 1 TB nutzen. Allerdings muss man sich fragen, wozu das aus heutiger Sicht gut sein soll. Bei Servern ist Speicher ein wichtiger Aspekt für die Systemleistung. Denn dann können mehr Daten, zum Beispiel einer Kundendatenbank, im Speicher vorgehalten und müssen nicht zeitaufwändig ständig von der Festplatte nachgeladen werden. Der Standard-PC besitzt aber in der Regel einen Speicher von 512 MB, Windows XP kann ohne Tricks nur 2 GB Speicher pro CPU nutzen. Kaum eine aktuelle Anwendung erzeugt diese Datenmengen - ausgenommen vielleicht im professionellen Videoschnitt oder im Trickfilmstudio.

Die Vergangenheit hat aber gezeigt: Der Softwareindustrie wird etwas einfallen, wie der gigantische Arbeitsspeicher gefüllt werden kann. Allen voran werden die Spielehersteller die neuen Möglichkeiten für sich entdecken. Im Büroeinsatz jedoch ist 64-Bit-Computing sicher noch eine ganze Zeit eine Nischenanwendung. Doch das war das 32-Bit-Computing vor einigen Jahren auch. Der Schritt auf 64 Bit ist die logische Fortsetzung der bisherigen PC-Entwicklung. (ue)

*Jan Schulze

ist IT-Fachjournalist in Erding.

Der PC im Rechenzentrum

Ein Kernproblem der PCs lässt sich weder durch neue Formfaktoren noch durch schnellere Maschinen lösen: Die Rechner sind im Unternehmen verteilt, ein guter Teil der Administration besteht darin, einen Rechner im Gebäude überhaupt aufzuspüren. Die so genannte Turnschuhadministration gehört beim Client-Personal noch immer zum Alltag, wenn es um defekte Hardware geht. Nun kristallisiert sich ein neues Konzept heraus, dass sich bei Servern schon recht weit verbreitet hat: Blades. Dabei werden die PCs nicht mehr als graue Kisten neben den Schreibtisch gestellt, sondern als Steckkarten in einem Rack im Rechenzentrum betrieben. Erste Produkte sind bereits verfügbar, unter anderem von Hewlett-Packard. Dessen "BC1000 Blade PC" wird von einem Transmeta-Prozessor mit 1 Gigahertz angetrieben. Seit diesem Jahr ist der HP-Blade-PC in den USA erhältlich. Auch andere Hersteller haben Blades als Desktop-Alternative im Sortiment.

Viel verkauft, wenig verdient

Zumindest was die verkauften Einheiten angeht, müssen sich die PC-Hersteller keine Sorgen machen. Um rund zwölf Prozent ist der PC-Markt in Deutschland im zweiten Quartal 2004 laut Gartner Dataquest gewachsen, 1,76 Millionen Stück wurden ausgeliefert. Dabei zeichnet sich das größte Wachstum bei den Geschäftskunden ab: Während der Endkundenmarkt nur um 3,8 Prozent zulegte, ermittelte Gartner für das Business-to-Business-Segment ein Wachstum von fast 18 Prozent. Grund zum Jubel werden die Hersteller jedoch kaum haben. Umsatz und Margen sinken laut Marktbeobachter weiter. Zudem lagen die Durchschnittspreise fünf Prozent unter dem Vorjahresniveau.

Die weltgrößten PC-Verkäufer waren laut Gartner im zweiten Quartal dieses Jahres Hewlett-Packard mit 16,7 Prozent Marktanteil nach Stückzahlen, Dell mit 11,5 Prozent und Fujitsu-Siemens mit 6,6 Prozent. Das Segment wird den Marktforschern zufolge vor allem von den Neubeschaffungen der Industrie angetrieben.