Wie IBM den Computer der Zukunft sieht

23.07.2008
Quantenphysik in Computern kann die Labore noch lange nicht verlassen. Ein Blick hinter die Kulissen der IBM-Forschung verrät, welche Entwicklungen die Zeit bis zu dieser Technikrevolution überbrücken werden.

Bislang schien es, als könne es ewig so weitergehen: Die Strukturen auf den Chips schrumpfen mehr und mehr, außerdem werden sie immer leistungsfähiger. Jetzt droht aber das Ende von Moore‚Äôs Law, und es stellt sich die Frage: Wie werden in fünf bis zehn Jahren die Basiselemente von Computern aussehen, wie werden die Systeme aufgebaut sein? Mit Ansätzen wie 3D-Chip-Design oder 3D-Chip-Assembly versucht die Branche, neue Wege zu beschreiten. Dabei werden beispielsweise Cache-Chips und Compute-Chips wie Sandwiches gestapelt. Das reduziert die Verzögerung zwischen beiden Komponenten und vereinfacht deren Kommunikation.

Daneben gibt es aber auch Konzepte wie Nanotubes und Quantencomputer, die seit einiger Zeit das Stadium theoretisch-akademischer Vorträge verlassen und beispielsweise im IBM-Forschungszentrum Rüschlikon vorangetrieben werden. Insbesondere die Quantenphysik ist eine mögliche, aber bisher nicht ausreichend beherrschbare und damit nutzbare Technologie. Daran wird sich auch in den nächsten Jahren nichts Wesentliches ändern, meinen Ralf Winkelmann und Nicolas Mäding von IBM Deutschland Research & Development. Hinzu kommen wirtschaftliche Hemmnisse. So hat man sich auch in der Forschung die Frage zu stellen, ob die Arbeit an der nächsten Technologie, deren Entwicklungsumgebung und nicht zuletzt auch der Bau und Unterhalt von entsprechenden Fertigungsfabriken jemals wirtschaftlich zu vertreten ist. Heute zeigt sich zum Beispiel, dass der Umstieg von den aktuellen 45 Nanometer kleinen Strukturen eines CMOS-Chips auf 13 oder 10 Nanometer extrem teuer sein wird.

CMOS-Weiterentwicklung

Solange Systeme auf Basis von Quantenphysik für den Massenmarkt noch Zukunftsmusik sind, wird die CMOS-Weiterentwicklung auf Basis heutiger Techniken erfolgen. Einen wachsenden Aspekt dieser Arbeit nimmt inzwischen der Stromverbrauch eines Chips ein. Gesucht sind Verfahren zur Reduzierung der Leakage, also des Stromverbrauchs im "Leerlauf", noch bevor Power-Management und Betriebssystem aktiv werden und den Verbrauch im aktiven Betrieb begrenzen. Sicher ist, dass die Regulierung des Verbrauchs in Zukunft feingranularer sein wird als bisher, das heißt auf einzelnen Verarbeitungseinheiten basieren wird. Da genügend Transistoren auf einem Chip verfügbar sind, wird es möglich sein, mehrere solcher Verarbeitungseinheiten, die für bestimmte Aufgaben optimiert sind, nebeneinander auf einem Chip zu implementieren. Den IBM-Experten zufolge werden Chips also künftig aus einem Pool von problemoptimierten Verarbeitungseinheiten bestehen statt aus einer Ansammlung identischer Cores, die als Allround-Könner arbeiten. Die Auswahl erfolgt per Software, so dass es möglich ist, bestimmte Komponenten auf einem Chip nur dann zu aktivieren, also mit Strom zu versorgen, wenn eine Anwendung sie benötigt, um etwa Performance-Kriterien zu erfüllen.

Homogen versus heterogen

Der Markt ist heute noch im Wesentlichen von so genannten General-Purpose-Prozessoren bestimmt. Werden viele von ihnen zu homogenen Systemen gekoppelt, erfüllen sie zwar die Anforderungen an eine steigende Rechenleistung und stellen mittelfristig eine Technikalternative dar, weil sie sich im Hinblick auf das Verhältnis Leistung pro Watt relativ einfach bauen lassen. Eine optimale Lösung für die Zukunft sind solche homogenen Systeme aus IBM-Sicht jedoch nicht. Hier greifen eher hybride Systeme, deren erste Vertreter bereits in Spielekonsolen, Blade-Servern und Supercomputern zu finden sind. Eine solche, für bestimmte Aufgaben optimierte Verarbeitungseinheit unterscheidet sich von ASICs dadurch, dass es nicht darum geht, die für eine oder wenige Aufgaben mindestens notwendigen und entsprechend optimierten Komponenten auf einem Chip zu vereinen. Vielmehr sollte immer deren allgemeine Nutzbarkeit für verschiedene Aufgaben sichergestellt sein, jedoch mit signifikanten Effizienzvorteilen für spezielle Anforderungen. Die Umstellung der bereits existierenden kommerziellen Software wird den IBM-Experten zufolge jedoch eine gewaltige Herausforderung dieser neuen Architekturen sein.

Hybrid-Computing

Das wird den Weg in eine Computerzukunft mit hybriden Systemen zwar erschweren, aber nicht verhindern. Computer sind und waren schon immer zu langsam, weshalb die Prozessorhersteller vor wenigen Jahren begonnen haben, mehr parallel nutzbare Recheneinheiten auf die Chips zu integrieren, um die Grafik und rechenintensive Anwendungen besser zu unterstützen. Ein Beispiel für die neue Generation von Chips ist der Cell/B.E.-Prozessor von IBM, Sony und Toshiba für die Playstation 3. Dieser Prozessor besteht aus verschiedenen Arten von Rechenkernen und führt hybride Konzepte auf Chipebene ein. So kommen der Cell/B.E. und sein IBM-Derivat "PowerXCell8i" beispielsweise neben der Spielekonsole auch im weltweit ersten Petaflops-Supercomputer im Los-Alamos-Forschungszentrum zum Einsatz.

Hier sieht man, wie Computersysteme der Zukunft aussehen: Wo die geforderte Leistung mit herkömmlichen Methoden nicht mehr erreicht wird, setzt man verschiedene Komponenten zu einem hybriden System zusammen. So läuft der Petaflops-Rechner beispielsweise auf AMD-Komponenten und IBM-Cell-Prozessoren unter Linux - eine Kombination, die noch vor wenigen Jahren unmöglich gewesen wäre. Während die Cell-Prozessoren die Rechenleistung erbringen, sorgen die AMD-Systeme für den Datenaustausch. Hybrid-Computing bedeutet also, dass eins plus eins auf einmal mehr als zwei ergibt. Diese Effizienz ist gleichzeitig auch der Schlüssel für geringeren Energieverbrauch bei höherer Systemleistung.

Gleichzeitig gewinnt die Kombination aus Mainframes und rechenstarken Cell-Prozessoren immer mehr Anhänger: Geschäftskritische Daten und Prozesse sind oft auf Mainframes untergebracht, doch auch dort fallen inzwischen Aufgaben an, für die es fast eines wissenschaftlichen Hochleistungsrechners bedarf: Versicherungen und Kreditkartenfirmen etwa wollen Betrugsfälle durch statistische Methoden in Echtzeit erkennen, und Banken wollen das Risiko von Transaktionen schneller abschätzen können.

Ein Problem ist allerdings, dass für viele hybride Architekturen die Programmierung noch nicht klar ist. Verschiedene Ansätze werden zurzeit vorangetrieben und auch in der akademischen Welt erforscht. Beispiele zur Programmierung in hybriden Komplexen sind IBMs "Dynamic Application Virtualization", das "Accelerator Library Framework" (ALF) mit der "Data Communication and Synchronization Library" (DaCS) von IBM sowie die "Compute Unified Device Architecture" von Nvidia. Darüber hinaus gibt es eine ganze Reihe von Projekten im universitären und industriellen Umfeld, die verschiedene Aspekte der hybriden Programmierung abdecken. Es ist damit zu rechnen, dass sich aus der aktuellen Vielfalt an Programmiermodellen in den nächsten Jahren die wichtigsten herauskristallisieren werden. Dann dauert es noch eine gewisse Zeit, bis diese Modelle industrieweit eingesetzt werden.

Eine weitere Hürde ist das System-Management, das in heterogenen Verbünden vor einer großen Herausforderung steht. Utz Bacher, Experte für Linux auf hybriden Systemen am Forschungs- und Entwicklungszentrum der IBM in Böblingen: "Einfach zwei Rechner mit einem Netzkabel zu verbinden reicht heute längst nicht mehr aus. Die Komponenten müssen integriert werden und einheitlich zu verwalten sein." In einigen Jahren sei damit zu rechnen, dass einige Systemarchitekturen die Probleme der Integration und des Managements gelöst haben. Dann werden sich diese hybriden Systeme durchsetzen und die Vorteile gegenüber den einfach nur größer werdenden, traditionellen Systemen voll ausspielen können.

Cloud Computing

Einen dritten Trend für IT-Infrastrukturen sehen die IBM-Forscher im Cloud Computing. Das Konzept ist nicht wirklich neu, viele Geschäftsmodelle und Technologien aus der Vergangenheit werden hier nur konsequent weitergedacht und entwickelt. Auch wenn die heutigen Angebote rund um Cloud eher auf Endbenutzer ausgerichtet sind, werden sich Rechenzentren in Unternehmen diesem Trend auf Dauer nicht verschließen können. Werner Ederer, Leiter der Entwicklung für Service-Management-Lösungen im deutschen IBM-Forschungs- und Entwicklungszentrum in Böblingen, warnt daher vor einer Krise der klassischen Rechenzentren: "Wenn etablierte Rechenzentren in den nächsten fünf Jahren nicht aufpassen und zu professionellen Anbietern von effizienten und flexiblen Dienstleistungen werden, sind sie dem Konkurrenzdruck durch externe Anbieter aus der Cloud nicht gewachsen."

Basistechniken verfügbar

Viele der notwendigen Basistechniken für Cloud Computing wie Virtualisierung und Automation sind heute bereits verfügbar. Sie können aber in den immer noch relativ statischen Infrastrukturen häufig nicht optimal eingesetzt werden. Daher liegt der Schwerpunkt in den Entwicklungszentren der IT-Branche zum einen auf Virtualisierung mit höherem Wirkungsgrad: Wo bisher nur einzelne Rechner mit Virtualisierungstechnik ausgestattet waren, sollen in Zukunft ganze Systemlandschaften zu einer logischen Einheit zusammengefasst werden können. Dazu arbeitet man an Verfahren, mit denen sich Anwendungen komplett von den physikalischen Systemen abstrahieren lassen und somit nicht mehr von einem einzelnen System abhängen.

Zum anderen sind Automatisierungstechniken in der Entwicklung, die das effiziente Managen von entsprechenden IT-Services und deren zugrunde liegender Infrastruktur ermöglichen sollen - und das bei Gewährleistung der notwendigen Flexibilität und unter Einhaltung der verlangten Qualitätsmerkmale. Solche modernen Automationsmechanismen setzen heute bei Prozessabläufen an, automatisieren also im Wesentlichen die Abläufe, die traditionell nur dokumentiert sind, dann aber doch manuell ausgeführt werden. Diese Abläufe werden nun formal moduliert und dann Schritt für Schritt von diesen Techniken ausgeführt. Die mühsamen und fehleranfälligen manuellen Einzelschritte nach der Beschreibung entfallen.

Automationslösungen gefragt

Das ist laut IBM der Schlüssel, um bei verbesserten Qualitäts- und Kostenmerkmalen die gewünschte Geschwindigkeit und Flexibilität zu erreichen. IBM-Manager Ederer warnt: "Die dynamischen Service-Provider-Plattformen der Zukunft lassen sich ohne ausgefeilte Automationslösungen nicht mehr effizient verwalten. Erfolgreiche Service-Provider und damit auch Rechenzentren der Zukunft müssen in der Lage sein, in kürzester Zeit komplexe Infrastrukturen zu generieren - und das ohne langwierige manuelle Eingriffe und Anpassungen. Auch die tägliche Arbeit an laufenden Systemen wie dynamische Anpassungen oder Fehlerkorrekturen werden zukünftig weitgehend automatisiert ablaufen."

Die Fakten

  • Der Umstieg bei CMOS-Chips von aktuell 45 Nanometer kleinen Strukturen auf 13 oder 10 Nanometer wird extrem teuer.

  • Die Kopplung von General-Purpose-Prozessoren zu immer größeren homogenen Systemen erfüllt zwar steigende Leistungsanforderungen, ist aber keine Lösung für die Zukunft.

  • Chips werden künftig aus einem Pool von problemorientierten Verarbeitungseinheiten bestehen statt aus einer Ansammlung identischer Cores, die als Alleskönner arbeiten. Das ermöglicht auch neue Konzepte zur Regulierung des Stromverbrauchs.

  • Neben der Integration parallel nutzbarer, aufgabenoptimierter Recheneinheiten auf einem Chip bedeutet Hybrid-Computing auch die Kopplung verschiedener Komponenten zu effizienteren Systemen.

  • Die Programmierung für hybride Architekturen ist noch nicht klar, die Umstellung existierender kommerzieller Software wird zu einer gewaltigen Herausforderung.

  • Auch das System-Management von hybriden Systemen steckt noch in den Kinderschuhen.