Quantencomputer

Wie IBM den Computer der Zukunft sieht

13.08.2008
Von Stefan Ueberhorst

Cloud-Computing für Rechenzentren

Einen dritten Trend für IT-Infrastrukturen sehen die IBM-Forscher im Cloud-Computing. Das Konzept ist nicht wirklich neu, viele Geschäftsmodelle und Technologien aus der Vergangenheit werden hier nur konsequent weitergedacht und entwickelt. Auch wenn die heutigen Angebote rund um Cloud eher auf Endbenutzer ausgerichtet sind, werden sich Rechenzentren in Unternehmen diesem Trend auf Dauer nicht verschließen können. Werner Ederer, Leiter der Entwicklung für Service-Management-Lösungen im deutschen IBM-Forschungs- und Entwicklungszentrum in Böblingen, warnt daher vor einer Krise der klassischen Rechenzentren: "Wenn etablierte Rechenzentren in den nächsten fünf Jahren nicht aufpassen und zu professionellen Anbietern von effizienten und flexiblen Dienstleistungen werden, sind sie dem Konkurrenzdruck durch externe Anbieter aus der Cloud nicht gewachsen."

Viele der notwendigen Basistechniken für Cloud-Computing wie Virtualisierung und Automation sind heute bereits verfügbar. Sie können aber in den immer noch relativ statischen Infrastrukturen häufig nicht optimal eingesetzt werden. Daher liegt der Schwerpunkt in den Entwicklungszentren der IT-Branche zum einen auf Virtualisierung mit höherem Wirkungsgrad: Wo bisher nur einzelne Rechner mit Virtualisierungstechnik ausgestattet waren, sollen in Zukunft ganze Systemlandschaften zu einer logischen Einheit zusammengefasst werden können. Dazu arbeitet man an Verfahren, mit denen sich Anwendungen komplett von den physikalischen Systemen abstrahieren lassen und somit nicht mehr von einem einzelnen System abhängen.

Zum anderen sind Automatisierungstechniken in der Entwicklung, die das effiziente Managen von entsprechenden IT-Services und deren zugrunde liegender Infrastruktur ermöglichen sollen - und das bei Gewährleistung der notwendigen Flexibilität und unter Einhaltung der verlangten Qualitätsmerkmale. Solche modernen Automationsmechanismen setzen heute bei Prozessabläufen an, automatisieren also im Wesentlichen die Abläufe, die traditionell nur dokumentiert sind, dann aber doch manuell ausgeführt werden. Diese Abläufe werden nun formal moduliert und dann Schritt für Schritt von diesen Techniken ausgeführt. Die mühsamen und fehleranfälligen manuellen Einzelschritte nach der Beschreibung entfallen.

Das ist laut IBM der Schlüssel, um bei verbesserten Qualitäts- und Kostenmerkmalen die gewünschte Geschwindigkeit und Flexibilität zu erreichen. IBM-Manager Ederer warnt: "Die dynamischen Service-Provider-Plattformen der Zukunft lassen sich ohne ausgefeilte Automationslösungen nicht mehr effizient verwalten. Erfolgreiche Service-Provider und damit auch Rechenzentren der Zukunft müssen in der Lage sein, in kürzester Zeit komplexe Infrastrukturen zu generieren - und das ohne langwierige manuelle Eingriffe und Anpassungen. Auch die tägliche Arbeit an laufenden Systemen wie dynamische Anpassungen oder Fehlerkorrekturen werden zukünftig weitgehend automatisiert ablaufen."

Es wird laut Ederer interessant sein zu beobachten, inwieweit sich die Unternehmen in den nächsten fünf Jahren an die neuen Gegebenheiten anpassen. Ob es einen Trend hin zu Cloud-Computing und der Verwaltung von geschäftskritischen Daten und Anwendungen "in the Cloud" zu sehen gibt, bleibt abzuwarten. Anreize, flexible und effizente IT-Services in existierenden Rechenzentren aufzubauen, bestehen reichlich.

Die Fakten

  • Der Umstieg bei CMOS-Chips von aktuell 45 Nanometer kleinen Strukturen auf 13 oder 10 Nanometer wird extrem teuer.

  • Die Kopplung von General-Purpose-Prozessoren zu immer größeren homogenen Systemen erfüllen zwar steigende Leistungsanforderungen, sind aber keine Lösung für die Zukunft.

  • Chips werden künftig aus einem Pool von problemorientierten Verarbeitungseinheiten bestehen statt aus einer Ansammlung identischer Cores, die als Alleskönner arbeiten. Das ermöglicht auch neue Konzepte zur Regulierung des Stromverbrauchs.

  • Neben der Integration parallel nutzbarer, aufgabenoptimierter Recheneinheiten auf einem Chip bedeutet Hybrid-Computing auch die Kopplung verschiedener Komponenten zu effizienteren Systemen.

  • Die Programmierung für hybride Architekturen ist noch nicht klar, die Umstellung existierender kommerzieller Software wird zu einer gewaltigen Herausforderung.

  • Auch das System-Management von hybriden Systemen steckt noch in den Kinderschuhen.