Vier Milliarden Dollar für vernetzte Server-Farmen

IBM investiert in Grid-Computing

10.08.2001
MÜNCHEN (CW) - Mit milliardenschweren Investitionen baut IBM ein weltweites Netz aus Server-Farmen. Großanwender sollen künftig Verarbeitungskapazität und Speicherplatz wie Strom aus der Steckdose beziehen. Die zugrunde liegende Technologie basiert im Wesentlichen auf Open-Source-Software.

Rechenleistung und Speicherplatz je nach Bedarf über das Internet abrufen - mit dieser nicht ganz neuen Idee versucht IBM, ein Konzept aus der Welt der Supercomputer auch für kommerzielle IT-Umgebungen nutzbar zu machen. Rund vier Milliarden Dollar investiert der Konzern in einem Zeitraum von mindestens fünf Jahren in den Aufbau von 50 Server-Farmen weltweit. Verbunden über das Internet, sollen sie ein gigantisches Hochleistungsnetz (Grid) bilden.

Unbegrenzte IT-RessourcenGrid-Computing, so die Vision von Big Blue, stelle Großanwendern IT-Ressourcen in fast unbegrenzter Menge zur Verfügung; bezahlt werde nur, was der Kunde tatsächlich in Anspruch nimmt. Irving Wladawsky-Berger, einer der Vordenker und Linux-Papst bei IBM, vergleicht das Grid-Konzept mit der Art und Weise, wie Kunden elektrischen Strom von den Energiekonzernen beziehen. Die Leistungen fließen über ein Netz und werden je nach Verbrauch abgerechnet, so der Leiter von Big Blues "Grid Computing Initiative". In Anlehnung an den einst von IBM geprägten Begriff des E-Business nennen die Marketiers diese Art der Ressourcenbereitstellung nun "E-Sourcing".

Mit der Verbindung mächtiger Server-Farmen über das Web lassen sich virtuelle Organisationen einrichten, die sich Anwendungen, Verarbeitungsleistung und Daten teilen, um plattformübergreifend an rechenintensiven Aufgaben zu arbeiten. Dabei entstehen im Idealfall Kostenvorteile, weil Anwender die dazu benötigte IT-Infrastruktur nicht selbst vorhalten müssen.

Agenten suchen RechenleistungBei IBM Deutschland rechnet man mit ersten Dienstleistungen dieser Art innerhalb der nächsten zwölf Monate. Zunächst sei denkbar, Unternehmen beim Aufbau einer eigenen Grid-Infrastruktur zu helfen, erklärte ein Sprecher. Der Kunde würde eine Art Hochleistungs-Intranet einrichten, das alle verfügbaren IT-Ressourcen inhouse nutzt. Im zweiten Schritt könnte IBM eigene Rechenkapazitäten feilbieten und dabei auf schon bestehende ASP-Rechenzentren wie das in Ehningen zurückgreifen. Noch weiter in der Zukunft liegen Softwareagenten, die, ähnlich wie im Strommarkt, selbständig das Web nach freien Computing-Ressourcen durchsuchen und den günstigsten Preis ermitteln.

Die technische Grundlage des Grid-Konzepts liefert das Open-Source-Projekt "Globus" (www.globus.org). Neben den erforderlichen Netzprotokollen stellt das daraus hervorgegangene "Globus Toolkit" eine Reihe von Kernanwendungen für den Betrieb von Grids zur Verfügung, darunter Software für Ressourcen-Management, Sicherheit, Datenverwaltung und Fehlerentdeckung. Globus wird unter anderem unterstützt von der University of Southern California, den US-Ministerien für Verteidigung und Energie und der Weltraumbehörde Nasa.

Der Grid-Ansatz ähnelt dem Konzept des Distributed Computing, auf dem etwa das Projekt Seti@home der Universität Berkeley aufsetzt. Dabei nutzen Anwender nach dem Prinzip des Peer-to-Peer-Computing überschüssige Rechenleistung auf allen angeschlossenen PCs. Ein zentraler Server zerteilt komplexe Aufgaben in kleine Datenpakete, schickt diese zur Berechnung an mehrere Computer und setzt die berechneten Daten zu einem Endergebnis zusammen.

Im Grid-Netz dagegen lassen sich theoretisch alle verbundenen Server zu einer mächtigen virtuellen Maschine verbinden. Dabei laufen auch anspruchsvolle Anwendungen im Netz, entsprechend höher sind die Anforderungen an Bandbreite und Sicherheitsmechanismen. Zudem handelt es sich bei den angeschlossenen Rechnerknoten derzeit meist nicht um handelsübliche Server oder PCs, sondern um Supercomputer, wie sie vorrangig zu Forschungszwecken eingesetzt werden.

Geht es nach dem Willen von IBM, so bilden die eigenen "E-Server" die Knotenpunkte künftiger Grids. Big Blue steuert zudem Technologien aus seinem "Eliza"-Projekt bei, das Rechner in die Lage versetzen soll, sich weitgehend selbständig zu steuern und Probleme zu beheben. Alle Rechnerplattformen vom S/390- und Z-Series-Großrechner über die I-Series (einst AS/400) bis zu den Intel-basierten PC-Servern sollen künftig Globus-Software unterstützen.

Mit Linux verfolgt IBM schon seit längerem die Strategie, eine durchgängige Betriebssystem-Plattform für seine unterschiedlichen Hardwarearchitekturen bereitzustellen. Neben der Hardware will Big Blue aber auch Schlüsselanwendungen wie die Datenbank DB2 und seine Middleware-Produkte für den Einsatz in Grid-Netzen vorbereiten.

Erste Erfolge kann der Konzern in Großbritannien und den Niederlanden vorweisen. Im Auftrag der britischen Regierung baut IBM eine Server-Farm an der Universität von Oxford, die neben der Verarbeitungskapazität rund 10 Terabyte Speicherplatz bieten soll. Der Vertrag mit einer Laufzeit von drei Jahren hat einen Wert von 180 Millionen Dollar. Die Datenspeicher fungieren als Pool für große Informationsmengen, die das Labor für Teilchenphysik in Chicago liefert. Oxford wird vernetzt mit neun weiteren Rechenzentren in Cambridge, London, Manchester, Newcastle, Southampton, Edinburg, Glasgow, Cardiff und Belfast. Im so entstandenen "National Grid" sollen auch Experimente des Schweizer Kernforschungszentrums Cern verarbeitet werden. Die Wissenschaftler können künftig von jedem Zugangspunkt des Grids auf die Netzressourcen zugreifen und gemeinsam an Projekten arbeiten.

In den Niederlanden hat IBM von der dortigen Regierung ein ähnliches Projekt zur Vernetzung von fünf Forschungsrechenzentren an Land gezogen. Der konzerneigene Forschungsarm IBM Research installierte bereits ein eigenes Grid. Es verbindet Forschungs- und Entwicklungslabors in den USA, Israel, der Schweiz und Japan.

Ob die Visionen der IBM-Strategen ausreichen, das Konzept auch kommerziell zum Erfolg zu führen, ist offen. Zwar hat der Konzern mit der US-Firma Entropia bereits einen Interessenten gefunden, der Kapazitäten aus einem Grid-Verbund an Unternehmen verkaufen möchte. Experten weisen jedoch darauf hin, dass Grid-Computing zunächst auf die Bedürfnisse des Supercomputing-Marktes ausgerichtet ist, wo es um die Lösung großer und komplexer Rechenprobleme geht. Für die in den meisten Unternehmen vorherrschenden Anforderungen der Transaktionsverarbeitung sei die Technik derzeit weniger relevant. Neben IBM arbeiten auch andere Anbieter an Grid-Technologien. So hat etwa Sun Microsystems eine Open-Source-Initiative für seine Grid Engine, ein System zur Verwaltung verteilter Rechenressourcen, ins Leben gerufen.