Web

Grid Computing - mehr Vision als Realität

25.01.2002
Rechenleistung und Software nutzen wie Strom aus der Steckdose - das verspricht die IT-Industrie mit Grid Computing. Doch es wird noch Jahre dauern, bis diese Vision Wirklichkeit wird.

Rechenleistung und Software nutzen wie Strom aus der Steckdose - das verspricht die IT-Industrie mit Grid Computing. Doch es wird noch Jahre dauern, bis diese Vision in der kommerziellen Datenverarbeitung Wirklichkeit wird. Fehlende Standards, Sicherheitsprobleme und die aufwändige Implementierung relativieren das Bild von der schönen neuen IT-Welt.

Vielleicht war es Zufall, dass die ersten Ankündigungen zum Thema Grid Computing in das Sommerloch 2001 fielen, die traditionell nachrichtenärmste Zeit des Jahres. Rund vier Milliarden Dollar wolle man in den nächsten fünf Jahren in den Aufbau von weltweit verteilten Server-Farmen investieren, teilte IBMs PR-Abteilung mit.

Kein Zufall war die Reaktion der großen Rivalen Sun, Hewlett-Packard (HP) oder Compaq. Sie zogen nach und kündigten ihrerseits "globale Initiativen" für Grids an. Selbst Microsoft lässt sich das Hype-Thema nicht entgehen: Rund eine Million Dollar investiert die Gates-Company, um sicherzustellen, dass das Open-Source-Toolkit "Globus" für Grid-Netze auch unter Windows nutzbar ist. Eigene Technologien wie .NET könnten damit mehr Unterstützung in der sonst eher Unix- und Java-affinen Forschergemeinde finden, so das Kalkül.

Rechenleistung im Abonnement

Grid Computing versetzt Unternehmen in die Lage, IT-Ressourcen wie Rechenleistung oder Speicherkapazität je nach Bedarf über das Internet abzurufen, so lautet die gemeinsame Vision der Protagonisten, ungeachtet einiger unterschiedlicher Begriffe und Definitionen. Irving Wladawsky-Berger, einer der Vordenker und Linux-Papst bei IBM, vergleicht das Grid-Konzept mit der Art und Weise, wie Kunden elektrischen Strom von den Energiekonzernen beziehen. Die Leistungen fließen über ein Netz und werden je nach Verbrauch abgerechnet.

Erste Anwender - die von Herstellern stets bemühten Early Adopters - finden sich in Bereichen, wo komplexe und rechenintensive Aufgaben zu lösen sind. Beispiele sind das US-Verteidigungsministerium, die Weltraumbehörde Nasa, das amerikanische Energieministerium und diverse Organisationen aus dem technisch-wissenschaftlichen Umfeld.

Welche Relevanz das Thema für die kommerzielle Datenverarbeitung und damit für kostengeplagte IT-Manager hat, beantworten Hersteller und Branchenexperten unterschiedlich. Mit der Verbindung mächtiger Server-Farmen über das Web lassen sich virtuelle Organisationen erschaffen, lautet ein Argument. Sie könnten sich Anwendungen, Verarbeitungsleistung und Daten teilen, um plattformübergreifend an rechenintensiven Aufgaben zu arbeiten. Dabei entständen im Idealfall Kostenvorteile, weil Benutzer die dazu benötigte IT-Infrastruktur nicht selbst vorhalten müssten. "Die heute verfügbaren Grids erfordern Investitionen in Server und Softwarelizenzen", sagt etwa Wladawsky-Berger: "Wir stehen aber kurz davor, alle dazu benötigten Elemente je nach Bedarf zu liefern und sie wie ein monatliches Abonnement zur Verfügung zu stellen."

Während IBM meist das Bild eines weltumspannenden Hochleistungsnetzes zeichnet - und so versucht, ein Konzept aus der Welt der Supercomputer für kommerzielle IT-Umgebungen nutzbar zu machen -, hat Sun Microsystems drei Ausprägungen von Grid definiert. Sie würden zum Teil bereits für betriebswirtschaftliche Aufgaben genutzt.

Die erste Stufe bilde ein Netz innerhalb einer Abteilung, das Cluster Grid, erläutert Lothar Lippert von der deutschen Sun-Dependance. Das Campus Grid geht einen Schritt weiter: Mehrere Abteilungen eines Unternehmens schließen sich zusammen, um etwa Spitzenbelastungen besonders leistungshungriger Applikationen abzufangen. In der höchsten Ausbaustufe, dem globalen Grid, verbinden Unternehmen ihre interkontinentalen Zweigstellen über Toolsets wie Globus oder Legion; sie nutzen IT-Ressourcen weltweit. Forschungseinrichtungen wie die Max-Planck-Gesellschaften verfolgen diesen Ansatz schon vereinzelt, erklärt Lippert, der breite Einsatz solcher Mega-Networks liege aber weit in der Zukunft. "Es gibt für dieses Szenario noch kein Out-of-the-Box-Produkt."

Systeme effizienter nutzen

Die Idee, Rechenressourcen auf Abteilungsebene zu koppeln, ist nicht neu. Betrachte man nur die Hardware, gebe es kaum Unterschiede zu herkömmlichen Cluster-Architekturen, räumt der Sun-Techniker ein. Mittels Ressourcen-Management-Software wie der herstellereigenen Grid Engine würden die Systeme aber besser gesteuert und verwaltet. Dadurch ergebe sich eine höhere Auslastung, die Maschinen ließen sich effizienter nutzen. "Die Tools erlauben es dem Benutzer, transparent auf Ressourcen im Cluster- oder Campus-Grid zuzugreifen, ohne zu wissen, wo die Rechner stehen, welche Eigenschaften sie haben oder wem sie gehören."

Neben der Effizienzsteigerung gewönnen IT-Verantwortliche mehr Kontrolle über Projekte mit verteilten Ressourcen. Wichtigen Vorhaben lasse sich über Grid-Tools eine höhere Priorität einräumen. So werde sichergestellt, dass ressourcenintensive Aufgaben pünktlich erledigt werden.

Zentrale Überwachung

An diesem Punkt sieht der Grid-Protagonist auch einen Unterschied zu Peer-to-Peer-Konzepten, die ebenfalls verteilte Systeme nutzen. "Peer-to-Peer funktioniert nach dem Gießkannenprinzip: Ausschütten und hoffen, dass etwas wächst." Solche Ansätze erlaubten keine Kontrolle über einzelne Berechnungen und deren Auftraggeber. Im Grid hingegen sitze eine zentrale Überwachungsinstanz, die jederzeit nachvollziehen könne, welcher Teilnehmer an welchem Ort welche Aufgaben berechnen lässt oder wer welche Leistungen in Anspruch nimmt. Über Accounting-Funktionen seien solche und weitere Daten - etwa zur Performance oder Auslastung einzelner Maschinen - auch im Nachhinein abrufbar.

Vorteile bringen Grids überall dort, wo Speicher- oder rechenintensive Jobs in einem Batch-ähnlichen Modus abgearbeitet werden können, meinen die Marktstrategen. Das Konzept funktioniere aber auch mit anspruchsvollen interaktiven Anwendungen.

"Projekte werden damit schneller fertig", rührt Lippert die Werbetrommel. Ein Praxisbeispiel sei das Rendering von Filmsequenzen in der Filmbranche. Banken und Versicherungen in Deutschland haben bereits erste Grid-Projekte aufgesetzt. Sie nutzen die Technik etwa für komplexe Risikoanalysen. Ein anderes Beispiel liefert die US-amerikanische First Union National Bank. Mit Hilfe einer Software von Datasynapse suchen die Banker nach nicht genutzter Rechenleistung vernetzter PCs, um damit Handelsprozesse zu beschleunigen.

Grids könnten darüber hinaus im Rahmen von Outsourcing-Projekten als Weiterentwicklung des ASP-Modells kommerziell genutzt werden, meint Ulla Thiel, Direktorin für den Bereich Supercomputing bei IBM Deutschland. Analog zum erfolgreich vermarkteten Begriff des E-Business spricht man bei Big Blue von E-Sourcing. Neben den Infrastrukturherstellern kämen dabei klassische IT-Outsourcer wie EDS, CSC oder IBM Global Services als Anbieter in Betracht. Denkbar wäre auch, dass ganz neue Player diesen Markt betreten, entweder mit eigenen IT-Ressourcen oder im Verbund mit anderen Anbietern.

Bisher allerdings spricht vieles dafür, dass solche Szenarien noch in ferner Zukunft liegen. Den zumindest theoretischen Vorteilen stehen eine Reihe von Hürden gegenüber, die IT-Verantwortliche überwinden müssen, wollen sie selbst Grid-Konzepte implementieren. So existiert bisher weder ein allgemein akzeptierter Standard noch eine gemeinsame Architektur, auf die sich die großen Anbieter einigen könnten.

Ungelöste Probleme

"Grid steht noch in den Anfängen", räumt Thiel ein. Zwar habe sich das Globus Toolkit als eine Art Quasi-Standard für die Verbindung verteilter Ressourcen etabliert. Damit aber seien noch längst nicht alle Probleme gelöst. Die Supercomputing-Spezialistin verweist auf die riesigen, meist heterogenen Rechnerumgebungen mit weltweit verteilten Zugängen, die es zu verwalten gelte, ähnlich einem globalen Wide Area Network (WAN). Zudem mangle es an Standard-Basisprotokollen für das Web-Hosting, beispielsweise für die Leistungsabrechnung nach Bedarf ("pay as you go").

Den größten Nachholbedarf sieht sie in einem hochsensiblen Bereich: "Insbesondere beim Thema Sicherheit stehen wir noch am Anfang." Für die Netze müssten IT-Verantwortliche ausgefeilte Monitoring- und Steuerungssysteme aufbauen. Auch das Accounting sei alles andere als trivial. Thiel: "Es ist ein Unterschied, ob man, wie im Seti-Projekt, nicht geschäftskritische Aufgaben auf Heim-PCs berechnen lässt oder aber Business-Funktionen wie E-Commerce oder Supply-Chain-Management über das Grid verteilt abwickelt."

Die Idee, Rechenleistung wie Strom aus der Steckdose zu beziehen, ist für Thiel denn auch noch Zukunftsmusik. "Bis alle Sicherheitsstandards erfüllt sind, die Infrastruktur geschaffen und auch der politische Wille da ist, ist sicher ein Zeitraum von fünf bis zehn Jahren anzusetzen." Auch die Analysten von Gartner rechnen mit solchen Spannen. Bis zum Jahr 2006 würden lediglich fünf Prozent der kommerziellen Organisationen, die heute Supercomputing-Systeme einsetzen, auf billigere Grid-Konzepte umsteigen.

Umso erstaunlicher erscheint es, dass etwa HP schon im ersten Quartal 2002 mit einer Grid-Infrastruktur auf den Markt kommen will. Mit "Utility Data Center" (UDC) haben die Kalifornier auch schon einen griffigen Namen parat. Damit verbundene Utility- Services - sprich IT-Ressourcen auf Knopfdruck für jedermann - werden für die meisten Anwender frühestens in drei bis fünf Jahren verfügbar sein, kommentiert die Meta Group. Bis dahin würden Betatester entscheiden, ob das eine Million Dollar teure "Starter Kit" mehr biete als eine herkömmliche Kombination aus Hardware, Management-Software und kostspieligem Consulting. (wh)

Standards für Grid-Konzepte fehlen

Allgemein akzeptierte Standards für den Aufbau von Grid-Infrastrukturen gibt es bislang nicht. Etliche IT-Hersteller greifen auf das "Globus Toolkit" zurück, hervorgegangen aus dem Open-Source-Projekt "Globus". Neben den Netzprotokollen stellt die Initiative eine Reihe von Kernanwendungen für den Betrieb von Grids zur Verfügung, darunter Software für Ressourcen-Management, Sicherheit, Datenverwaltung und Fehlerentdeckung. Globus wird unter anderem unterstützt von der University of Southern California, den US-Ministerien für Verteidigung und Energie und der Weltraumbehörde Nasa.

Daneben kommt auch "Legion" als Infrastruktur für Grids in Frage. Das von der University of Virginia entwickelte Meta-Betriebssystem stellt verteilte Ressourcen als einen virtuellen Hochleistungsrechner dar. Die US-Entwickler bezeichnen Legion als objektorientierte Middleware, die Netzwerke, Workstations, Supercomputer und andere Systeme verbinde.