Grid Computing - mehr als eine Vision

02.03.2005 von Herrmann Gfaller
Das Versprechen von Grid: Anwender sollen Computerressourcen so einfach beziehen können wie Strom aus der Steckdose. Anspruch und Wirklichkeit klaffen jedoch noch weit auseinander.

Hier lesen Sie ...

  • wie unterschiedlich Hersteller den Begriff Grid besetzen und welche Absichten sie damit verfolgen;

  • welche Hindernisse Anwendern bei der Nutzung von Grids im Wege stehen;

  • welche Rolle die großen Grid-Organisationen spielen.

Oracles Definition eines unternehmensweiten Grid sieht Virtualisierung auf allen Ebenen der IT-Architektur vor. Quelle: Oracle

Schon an der Ausgangssituation für Grids scheiden sich die Geister. So betonen Sun, Fujitsu-Siemens Computers (FSC) oder Oracle, wie sich mit Grids die vorhandenen Rechnerressourcen besser nutzen lassen. Die durchschnittliche Auslastung eines Rechenzentrums liegt nach Meinung von Suns Deutschland-Chef Marcel Schneider bei etwa 17 Prozent.

Thomas Rueter, IBMs Marktentwickler für Grid, hält einen solchen Wert für völlig falsch und sieht darin nahezu eine Beleidigung für die Rechenzentrums-Leiter, die ihre Systeme weit besser auslasten würden. Hintergrund dieser positiveren Einschätzung: IBM denkt bei Grid vor allem an das hauseigene Dienstleistungskonzept. Nach dieser Logik verlangen die Kunden erst nach zusätzlichen Ressourcen aus der Steckdose, wenn die eigenen Möglichkeiten erschöpft sind. Big Blue liefert sie dann gerne im Rahmen seines On-Demand-Angebots, hilft den Unternehmen aber auch, interne Grids einzurichten.

Die Konzepte der Hersteller

IBM kann eine Reihe von Kunden nennen, die vor allem für aufwändige Simulationen ein Grid verwenden. Bei diesen Anwendern handelt es sich meist um große Unternehmen aus der Luftfahrt, der Automobilindustrie, der Biotechnologie oder aber um Finanzdienstleister (http://www.ibm.com/grid/success/). Dabei kommen mehrere Abstufungen vom reinen Kundenprojekt bis zum Bezug von Berechnungsergebnissen vor. Der häufig vorgebrachte Vorwurf, Big Blue spanne für Grid-Projekte vor allem Partner ein und verfüge selbst nicht über die benötigte Technologie, lässt sich nach einer Kurzstudie von Bloor Research vom vergangenen Jahr nicht mehr aufrechterhalten.

Selbst Sun-Chef Schneider räumt inzwischen ein, dass Big Blue reichlich über Grid-Werkzeuge und Infrastruktur dafür verfügt. Sein Unternehmen gehe aber einen anderen Weg. Während Big Blue aufwändige Individuallösungen bevorzuge, denke man bei Sun an einfache, standardisierte Dienste - an Rechenleistung und Speicherplatz wie aus der Steckdose. Auch die Preisstruktur soll möglichst einfach sein.

Grid-Definition

Nach der Definition der Grid-Pioniere Ian Foster und Carl Kesselman geht es bei Grid um das flexible, sichere und koordinierte Teilen von Ressourcen zwischen sich verändernden Ansammlungen von Menschen, Institutionen und Ressourcen. Foster und Kesselman sprechen von virtuellen Organisationen, weil sich die Zusammensetzung jeder Gruppe ständig ändern kann, ohne dass dies an anderer Stelle sichtbar wird. Von den beiden Grid-Spezialisten stammt auch der Vergleich mit dem Strom aus der Steckdose.

Sun möchte solche Dienste nicht selbst erbringen. Ziel ist es, IT-Dienstleister so auszustatten, dass sie Rechenleistung und Speicher bedarfsgerecht vermarkten können. Vor diesem Hintergrund nimmt Grid gegenüber der unter dem Kürzel N1 betriebenen Rechenzentrums-Automation nur eine dienende Rolle ein. So hilft die hauseigene Grid-Engine neben anderen Techniken des Utility-Computings, Ressourcen so zu virtualisieren, dass sich Speicher und Rechenleistung wie aus einem großen Pool schöpfen lassen.

HPs Grid-Zukunft ist unklar

In der vordersten Linie der Grid-Anbieter stand bislang auch Hewlett-Packard. Das Unternehmen leitet unter anderem ein großes Projekt in Italien (Southern Partnership for Advanced Computational Infrastructures = SPACI), bei dem drei räumlich getrennte Linux-Cluster auf Integrity-Servern zu einem Grid zusammengefasst werden. Die Leistung soll bis zu 1837 Gigaflops erreichen. Die Grid-Betreiber wollen damit nicht nur eigene Forschungen (Medizin, Biotechnologie) vorantreiben, sondern auch Rechenleistung extern anbieten.

Wie bei Sun ist das HP-Grid jedoch eng mit der Rechenzentrums-Automatisierung, hier Utility Data Center (UDC), verwoben, das allerdings in Konkurrenz zur IBM als Dienstleistung (optimalerweise Outsourcing) angeboten wurde. Nachdem HP jedoch Ende des vergangenen Jahres UDC ausmusterte, ist die Grid-Zukunft hier ungewiss. Momentan propagiert HP eher das so genannte Storage-Grid, bei dem der Hersteller mit Speicherspezialisten wie Network Appliances konkurriert.

Fujitsu-Siemens konzentriert sich anders als die Wettbewerber beim Grid Computing ganz auf das Rechenzentrum des Kunden. In enger Partnerschaft mit Datenbankanbieter Oracle und ERP-Markführer SAP hat das Unternehmen ein Konzept ausgearbeitet, das im Kern die Ablösung der herkömmlichen Anwendungssilos durch Ressourcen-Pools vorsieht.

Wurden bislang jeder SAP-Teilanwendung eigene Server und Speichersysteme fest zugeordnet, so sollen diese Ressourcen künftig allen SAP-Anwendungen zur Verfügung stehen und der Workload je nach Bedarf verteilt werden. In diesem Geschäftsmodell geht es also vor allem um die optimale Nutzung der im RZ vorhandenen Kapazitäten.

Umstrittene Grid-Allianz EGA

Dieses Ziel verfolgt Oracle gemeinsam mit SAP und FSC im Rahmen der Enterprise Grid Alliance (EGA) - und wird dabei misstrauisch beäugt. Vor allem die so genannte Globus-Allianz, zu der sich Oracle ausdrücklich bekennt, ist mit dem Treiben des Herstellers und seiner Partner nicht uneingeschränkt einverstanden. Die Organisation bemüht sich im Rahmen eines Open-Source-Prozesses um die herstellerunabhängige Entwicklung von Grid-Basistechnologien und kommt mit Oracles Gewohnheit, Technik und Marketing zu vermischen, nicht immer zurecht.

Beispielsweise gab es die Funktionen für Workload-Management und Cluster-Unterstützung, die heute als zentrale Grid-Funktionen des 10g-Application-Servers angepriesen werden, bereits als diese Software noch die Versionsbezeichnung 9i trug. Wenn zudem im Mittelpunkt der Grid-Konzepte schon länger bekannte Techniken stehen wie Server- und Speichervirtualisierung, Cluster-Bildung, Workload-Management und flexible Provisioning-Techniken, dann liegt trotz durchaus vorhandener Grid-Management-Software der Verdacht des Etikettenschwindels nahe.

Die Einbindung von Softwarefirmen in Grid-Konzepte ist aber unerlässlich - schon deshalb, weil Anwendungen in aller Regel nicht von Haus aus Grid-fähig sind. So müssen sie in die Lage versetzt werden, mit virtualisierten Umgebungen zu kommunizieren. Sofern es nicht nur um Lastverteilung, sondern auch um die Erhöhung der Rechenleistung durch die Verteilung einer Aufgabe auf möglichst viele Prozessoren geht, muss geklärt werden, ob und an welchen Stellen eine Anwendung sich parallelisieren lässt. Hier gilt die Regel: Je weniger ein Programm intern kommuniziert, desto einfacher ist es aufteilbar. Schlecht geeignet sind Anwendungen, bei denen sich Rechenergebnisse gegenseitig beeinflussen. Die Parallelisierung einer Anwendung für Grid kann durchaus ein aufwändiges Projekt darstellen.

Ein weiteres Hindernis für Grids ist die Lizenzierung nach Arbeitsplätzen oder CPUs. Sie verhindert, dass System- und Anwendungssoftware im Grid nach Bedarf verschoben oder auch zusätzlich installiert werden kann. In vielen Fällen lassen sich diese Probleme in Verhandlungen mit dem Anbieter lösen.

Geht es um Microsoft-Produkte, stellen der flexible Workload und die Parallelisierung allerdings noch ein ungelöstes Problem dar. Nicht nur dass die Betriebssysteme sich ihre Hardware bei der Erstinstallation merken, auch die Dateisysteme geben einen einmal besetzten Speicherplatz nicht ohne Widerstand frei. Das hat dazu geführt, dass Microsoft in Grid-Umgebungen bislang kaum eine Rolle spielt - außer, wenn die Grid-Prozesse getrennt vom Rest der Rechnerumgebung laufen.

Microsoft oft außen vor

Zu den umfangreichsten Grids mit Windows XP gehört das weltweite Projekt des Pharmakonzerns Novartis: Dort wurden zur Berechnung von chemischen Reaktionen zwischen Proteinen von Basel bis Cambridge, Massachusetts, 2700 PCs zusammengeschaltet. Dabei ist der Grid-Prozess komplett von der PC-Umgebung abgeschottet. Die auf den Knoten installierte Komponente arbeitet nur, wenn der PC-Nutzer untätig ist. Die Ähnlichkeit mit dem seti@home-Projekt, bei dem ein Bildschirmschoner astronomische Daten für die Suche nach Außerirdischen berechnet, ist nicht zufällig. In beiden Fällen kommt die Grid-Software von United Devices zum Einsatz.

Doch das Konzept hat Schwächen. Es funktioniert bloß deshalb reibungslos, weil Novartis identische Rechner und nur ein Software-Image verwendet. Auch für den gerade laufenden Ausbau auf 65.000 PCs kommen nur baugleiche Rechner von HP zum Einsatz, die alle mit exakt derselben Software ausgestattet sind. Eine derart homogene IT-Landschaft dürfte in den wenigsten Unternehmen dauerhaft herstellbar sein. (hv)