Grid Computing braucht Standards und Sicherheit

07.08.2003 von Kriemhilde Klippstätter
MÜNCHEN (COMPUTERWOCHE) - In Zeiten knapper Budgets achten die Anwender auf eine bessere Auslastung ihrer Ressourcen. Die Hersteller wittern darin neue Absatzmärkte und präsentieren die passenden Techniken. Kommerzielles Grid Computing verheisst beides: Für den Anwender die effizientere Nutzung der vorhanden IT-Umgebung, für die Lieferanten eine neue Einnahmequelle.

Das Rechnen im Verbund entwickelte sich im wissenschaftlichen Bereich, wo sich Forschungseinrichtungen die teuren Ressourcen teilen oder ungenutzte PC-Rechenpower zur Verfügung stellen. Die Idee, auch in Unternehmen die brachliegende Rechenkapazität an verschiedenen Standorten für das Abarbeiten aktueller Aufgaben zu nutzen, entsprang der Notwendigkeit zum Sparen.

Alle Unternehmen sehen sich mit dem Druck zum Haushalten konfrontiert, dürfen dabei aber nicht an Wettbewerbsfähigkeit oder Produktqualität einbüßen. Hinzu kommt, dass die Produktentwicklung immer komplexer wird und oft immense Rechenleistung verschlingt. Neue Produkte werden an verschiedenen Standorten und etwa beim Autobau von mehreren Unternehmen entworfen. Auch dadurch steigt der Vernetzungsbedarf.

Damit kommt die Datenkomponente ins Spiel: Informationen sollen ausgetauscht und integrierbar werden. Zusätzlich zu Rechen-Grids, wo es um die Bündelung der reinen Rechenpower geht, entwickeln sich Daten-Grids mit verteilt gelagerten Informationen. Firmen wie Avaki Corp. aus Burlington, Massachusetts, liefern Programme auf Grid-Basis für den Zugriff und die Integration verteilter Daten. Avakis "Data Grid", dessen Version 4.0 kürzlich vorgestellt wurde, ist einer der Bausteine zur Enterprise Information Integration (EII).

"Die Grid-Technik verlässt langsam den Status eines bloßen Rechenverbundes und beginnt, für die Lösung von Geschäftsprobleme interessant zu werden", schildert Bill Claybrook, Forschungsdirektor für Linux, Open Source, Unix und Grid Computing beim Marktforschungsunternehmen Aberdeen Group. Allerdings sind Anwendungen im kommerziellen Umfeld noch die Ausnahem. Dabei basiert Grid Computing auf dem altbekannten Prinzip der verteilten Rechnerlandschaften, mit all ihren Stärken und Schwächen. Den Vorteilen, etwa der Kostenreduzierung, stehen die Nachteile wie inkompatible Systeme und komplizierte Administration gegenüber. Derzeit hinkt die Entwicklung noch hinter dem Wünschenswerten zurück: Setze eine Applikation auf der am besten geeigneten Ressource ein - im Hinblick auf Leistungsfähigkeit und Wirtschaftlichkeit - und nutze Internet-Techniken für Anfrage, Verteilung und Rückkopplung der

Resultate. In der Theorie basiert ein Grid auf Standards, die alle Plattformhersteller unterstützen.

Standard ist stark: Mittlerweile lassen sich auch in Grid-Systemen auf Basis von Standardkomponenten ("commodity of the Shelf" = cod) beachtliche Leistungen erzielen. Die alljährliche Supercomputing-Liste der 500 schnellsten Rechnersysteme - das sind oft Cluster-Verbünde, also lokale Grids, - erbrachte heuer Erstaunliches: Unter den diesjährigen Top Ten finden sich zwei aus Standardkomponenten aufgebaute Rechnerkomplexe. Analysten zufolge sollen cod-Systeme innerhalb der nächsten zwölf Monate die Hälfte aller Supercomputer auf der Liste stellen.

Im Global Grid Forum werden die Aktivitäten rund um die Standardisierung von Grid-Computing koordiniert. Ein prominentes Beispiel für eine gelungene Implementierung ist das Open-Source-Projekt "Globus", das kürzlich die Version 3 des "Globus Toolkit" (GT3) veröffentlichte. Wichtig ist die Software deshalb, weil darin die OGSI-Spezifikationen 1.0 (Open Grid Services Infrastructure) umgesetzt wurden. Sie definieren Web-Services ("Grid Services"), die über Grid-Netze angeboten werden. Globus ist ein Zusammenschluss von weltweit kooperierenden Forschern und Programmierern mit Hauptsitz am Argonne National Laboratory for Mathematics and Computer Science in Illinois.

Einigkeit scheint in der Community darüber zu bestehen, dass Grid-Techniken und Web-Services verschmolzen werden. Auch die Anbieter von Grid-Techniken - allen voran IBM, Hewlett-Packard, Sun und Microsoft - entwickeln in diese Richtung. Kürzlich hat beispielsweise IBM angekündigt, das hauseigene "Websphere" sei nun Grid-fähig. Mit Version 5.0.2 von Websphere könnten Unternehmen unbenutzte Ressourcen dem Betriebsteil zur Verfügung stellen, der Bedarf anmeldet. "Bei einem Engpass sucht Websphere dynamisch alternative Komponenten, misst Antwortzeiten und optimiert automatisch die Leistung", wirbt Robert Sutor, IBMs Verantwortlicher für die Websphere-Infrastruktur. Derzeit gelingt das allerdings nur für ein einziges Cluster-System mit einer Anwendung. In Zukunft sollen

aber auch eine Vielzahl von Server-Verbünden, auf denen unterschiedliche Programme laufen, davon profitieren.

Bereits im Februar hat Sun Microsystems angekündigt, die hauseigene "Grid Engine" in Sun ONE (Sun Open Net Environment) zu integrieren. Die Grid-Engine-Software ist ein Werkzeug zur Verwaltung von verteilten Ressourcen und kann für Cluster und Campus-Grids eingesetzt werden: Sie erteilt Rechenaufträge an verfügbare Computer innerhalb eines Grids und verwaltet die Vorgänge. Nach Angaben von Wolfgang Gentzsch, Suns Director für Grid Computing, arbeiten Hunderttausende von CPUs in weltweit mehr als 8000 Grids bereits mit der Sun-Software. Das Programmpaket - damals noch unter dem Namen "Codine" bekannt - erwarb Sun im Juli 2000 durch die Übernahme des Herstellers Gridware, dessen Mitbegründer Gentzsch war.

Die Arbeitsschritte einer Grid-Engine.

Die Grid Engine eröffnete der McNealy-Company erst den Eintritt zum High Performance Computing (HPC). Zuvor hatte Sun wenig interessante Produkte für den wissenschaftlichen Bereich. Im HPC oder Technischen High Performance Computing (HPTC) sieht Gentzsch die Basis für das neue Geschäft: "HPTC ist die Wiege von Grid Computing." In den 90er Jahren suchten Wissenschaftler nach einer Möglichkeit, über mehr als ihre lokal vorhandene Rechenpower zu verfügen und so genannte Meta-Rechner aufzubauen. Die Software, die sie dazu entwickelten, haben Organisationen wie Globus oder Firmen wie Avaki und Platform Computing zu den jetzt verwendeten Grid-Techniken fortgeführt. Heute bestehen nach Meinung von Gentzsch große Synergieeffekte zwischen Grid und HPTC, so dass Grid die Grundlage auch für leistungsstarke HPC-Knoten, Supercomputer oder Super-Cluster bildet.

Gentzsch ist in einem anderen Open-Source-Programm involviert, das im vergangenen Jahr von der Universität in Melbourne aus der Taufe gehoben wurde: GridBus (aus Grid und Business). Ziel ist es, eine Art Maklersystem für Grid-Kapazitäten zu entwickeln. Obwohl das Projekt erst am Anfang steht, hat es doch bereits die Elemente definiert, die für ein kommerzielles Grid - einen offenen Marktplatz für Anbieter und Käufer von Kapazitäten - notwendig sind: Cluster- und Grid-Scheduler, Werkzeuge für Modellierung und Simulation, ein Abrechnungssystem sowie grafische Verwaltungs-Tools.

Microsoft entwickelt seit sechs Jahren zusammen mit dem Cornell Theory Center in New York an parallelen Windows-Clustern. Zusammen mit Dell und Intel gründete die Gates-Company das "Advanced Cluster Computing Consortium", das Windows-basierende HPC-Verbünde zur Marktreife führen soll. Außerdem wurde viel Geld investiert, um eine Version des Globus-Toolkits kompatibel mit Windows XP und .NET zu gestalten - und sie danach der Open-Source-Gemeinde zur Verfügung zu stellen. Ob Microsoft seine komplette Infrastruktursoftware Grid-fähig macht, ist derzeit nicht bekannt.

Hewlett-Packard wird ebenso wie IBM die hauseigenen Programme für Grid einrichten. Bislang sind die Betriebssysteme HP-UX, Tru 64 und Linux für Grid-Computing geeignet. Im Bereich Linux engagiert sich HP in der Entwicklung des verteilten File-Systems "Lustre" (aus Linux und Clusters). Das Projekt, das von Cluster File Systems Inc. angestoßen wurde, soll zu einem Cluster File System führen, das Rechenverbünde mit Zehntausenden von Knoten, Petabytes an Speicherkapazität und Transfergeschwindigkeiten von mehreren 100 GB/s ermöglicht. Peter Braam, Gründer von Cluster File Systems Inc. und zuvor als Linux-Spezialist unter anderem bei Stelias Computing, Red Hat und Turbolinux tätig, will im Herbst die Version 1.0 von Lustre vorstellen. Zu rechnen ist

damit, dass sie Cluster mit bis zu 1000 Knoten unterstützen wird.

Laut Manfred Willem, Manager High Performance Technical Computing, bei HP in Böblingen, hat seine Company, die auch im Globus-Konsortium mitarbeitet, ein Intra-Grid zwischen den HP-Standorten im kalifornischen Palo Alto und dem englischen Bristol aufgebaut. Der Hersteller nutzt die Kapazitäten für leistungshungrige SAP-Anwendungen oder zur Abwicklung der Verkäufe über das Internet. 80 freie Server in Bristol und 50 in Palo Alto stehen für die interne Forschung, aber auch Partnern zur Verfügung. Die im Intra-Grid eingebunden Server arbeiten hauptsächlich mit PA-Risc- und Intel-Prozessoren, einige Maschinen auch mit Alpha-CPUs. Langfristig will HP für Rechner mit dem Betriebssystem HP-UX die PA-Risc- mit den Itanium-2-Chips (jeweils 64-Bit-Prozessoren) verschmelzen. Linux-Systeme werden mit Intels 32- und 64-Bit-Rechenwerken arbeiten.

Bild: Photo Alto

HP verzahnt, wie auch IBM und Sun, die eigenen Grid-Bemühungen eng mit der Architektur des zukünftigen Rechenzentrums. Dazu Willem: "Utility Data Center (UDC) ist eine Vorstufe des Grid."Die HP-Vordenker in Palo Alto publizierten bereits vor einem Jahr ihre Idee eines "Virtual Data Center", das die Ressourcen eines verteilten UDC über Grid-Mechanismen allen Beteiligten überall zur Verfügung stellt.

Für kommerzielle Zwecke sei insbesondere das transparente und sichere Data Sharing inklusive Software und Services für den Zugriff, die Wartung und Verarbeitung der Daten von Bedeutung. Ein Grid in diesem Sinn ist eine Zone der Zusammenarbeit, die sich über verschiedene Netze und Organisationen ausdehnt und in der Organisationen sicher und effizient Daten und Services austauschen können. Die vorhanden Ressourcen sollen als Services angesehen werden, die in Qualität und Quantität der Nachfrage genügen. Damit Angebot und Nachfrage im Gleichgewicht bleiben, entwickelt HP ein ausgeklügeltes Kontrollsystem, das aus drei Ebenen besteht: Die Infrastrukturschicht erfasst alle Ressourcen der UDCs und übernimmt das Mapping von "Server-zu-Ressourcen". Eine Ebene darüber erfolgt eine Zuordnung "Services-zu-Servern" basierend auf den Entscheidungen der Meta-Ebene, die die Struktur der Knoten abbildet. Danach wird das Control-System mittels Grid-Techniken wie dem

Globus-Toolkit in die Cluster-Umgebung eingebunden.

IBM verfolgt mit Grid seinen Gedanken vom On-Demand-Computing und hat dazu 35 Hersteller um sich geschart, die kommerzielle Grid-Lösungen entwickeln sollen. Zusammen mit der kandischen Grid-Schmiede Platform Computing, Hersteller von Grid-Software wie "LSF 5" (Load Sharing Facility) und der Verwaltungssoftware "Multicluster 5", hat Big Blue bereits zehn Grid-Branchenlösungen etwa für Finanzdienstleister und die Petrochemie entwickelt.

Auch Sun betont die Nähe von Grid und der hauseigenen "N1"-Strategie: "Suns N1-Vision ist ein enger Verwandter zur Grid-Computing-Initiative", wie in der Hauszeitschrift "Inner Circle" nachzulesen ist. Während sich N1 um die Belange des Daten-Centers mit den unterschiedlichen Anforderungen an Services und Workloads kümmere, sorge die Grid-Applikation dafür, dass die Ressourcen den Anforderungen der Anwender genügen.

Alle drei Hersteller sind sich aber darin einig, dass Grid Computing für kommerzielle Zwecke nur dann Erfolg haben wird, wenn Standards etabliert und eingehalten werden. Greg Astfalk, Chefwissenschaftler bei HP, fasste das kürzlich auf einer Konferenz der "Open Group" in San Francisco so zusammen: "Falls es verschiedene proprietäre Grids gibt, sind wir alle verloren." HP-Manager Willem sieht noch einen weiteren Knackpunkt für den breiten Einsatz von Grid Computing: "Der technische Fortschritt verläuft sehr rasant, was die Kunden noch zögern lässt, sind Sicherheitsaspekte." Die Marktforscher von Grid Technology Partners erwarten, dass 2005 Grid-Produkte im Wert von rund vier Milliarden Dollar verkauft werden. Die Kosten für die Einrichtung eines Grid-Rechnerverbundes werden sich auf 160 bis 600 Dollar je Prozessor belaufen.