Grid Computing braucht Standards und Sicherheit

07.08.2003
Von 
Kriemhilde Klippstätter ist freie Autorin und Coach (SE) in München.

Laut Manfred Willem, Manager High Performance Technical Computing, bei HP in Böblingen, hat seine Company, die auch im Globus-Konsortium mitarbeitet, ein Intra-Grid zwischen den HP-Standorten im kalifornischen Palo Alto und dem englischen Bristol aufgebaut. Der Hersteller nutzt die Kapazitäten für leistungshungrige SAP-Anwendungen oder zur Abwicklung der Verkäufe über das Internet. 80 freie Server in Bristol und 50 in Palo Alto stehen für die interne Forschung, aber auch Partnern zur Verfügung. Die im Intra-Grid eingebunden Server arbeiten hauptsächlich mit PA-Risc- und Intel-Prozessoren, einige Maschinen auch mit Alpha-CPUs. Langfristig will HP für Rechner mit dem Betriebssystem HP-UX die PA-Risc- mit den Itanium-2-Chips (jeweils 64-Bit-Prozessoren) verschmelzen. Linux-Systeme werden mit Intels 32- und 64-Bit-Rechenwerken arbeiten.

Bild: Photo Alto
Bild: Photo Alto

HP verzahnt, wie auch IBM und Sun, die eigenen Grid-Bemühungen eng mit der Architektur des zukünftigen Rechenzentrums. Dazu Willem: "Utility Data Center (UDC) ist eine Vorstufe des Grid."Die HP-Vordenker in Palo Alto publizierten bereits vor einem Jahr ihre Idee eines "Virtual Data Center", das die Ressourcen eines verteilten UDC über Grid-Mechanismen allen Beteiligten überall zur Verfügung stellt.

Für kommerzielle Zwecke sei insbesondere das transparente und sichere Data Sharing inklusive Software und Services für den Zugriff, die Wartung und Verarbeitung der Daten von Bedeutung. Ein Grid in diesem Sinn ist eine Zone der Zusammenarbeit, die sich über verschiedene Netze und Organisationen ausdehnt und in der Organisationen sicher und effizient Daten und Services austauschen können. Die vorhanden Ressourcen sollen als Services angesehen werden, die in Qualität und Quantität der Nachfrage genügen. Damit Angebot und Nachfrage im Gleichgewicht bleiben, entwickelt HP ein ausgeklügeltes Kontrollsystem, das aus drei Ebenen besteht: Die Infrastrukturschicht erfasst alle Ressourcen der UDCs und übernimmt das Mapping von "Server-zu-Ressourcen". Eine Ebene darüber erfolgt eine Zuordnung "Services-zu-Servern" basierend auf den Entscheidungen der Meta-Ebene, die die Struktur der Knoten abbildet. Danach wird das Control-System mittels Grid-Techniken wie dem

Globus-Toolkit in die Cluster-Umgebung eingebunden.

IBM verfolgt mit Grid seinen Gedanken vom On-Demand-Computing und hat dazu 35 Hersteller um sich geschart, die kommerzielle Grid-Lösungen entwickeln sollen. Zusammen mit der kandischen Grid-Schmiede Platform Computing, Hersteller von Grid-Software wie "LSF 5" (Load Sharing Facility) und der Verwaltungssoftware "Multicluster 5", hat Big Blue bereits zehn Grid-Branchenlösungen etwa für Finanzdienstleister und die Petrochemie entwickelt.