Cluster: Hochverfügbarkeit bevorzugt

05.10.2001
Von 
Kriemhilde Klippstätter ist freie Autorin und Coach (SE) in München.
MÜNCHEN (COMPUTERWOCHE) - Mit der Kopplung von PC-Servern lassen sich heute Spitzenwerte bei der Rechenleistung erzielen. Cluster dienen in den Rechenzentren der Unternehmen aber hauptsächlich einem: der höheren Verfügbarkeit der Anwendungen.

Rechnen im Verbund ist populär geworden. Mit gekoppelten, kostengünstigen PC-Servern lassen sich heute Rechenaufgaben so schnell lösen, dass manch "großes Eisen" das Nachsehen hat. Selbst im wissenschaftlichen Bereich des High-Performance-Computing (HPC) dringen Server-Verbünde zunehmend in die Top-500-Liste der leistungsstärksten Rechner der Welt ein. Die Spitze hält, mit einer Rechenleistung von 4,9 Teraflops, bereits seit ein paar Jahren IBMs "Asci-White"-Maschine. Sie besteht aus 512 Knoten, die über SP-Switches aus den massiv-parallelen Supercomputern der ehemaligen Baureihe "RS/6000 SP" miteinander verbunden sind. Forscher wie Thomas Sterling, der am California Institute of Technology und am Jet Propulsion Laboratory der Nasa arbeitet, halten es für möglich, dass Cluster bereits Mitte dieser Dekade die dominierende Highend-Computing-Architektur

darstellen werden.

Im kommerziellen Umfeld dienen Cluster jedoch hauptsächlich einem anderen Zweck: Sie sollen für Hochverfügbarkeit sorgen. Fällt ein Rechner aus, übernimmt ein anderer die Arbeitslast des ersten. Bei entsprechender Konfiguration bleibt dem Anwender verborgen, dass seine Applikation nun auf einem anderen Server läuft. In einem derartigen Failover-Cluster spielt die Anzahl der von der Cluster-Software unterstützten Knoten keine große Rolle: Microsofts erste Cluster-Lösung "Wolfpack" koppelte nur zwei Maschinen - genug, um den Ausfall eines Servers abzufangen. IBM beispielsweise erlaubt mit seiner Softwarelösung für Hochverfügbarkeit "HACMP" (High Availability Cluster Multiprocessing) heute die Verbindung von 32 Knoten. Sun begnügt sich bei "Sun Cluster 3.0" derzeit mit acht gekoppelten

Rechnern, bis Jahresende sollen es 16 Maschinen sein. Dabei positioniert gerade die Solaris-Company ihre Architektur als "General-Purpose-System", geeignet sowohl für hohe Verfügbarkeit als auch Skalierbarkeit.

Ohne System-Management geht nichts