Klippen auf dem Weg zum Cluster

03.09.2003
Von 
Ludger Schmitz war freiberuflicher IT-Journalist in Kelheim. Er ist spezialisiert auf Open Source und neue Open-Initiativen.

Netzwerk-Know-how ist gefragt

Wenn Anwendungen Rechenaufgaben nur nebeneinander abarbeiten, besteht geringer Bedarf an sehr schnellen Verbindungen zwischen den Nodes. Beispielsweise können viele CPUs weitgehend unabhängig voneinander die einzelnen Bilder eines Computer-animierten Films berechnen. Ethernet-Verbindungen sind dann völlig ausreichend. Soll allerdings das Verformungsverhalten eines großen Bauteils simuliert werden, dessen Einzelelemente jeweils von einer CPU berechnet werden müssen, haben die Nodes eine ausgesprochen hohe Interaktion. Hier braucht man Myrinet-Verbindungen. Ausschlaggebend ist ferner die Häufigkeit, mit der Prozessoren auf externe Datenbanken zugreifen müssen.

Die Interconnects sind für das Leistungsverhalten eines Clusters dermaßen wichtig, dass der Anbieter der Cluster-Software "auf jeden Fall Know-how im Netzwerksektor haben sollte", fordert Thomas Warschko, technischer Direktor Europa beim Anbieter Linux Networx in Kaiserslautern. "Und der Anbieter sollte die Installation vorkonfiguriert und getestet übergeben. Leider wird das viel zu oft vergessen."

Der nächste wichtige Punkt zur Entscheidung über ein Cluster betrifft das Betriebssystem. Microsoft hat nach anfänglich großen Problemen mit Windows-2000-basierenden Clustern langsam Fuß fassen können. Inzwischen bietet das Unternehmen mit dem "Computational Cluster Technical Preview Kit" (CCTP) eine Sammlung von Werkzeugen zum Aufbau und zur Optimierung von Clustern auf Grundlage von Windows 2000 Advanced Server und Windows XP. Wie immer zielt der Anbieter zunächst auf das untere Leistungssegment. Dort ist die Lösung aus Redmond dann zu empfehlen, wenn das IT-Personal in einem Unternehmen Erfahrung mit Microsoft-Umgebungen hat.

Die meisten Cluster werden aber in Firmen eingerichtet, die Unix-Systeme ersetzen. Wegen der Ähnlichkeit der Systeme finden dort vor allem Linux-Cluster Anklang. Den Unix-Spezialisten fällt es leicht, mit der quelloffenen Alternative zu arbeiten. Diese Eingriffe können bei großen Clustern sehr weit gehen: Die von Suse oder Red Hat stammenden Linux-Varianten werden bis auf den Kernel, Libraries und Compiler reduziert.

Den radikalsten "Striptease" verfolgt das Open-Source-Projekt " Linux-BIOS ", das sogar das normale BIOS der Intel- beziehungsweise AMD-Rechner ersetzt. Das Linux-BIOS initialisiert die Hardware auf dem Knoten und holt sich dann das Linux-Betriebssystem von der lokalen Festplatte (eher selten) oder (idealerweise) von einem Boot-Server. Das Basis-I/0-System lässt sich genau auf die ohnehin normalerweise stark reduzierten Hardwarekomponenten eines Knotens einrichten. Im Ergebnis sind die Nodes schon in wenigen Sekunden einsatzbereit, Änderungen oder Upgrades lassen sich remote steuern und bestehen dann konsistent über das gesamte Cluster.