Zehn Mythen um Hochverfügbarkeit

Hochverfügbare IT-Systeme sind kein Zauberwerk

12.08.2009
Von Ulrich Lenz

9. Hochverfügbare Systeme basieren auf proprietären Technologien

Fehlertolerante Server arbeiten mit Standard-Technologien wie x86-Prozessor-Architektur, Windows oder Linux, entsprechende Software-Lösungen bauen zum Beispiel auf dem Open Source-Server Xen auf. Diese Systeme erreichen ihre hohe Ausfallsicherheit indem sie die Standard-Technologien redundant auslegen. Alle betriebswichtigen Teile sind hier doppelt vorhanden: Prozessoren, Speicher-Chips und I/O-Einheiten, also nicht nur, wie sonst in High-End-Systemen üblich, nur Netzteile und Festplatten. Sollte eine Komponente ausfallen, führt die jeweilige Partner-Komponente automatisch und vom Benutzer unbemerkt den Betrieb weiter. Die jeweilige Applikation kann somit ohne Daten- oder Statusverlust kontinuierlich weitergeführt werden.

Trotz der durchgängigen Redundanz verhalten sich fehlertolerante Server gegenüber dem Betriebssystem wie ein einziger Standard-Rechner. Es müssen also seitens der jeweiligen Software überhaupt keine weiteren Anpassungen für den Einsatz mit den redundanten Komponenten des Servers vorgenommen werden, da die Software auf Seiten der Hardware immer nur ein einziges System sieht. Die Steuerung erfolgt im Server durch dessen eigene System-Software. Diese ist - ein weiterer Unterschied zu vielen Cluster-Lösungen - vollständig Windows-kompatibel, verträgt sich also mit allen Windows-Applikationen oder Erweiterungen.

10. Mich betrifft das nicht …

Die überwiegende Zahl von Airbags kommt nie zum Einsatz, dennoch gehören diese heute zur Standard-Ausstattung eines jeden PKWs. Das effektive Risiko ergibt sich aus dem Produkt von Schadeneintrittswahrscheinlichkeit und möglicher Schadenshöhe - diese ist in den letzten Jahren enorm gestiegen. In kritischen Bereichen können Unternehmen daher auch kurzzeitige Ausfälle ihrer Server nicht riskieren, zumal sie mit relativ geringem Aufwand Vorsorge treffen können. (ba)