Zehn Mythen um Hochverfügbarkeit

Hochverfügbare IT-Systeme sind kein Zauberwerk

12.08.2009
Von Ulrich Lenz

1. Hochverfügbarkeit ist nur für große Unternehmen wichtig

Alle Unternehmen sind heute in hohem Maße von ihrer IT abhängig und können daher von Server-Ausfällen massiv betroffen werden. Somit gehört es zur Pflicht der Unternehmen eine wirksame Risikovorsorge betreiben. Lösungen wie fehlertolerante Server oder Software-Lösungen in Verbindung mit entsprechender Hardware sind auf Grund des geringen Aufwands für Implementierung und Administration auch für kleinere und mittlere Unternehmen geeignet.

2. Spezielle Hochverfügbarkeits-Lösungen sind überflüssig

Tatsächlich sind Server heute wesentlich zuverlässiger geworden und Ausfälle kommen in der Tat selten vor. Allerdings sind auch die Anforderungen gestiegen: Unternehmen betreiben auf Standard-Servern unternehmenskritische Anwendungen, für die früher beispielsweise große Unix-Systeme eingesetzt wurden. Solche Anwendungen müssen kontinuierlich verfügbar sein, sonst können große Schäden entstehen und möglicherweise sogar die Existenz des Unternehmens gefährden. Standard-Server unter Linux und Windows erreichen heute eine Verfügbarkeit von etwa 99,9 Prozent - was einer durchschnittlichen Ausfallzeit von 8,8 Stunden pro Jahr entspricht. Für unternehmenskritische Aufgaben sind jedoch mindestens 99,99 Prozent, in der Regel sogar 99,999 Prozent erforderlich, die Server fallen dann maximal 5 Minuten im Jahr aus.