IT-Ausfallzeiten minimieren

Die besten Tipps - so vermeiden Sie Ausfälle von Server-Anwendungen

Patrick-Steeven Skwara Marketing Manager Avance EMEA bei Stratus Technologies
Nicht alle Unternehmen haben ihre Server-Räume oder Rechenzentren auf einen möglichen Ausfall oder Störfall vorbereitet. Unsere Tipps helfen Ihnen, Systemausfälle zu vermeiden und drohenden Datenverlust vorzubeugen.

Stillstand, offline, nicht erreichbar, Fehler, Absturz, Ausfall, Unterbrechung, Störung: Eine Menge negativer Begriffe werden mit dem Begriff "Ausfallzeit" assoziiert und stellen eine Bedrohung der Verfügbarkeit von Server-Anwendungen dar. Ein Imageschaden und finanzielle Einbußen können mögliche Folgen sein - auch weil Kunden solche Ausfälle nicht hinnehmen und sich entscheiden, zur Konkurrenz zu wechseln. Dieser Risiken sind sich viele Unternehmen, besonders Mittelständler, kaum, gar nicht oder nicht genügend bewusst - und das obwohl jeder erwartet, dass betriebliche Prozesse stets reibungslos ablaufen.

Risiken von Ausfallzeiten ernst nehmen und handeln

Maßnahmen, um diesen Ausfallzeiten vorzubeugen, werden noch immer vernachlässigt, "es läuft doch im Großen und Ganzen" wird oft gesagt. Eins aber ist klar: Im Zeitalter von Big Data, Industrie 4.0 und Always-On reicht Verfügbarkeit "im Großen und Ganzen" einfach nicht mehr aus.

Verfügbarkeitsoptionen kennen und unterscheiden

Wie wichtig Verfügbarkeit ist, lässt sich an den folgenden Zahlen demonstrieren: Eine HP-Studie von 2013 belegt, dass in mittelständischen Unternehmen in Deutschland durch Ausfälle jährlich 380.000 Euro Kosten pro Jahr entstanden. Laut EMC ist der finanzielle Schaden für 2014 sogar noch größer: 2014 haben Unternehmen in Deutschland wegen "Downtime" Verluste von zusammengerechnet 11,6 Milliarden Euro hinnehmen müssen. Ausfallkosten sind natürlich auch von der Branche abhängig, weshalb Unternehmen bei der Auswahl von Verfügbarkeitslösungen genau hinschauen müssen.

Bei den Verfügbarkeitsoptionen wird zwischen "gut", "besser" und "optimal" unterschieden: Als gut gilt die Standardverfügbarkeit (99% Verfügbarkeit, durchschnittlich 87,5 Stunden Ausfall pro Jahr). Hier kommen in der Regel zuverlässige x86-Einzelserver mit redundanten Lüftern, redundanter Stromversorgung und gespiegeltem Speicher zum Einsatz. Sie bieten aber keinerlei Sicherheit bei der Datenübertragung. Besser ist da schon eine Datenreplikationssoftware: Damit werden Daten synchron oder asynchron von einem oder mehreren Ausgangsservern auf einen Zielserver repliziert. Der Nachteil ist, dass es bei einem Ausfall keine Garantie dafür gibt, dass der Betrieb sofort wieder aufgenommen wird. Noch besser einzuschätzen ist die Hochverfügbarkeit (99,9%, 8,75 Stunden Ausfall pro Jahr), optimal die ständige Verfügbarkeit bzw. eine Always-On-Lösung (99,99%, 52 Minuten Ausfall pro Jahr und bis zu 99,9999%, 1-5 Minuten Ausfall pro Jahr).

Kostenkontrolle: Beispielrechnung für die Server-Verfügbarkeit.
Kostenkontrolle: Beispielrechnung für die Server-Verfügbarkeit.
Foto: Adacor

Die Ständige Verfügbarkeit ist das höchste Level der Verfügbarkeit und bietet den größten Schutz vor Ausfällen. Zu dieser Lösung gehören zwei vollständig redundante Server sowie Software zur permanenten Überwachung der Systemkomponenten.

Grundsätzlich ist zwischen Hochverfügbarkeitssoftware und einer Cluster-Lösung zu unterscheiden. Bei der Software-Lösung beträgt die Ausfallzeit weniger als eine Stunde pro Jahr, bei Hochverfügbarkeits-Clustern hingegen fast neun Stunden. Auch ist deren Grund-Ansatz verschieden: Das Cluster zielt auf eine möglichst schnelle Wiederherstellung nach einem Systemausfall ab, die Software hingegen kann Ausfallzeiten und Datenverluste automatisch erkennen und Fehler melden, bevor sie das gesamte System betreffen. Bei einer Clusterlösung bedarf es für die Entwicklung des dafür nötigen Failover-Scripts zudem ausreichender Fachkenntnisse, die bei einer Software nicht notwendig sind.