Hackern keine Chance geben

Sichere Systeme unterstützen Hochverfügbarkeit

25.03.2009
Von 
Dipl. Inform. Johann Baumeister blickt auf über 25 Jahre Erfahrung im Bereich Softwareentwicklung sowie Rollout und Management von Softwaresystemen zurück und ist als Autor für zahlreiche IT-Publikationen tätig. Sie erreichen ihn unter jb@JB4IT.de
Anzeige  Auf den ersten Blick haben Hochverfügbarkeit und Sicherheit wenig miteinander zu tun. Bei genauerem Hinsehen allerdings zeigen sich doch erhebliche Wechselwirkungen und Abhängigkeiten zwischen sicheren und hochverfügbaren Systemen.
Ausfallsicherheit ist die absolute Königsdisziplin in Rechenzentren.
Ausfallsicherheit ist die absolute Königsdisziplin in Rechenzentren.

Hochverfügbare Serversysteme werden häufig mit Clustern gleichgesetzt. Das ist, wenngleich vereinfacht, zumindest in der Vergangenheit durchaus zutreffend. Sicherheit wiederum assoziieren viele IT-Betreuer mit den Funktionen einer Firewall, eines Virenscanner und ähnlichen Produkten. Einen direkten Bezug zwischen beiden Funktionsgruppen würde man eher nicht vermuten. Dennoch sind die Anhängigkeiten größer, als auf den ersten Blick ersichtlich. Wird beispielsweise ein Server durch einen Virus lahmgelegt, so senkt das seine Verfügbarkeit. Dabei muss es sich nicht immer um einen vollständigen Ausfall handeln. Auch ein Trojaner, der einen gekaperten Email-Server nutzt, um über dessen Kanäle SPAM-Mails zu versenden, reduziert gleichzeitig die verfügbaren Ressourcen für seine Benutzer und damit die Verfügbarkeit für den ihm zugedachten Zweck. Was aber ist eigentlich Hochverfügbarkeit und wird sie gemessen? Meist geht man heute bei der Hochverfügbarkeit von den Werten aus, die die beistehende Tabelle zeigt (siehe links).

Dabei entspricht der erste Wert der Hochverfügbarkeit eines Systems in Prozent von der gesamten Laufzeit. Der zweite Wert ist die dann maximal erlaubte Ausfallzeit, meist bezogen auf ein Jahr. Wenn also ein Server zweimal im Jahr für vier Stunden nicht verfügbar ist, wird ihm, bei linearer Betrachtung, eine Verfügbarkeit von circa 99,9 Prozent bescheinigt: 364 Tage * 24 Stunden = 8736 Stunden / Jahr; 8 Stunden sind somit circa ein zehntel Prozent, also verbleibt eine Verfügbarkeit von 99,9 Prozent.

Hochverfügbarkeit der Hardware als Grundlage

Dieses lineare Berechnungsmodell nimmt aber noch keine Rücksicht auf den tatsächlichen Bedarf durch die Benutzer. In betriebsarmen Zeiten, wie etwa nachts oder am Wochenende, wirken sich Ausfällen nur gering aus. Völlig anders dagegen verhält es sich zu den Spitzenzeiten. Ferner bezieht sich die Aussage der Hochverfügbarkeit immer auf die Ausfallsicherheit der Serverhardware. Das muss sich aber nicht mit den Ergebnissen decken, die beim Anwender letztendlich spürbar werden, denn für ihn zählt nur die Verfügbarkeit seines Dienstes oder der Applikation. Sind diese aber, egal aufgrund welcher Ursachen, überlastet und liefern die Antworten nur verzögert, so reduziert dies ebenso die "Verfügbarkeit" des Dienstes für den Benutzer. Summiert man diese verzögerten Reaktionen ("Mikroausfälle") allerdings auf, so ergeben sich selbst bei nur 2,5 Minuten Verzögerung pro Tag bereits über neun Stunden für das Jahr.

Damit wird eine hochverfügbare Serverlandschaft mit einer Ausfallsicherheit von beispielweise 99,9999 Prozent im Nu auf den Wert 99,9 Prozent gesenkt. Dies Beispiel zeigt aber auch, dass der reine Blick auf die Ausfallsicherheit der Hardware kaum genügen kann. Es wäre gerade so, als würde man den die Einsatzmöglichkeiten und den Nutzen eines LKWs alleine an seiner PS-Stärke und der Ladefläche festmachen, ohne Rücksicht auf die Straßenverhältnisse, die Routenführung, Staus und Transportaufträgen.