Hilfe für den Ernstfall

Backup und Disaster Recovery im Zusammenspiel

06.08.2013
Von Richard Zinner
Datenverlust oder ausgefallene Speichersysteme sind Gift für Unternehmen. Eine schnelle Wiederherstellung reduziert die entstehenden Kosten. Doch nicht nur das Backup sondern auch das Disaster Recovery muss reibungslos funktionieren. Wir zeigen, worauf es beim Zusammenspiel ankommt.

Der Verlust unternehmenskritischer Daten bedeutet für jedes Unternehmen und jede Organisation einen enormen Schaden. Der Imageschaden lässt sich eher schlecht bewerten. Schätzungen gehen aber davon aus, dass jede Minute Ausfallzeit wichtiger IT-Komponenten im Schnitt mehr als 100.000 Euro pro Stunde kostet.

Ursachen für Datenverlust: Während kleine Unternehmen und Mittelständler eine ähnliche Verteilung der Ausfallgründe besitzen, weichen Großfirmen ab. Der prozentual höchste Anteil für Datenverluste liegt in Fehlern der Anwendung.
Ursachen für Datenverlust: Während kleine Unternehmen und Mittelständler eine ähnliche Verteilung der Ausfallgründe besitzen, weichen Großfirmen ab. Der prozentual höchste Anteil für Datenverluste liegt in Fehlern der Anwendung.
Foto: Aberdeen

Datenverlust hat dabei so verschiedene Ursachen, dass ein solches Ereignis nie ganz ausgeschlossen werden kann. Aber mit einem guten und konsequenten Backup-Management lassen sich die Downtime-Kosten enorm reduzieren. Aberdeen Research hat 2011 im Rahmen einer Studie ermittelt, dass in Unternehmen und Behörden mit unzureichenden Disaster-Recovery-Maßnahmen im Schnitt 3,5 Mal pro Jahr ein solches "Desaster" auftritt. Die Ausfallzeiten von IT-Systemen summieren sich im Schnitt auf 29,4 Stunden jährlich. Das entspricht einem finanziellen Schaden von mehr als 2,9 Millionen US-Dollar.

Im Vergleich dazu verzeichnen Anwender mit optimierten Vorsorgemaßnahmen weniger als einen Vorfall pro Jahr. Dieser führt zu Stillstandzeiten von 72 Minuten und einem Schaden von nur 72.000 US-Dollar. Neuere Studien aus dem Jahr 2012 belegen, dass der Stundensatz für Downtime-Kosten im Schnitt auf 138.000 Dollar gestiegen ist.

Hardware für Backup und Disaster Recovery konfigurieren

Angesichts der Möglichkeiten, die ein gutes Backup und Disaster Recovery bietet, stellt sich die Frage, wie es in der Praxis effektiv für höchste Sicherheit sorgt. Schon eine richtige Konfiguration der Hardware kann hier helfen.

Teure Auszeit: Die anfallenden Kosten für eine Server-Downtime lassen sich durch konsequentes Backup enorm senken.
Teure Auszeit: Die anfallenden Kosten für eine Server-Downtime lassen sich durch konsequentes Backup enorm senken.
Foto: Aberdeen

Welche Hardware in welcher Disaster-Recovery-Umgebung eingesetzt werden soll, hängt von der Größe des Unternehmens, der Zahl der Server und Clients sowie dem Umfang der Datenbestände ab, die gesichert werden müssen. Die Spannbreite ist enorm und reicht vom NAS-System bis zum kompletten Ausfallrechenzentrum. Wichtig ist aber vor allem, dass eine Backup- und Disaster-Recovery-Lösung möglichst viele Storage- und Archivierungstechniken unterstützt.

Schon bei der Wahl der Hardware können in Detailfragen die Weichen richtig gestellt werden. Wenn man SATA-Festplatten der Enterprise-Kategorie auswählt, gibt man im ersten Schritt zwar mehr Geld aus, investiert es aber in eine deutlich längere Lebenserwartung, seltenere Sektorenfehler und eine Optimierung für RAID-Controller.

Zentral ist auch Ordnung in der Datenlandschaft. Immer wieder wird der einfache Grundsatz unterschätzt, zwei separate Partitionen für Produktionsdaten und Anwendungsdaten einzurichten. Eine Vermengung erschwert die Umsetzung einer stringenten Backup- und Disaster-Recovery-Strategie. Die Partitionen für Daten werden am besten als RAID-10 konfiguriert.

Backup- und Disaster-Recovery-Software konfigurieren

Wer Datensicherheit und Performance des Unternehmensnetzes vereinbaren will, kann mit einer geschickten Konfiguration einer Disaster-Recovery-Software dazu beitragen. So sollten Datensicherungen nie zur vollen Stunde starten, sondern einige Minuten später. Das vermeidet zum Beispiel Konflikte mit etwa 25 aktiven Aufgaben, die beispielsweise in Windows Server 2008 R2 immer zu einer vollen Stunde starten.

Foto: JNT Visual, Shutterstock.com

Wichtig ist eine solche Planung, da ein professionelles Backup-Konzept möglichst kontinuierlich Daten sichern sollte. Ein Systemdatenträger sollte mindestens drei Mal pro Tag gesichert werden. Wenn das Laufwerk zudem ein Domänen-Controller ist und die SYSVOL- und NTDS-Verzeichnisse auf dem System-Datenträger lagern, ist eine fünfmalige Sicherung pro Tag angeraten. Die Sicherungsläufe für die Daten-Volumen sollten zeitversetzt erfolgen: Beispielsweise Partition 1 startet täglich im Stundenrhythmus um vielleicht 06:34 mit der inkrementellen Sicherung. Bei Partition 2 erfolgt das erste der stündlich durchgeführten Backups um 6:37 Uhr. Wer noch mehr Wert auf Datensicherheit legt, lässt automatisch im 15-Minuten-Takt Snapshots erstellen, so dass im schlimmsten Fall lediglich ein Verlust der Daten der letzten Viertelstunde eintreten kann.

Der Teufel steckt im Detail: Ein eigenes Windows-Dienstkonto nur für die Sicherung der Backups ist sinnvoll. Ebenso sollte an eine 256-Bit-Verschlüsselung der Backups gedacht werden. Außerdem ist auch eine intelligente Benennung der Backups kein reiner Ordnungswahn, sondern durchaus technisch geboten. Bei zu langen Datennamen ist Windows früher oder später nicht mehr in der Lage, die Backup-Kette zu mounten, weil der Pfad zu den Images zu lang ist.

Das Repository richtig dimensionieren

Backup-Images sollten möglichst kompakt gehalten werden, damit der Bedarf an Speicherplatz nicht explodiert. Selbst in kleineren und mittelständischen Unternehmen bewegen sich die Datenvolumina, die von Servern bereitgestellt werden, mittlerweile im zweistelligen Terabyte-Bereich. Die Menge der zu sichernden Daten steigt in zunehmend heterogenen IT-Landschaften.

Solche IT-Flickenteppiche erschweren die Entscheidung, welche Daten zu sichern sind. Sie machen eine regelmäßige Inventur der Daten und eine Homogenisierung der Serverlandschaften notwendig. Auf der anderen Seite empfiehlt es sich aber auch immer mehr, nicht nur Daten, sondern gleich die ganze Software und individuelle Konfigurationen - sprich ganze IT-Infrastrukturen - zu sichern.

In allen Fällen ist nur eine inkrementelle oder eine differentielle Sicherung den Anforderungen angemessen: Alle sektorbasierten Änderungen im Vergleich zur Vorabsicherung werden erfasst und in einem inkrementellen Image gesichert. Außerdem ist es ratsam, Server nicht für das Speichern großer temporärer Dateien wie ISO-Files oder nicht komprimierbare Daten heranzuziehen. Werden diese Vorgaben berücksichtigt, lässt sich die Größe eines Image Repository mithilfe dieser Formel errechnen:

Größe der Rohdaten * 60 % * 6 = Speicherplatz für Images, der ein Jahr ausreicht

Diese Formel berücksichtigt bereits eine Sicherheitsreserve von 15 Prozent.