Microsofts DPM besteht Praxistest

Dipl. Inform. Johann Baumeister blickt auf über 25 Jahre Erfahrung im Bereich Softwareentwicklung sowie Rollout und Management von Softwaresystemen zurück und ist als Autor für zahlreiche IT-Publikationen tätig. Sie erreichen ihn unter jb@JB4IT.de
Mit dem "Data Protection Manager" (DPM) ist Microsoft in den Markt für Datensicherung eingestiegen. Der damit verfolgte Ansatz ist als Kombination aller bekannten Konzepte einzustufen.

Oberstes Ziel aller Datensicherungsverfahren ist es, Informationen nicht zu verlieren, sondern jederzeit für den Zugriff bereitzuhalten. Dabei kommen sehr unterschiedliche Konzepte zum Zug: Der traditionelle Weg ist die mehr oder weniger regelmäßige Sicherung der Daten auf Bänder. Die hierbei angewandten Verfahren sind als vollständiges, inkrementelles oder auch differentielles Backup bekannt. Vorgenommen wird es meist nachts (inkrementell) oder am Wochenende (vollständig). Aufgrund der durch den 24x7-Stunden-Betrieb immer kleineren Wartungsfenster sowie der weltweiten Verfügbarkeit der Dienste wird der für Backups verfügbare Zeitraum zunehmend enger. Neuere Konzepte sehen daher kürzere Intervalle und eine laufende Sicherung vor - wie etwa bei den Snapshot-Verfahren oder der Continuous Data Protection (CDP). Letztere wird unter anderem bei Failover-Systemen eingesetzt, die allerdings nicht nur die Daten duplizieren, sondern auch die Prozesse überwachen. Anders - wenn auch mit ähnlichen Ergebnissen - ist dies in den hierarchischen Speichersystemen realisiert, die weniger Dringendes automatisch auf nachgeschaltete Storage-Systeme auslagern.

Fazit

• Der DPM ermöglicht eine periodische Sicherung der Daten auf ein Backup-Device. Installation und Nutzung des Tools bereiten keine Schwierigkeiten.

• Die Assistenten helfen Fehler zu vermeiden. Für Nutzer der Microsoft-Infrastruktur stellt der DPM aus technischer Sicht eine einfache und sinnvolle Ergänzung dar. Dennoch muss konzeptionelle Vorarbeit geleistet werden: Hierzu zählen die Integration in die gesamte IT-Infrastruktur, die Festlegung von Kapazitäten für Plattennutzung und Netzlast, die Bestimmung der Sicherungsfrequenz sowie die Verteilung der Daten auf die Backup-Systeme und eine Regelung für den Restore der Daten.

• Ferner sind bestehende Sicherungskonzepte für Bandsicherung anzupassen. Abgelöst werden sie jedoch kaum, denn der DPM übernimmt keine Langzeitsicherung, wie es etwa bei Bändern der Fall ist.

Pro und Kontra

-- Einfaches Setup und Administration;

- zeitnahe Sicherung der Windows-Datei-Server;

- Restore durch den Benutzer ist schneller und entlastet Administratoren.

- Begrenzt auf Windows-Umgebungen;

- für dauerhafte Sicherung werden bestehende, bandorientierte Konzepte weiterhin benötigt.

Microsofts DPM bricht mit den Traditionen der Datensicherung und verfolgt hier einen Mittelweg: Mit einem Sicherungsintervall von minimal einer Stunde sind die gesicherten Daten weitaus aktueller als beim traditionellen 24-Stunden-Rhythmus, aber nicht so aktuell wie bei der CDP.

Die Architektur im Überblick

Der DPM ist Bestandteil des System Centers. Darunter fasst Microsoft alle Produkte zusammen, die sich mit der Verwaltung der IT-Systeme beschäftigen. Hierzu gehören das Verwaltungs-Tool für Desktops und Server, der System Management Server (SMS), das Monitoring-Tool MOM, der Capacity Planer und nun auch der DPM. Die Architektur des Werkzeugs basiert auf einem eigenen Server-System, das ebenfalls DPM heißt. In älteren Dokumentationen findet sich dafür auch noch die Bezeichnung "DP Server".

Auf den abzusichernden Daten-Servern müssen spezielle Agenten eingerichtet werden. Sie klinken sich in die Schreiboperationen des Betriebssystems ein und überwachen alle Änderungen. Modifizierte Datenblöcke werden für den nächsten Sicherungslauf vorgemerkt. Dies gleicht den Konzepten, die Failover-Tools verfolgen, unterscheidet es aber gleichzeitig von den dateibasierenden Backup-Prozeduren, die meist auf Grundlage der Archive-Bits der Files operieren. Dieses Bit wird bei jeglicher Dateiänderung gesetzt und dient den Backup-Prozessen dazu, zu erkennen, ob sich seit der letzten Sicherung etwas verändert hat. Daraus folgt aber auch, dass die Granularität aller Sicherungsläufe eine Datei darstellt. Besonders bei großen Files, deren Inhalte sich nur geringfügig ändern, ist ein komplettes Backup der Datei wenig effizient. Werden hingegen nur die Datei-Deltas überwacht, reduziert sich die zu sichernde Datenmenge deutlich.

Hinterlegt werden die gesicherten Daten auf einer eigenen Partition im jeweiligen DPM. Damit erhält man - neben dem eigentlichen Quell-Server - eine zweite Instanz der gesicherten Daten. Sofern die räumliche Distanz zwischen DPM und dem überwachten Server groß genug und die Datenmenge klein ist, könnte die Sicherung durch den DPM alleine auch ausreichend sein.

Ist hingegen mit einem starken Anwachsen der zu sichernden Daten zu rechnen und sind diese über einen längeren Zeitraum aufzubewahren, sollten die auf dem DPM replizierten Informationen dauerhaft gesichert werden. Microsoft verweist hierzu auf die gängigen und bekannten Backup-Verfahren und -Produkte - etwa Bandlaufwerke oder Tape Libraries. Der DPM kümmert sich demnach nicht um eine dauerhafte Speicherung der Daten auf Bändern, sondern überlässt dieses Feld den traditionellen Anbietern.

Der Testaufbau

Als Grundlage für diesen Bericht diente die aktuelle Version 1.0 des DPM. Handbuch und Software waren in englischer Sprache verfügbar. Bei der Ausführungsumgebung für die Server-Systeme handelte es sich um einen Verbund aus physischen und virtuellen Systemen. Active Directory, DNS, DHCP und ähnliche Basisdienste befanden sich auf einem physischen Windows-2000-Server (deutsche Version). Der DPM wiederum wurde in einer virtuellen Instanz (Guest-OS) der englischsprachigen Version des Windows Server 2003 R2 als virtuelle Maschine des Virtual Server 2005 und mit einem Windows Server 2003 als Basissystem (Host) betrieben. Bei dem zu sichernden Server handelte es sich um einen physischen Windows Server 2003 R2, der Freigaben für die Dateisystem-Dienste trug. Eine virtuelle Umgebung für den DPM wurde aus zweierlei Gründen verwendet: Zum einen sind virtuelle Systeme gerade für Versuchsaufbauten weitaus flexibler und schneller, zum anderen sollte damit eruiert werden, ob das Zusammenspiel zwischen den physischen Systemen und Diensten und ihren virtuellen Pendants so reibungslos verläuft, wie es die Hersteller behaupten. Um es vorwegzunehmen: Im Testszenario sind keine Probleme aufgetreten, wenngleich durch die Virtualisierung vor allem in der Anfangsphase natürlich eine weitere Schicht eingezogen wird. Und diese gilt es zu beherrschen.

Der DPM muss zwingend in eine Domäne integriert werden. Daher ist auf eine klare und konsistente Systemumgebung mit Namensauflösung (DNS), IP-Adressvergabe und aktuellen Systemzuständen bezüglich Patches und Service-Packs zu achten.

Installation und Setup

Installation und Setup der Software entsprechen den von Microsoft seit einigen Jahren angebotenen Verfahren. Unterstützt durch GUI, Assistenten und Online-Hilfen ist die Installation, sofern die Systemvoraussetzungen bezüglich Service-Packs gegeben sind, relativ problemlos. Parallel zum DPM wird der SQL Server als Speicherstelle eingerichtet. Die eigentliche Arbeit steckt, wie bei Enterprise-Produkten üblich, in der Konzeption der IT-Architektur: Hier gilt es, das Layout für die Arbeitsweise der Backup-Prozesse zu definieren und dieses dann in die Konfiguration der Software zu gießen. Diese wird durch die begleitende Dokumentation gut unterstützt.

Zu den ersten Schritten zählen hier die Einrichtung eines Speicher-Pools und die Zuweisung von Festplatten. Dies wird - wie alle anderen Schritte im DPM - von Assistenten begleitet und dürfte für sachkundige Administratoren keine Herausforderung darstellen. Im Storage-Pool hinterlegt der DPM sowohl die Datenrepliken und Schattenkopien als auch die Log-Dateien, die den Datentransfer protokollieren. Da der Storage-Pool vom DPM neu eingerichtet und formatiert wird, sollte man ihm hier keine Partition zuweisen, die noch benötigt wird.

Agenten verteilen

Im nächsten Schritt sind die Agenten auf die Server zu verteilen, die durch den DPM abgesichert werden sollen. Wie bereits erwähnt, müssen diese wie der DPM Mitglied der Domäne sein und das jeweils aktuelle Service-Pack aufweisen - für Windows 2003 SP1 und für Windows 2000 SP4. Über das Active Directory wurden die integrierten Server anstandslos gefunden, und auch die Verteilung der Agenten verlief ohne Probleme. Microsoft gibt an, dass die Verteilung der Agenten auf maximal 50 Server parallel erfolgen kann.

Im dritten Schritt werden die Datenbereiche festgelegt, die durch das Zusammenspiel zwischen Agent und DPM regelmäßig gesichert werden sollen. Hierzu baut der Anwender eine Protection Group auf, die beschreibt, was zu sichern ist und wie oft. Zu den elementaren Einträgen gehören die Verweise auf vollständige Volumes, einzelne Verzeichnisse beziehungsweise Freigaben.

Sicherungsintervalle festlegen

Nicht minder wichtig sind Angaben zum Zeitplan. Der DPM erlaubt maximal acht Replikationen innerhalb von 24 Stunden. Beschränkt man sich dabei auf einen Acht-Stunden-Tag, lassen sich die Daten folglich stündlich sichern. Dabei ist eine Stunde auch das minimale Zeitfenster zwischen zwei Sicherungen. Entschließt man sich hingegen, auch noch spät abends oder nachts, einen Sicherungslauf einzuplanen, so müssen die Intervalle entsprechend größer angelegt werden.

Mit steigender Frequenz der Sicherung steigt auch der Platzbedarf pro Tag. Da allerdings der Storage Pool fest zugewiesen wurde, kann das zu sichernde Datenvolumen bis zu dieser maximalen Kapazitätsgrenze anwachsen. Ältere Daten werden dann automatisch überschrieben und müssen gegebenenfalls vorher auf andere Speichermedien ausgelagert werden. Aus dem Quotienten aus der bereitgestellten Kapazität und der Sicherungsfrequenz ergibt sich damit die maximale Anzahl der gesicherten Versionen.

Microsoft spricht in diesem Zusammenhang von zwei Werten: dem Recovery Point Objective (RPO) und dem Recovery Time Objective (RTO). Der RPO ergibt sich letztendlich aus dem maximalen Zeitverzug, also dem Intervall der Sicherung, während der RTO die für die Wiederherstellung der Daten benötigte Zeit beschreibt. Diese wird durch die Speicherung mehrerer Dateiversionen sicher geringer ausfallen als bei herkömmlichen Backup-Systemen, die die Daten aus den vollständigen Backups und zusätzlichen Inkrementen generieren müssen. Hier liegt eine weitere Neuerung des DPM gegenüber den gängigen Verfahren: Der Restore der Daten kann auf Wunsch auch durch die Benutzer selbst erfolgen. Diese als "End User Recovery" bezeichnete Option erfordert allerdings eine Erweiterung des Active-Directory-Schemas. Der Anwender kann eigene Dateien dann direkt aus dem Kontext seines Datei-Managers wiederherstellen. Diese Möglichkeit dürfte die Restore-Zeiten verkürzen.

Erst die Kombination dieser unterschiedlichen Konzepte, bestehend aus Snapshot-Technik, der periodischen Sicherung, der Versionierung von Dateien und dem benutzergesteuerten Restore, ergibt ein zusammenhängendes Bild und ermöglicht eine schnelle Wiederherstellung der Daten. Zu den erwähnten Konzepten kommt eine Reihe an Optionen für eine Feineinstellung der Datenreplikation hinzu: Dazu gehören beispielsweise Angaben zum Bandbreiten-Management mit der Begrenzung des vom DPM maximal zu verwendenden Anteils der Netzbandbreite. Ferner lässt sich festlegen, ob Schattenkopien verwendet werden sollen oder das Replikat auf Konsistenz zu prüfen ist.

Überwachung der Aktivitäten

Nach der vollständigen Konfiguration des Replication Set legt der DPM eine initiale Kopie der Daten an. Über eine Konfigurationsoption kann der Benutzer dies auch selbst vornehmen. Anschließend greifen die im Zuge der Konfiguration des Replication Set festgelegten Zeitintervalle. In dem mehrwöchigen Test verhielt sich das Produkt dabei entsprechend den Spezifikationen. Die Überwachung aller Aktivitäten erfolgt unter der Rubrik "Monitoring", wo hinreichend viele und detaillierte Informationen über anstehende oder bereits erfolgte Backup-Läufe zur Verfügung stehen. (kf)