Rangordnung der Anwendungen festlegen

Datensicherung darf nicht dem Zufall überlassen sein

02.10.1992

Im Rahmen eines erfolgreichen Wiederanlaufkonzeptes spielt die Datensicherung eine entscheidende Rolle. Eine genaue Analyse der Geschäftsfunktionen, so Peter Eberhard Pahlberg, zeigt, welche Verfugbarkeitsanforderungen zu stellen sind. Daraus lassen sich dann die entsprechenden Maßnahmen anbleiten.

In Sachen Datensicherung vertreten DV- Leiter häufig folgende Meinung: "Bei uns ist alles in Ordnung, es gibt nichts zu verbessern. Wir sichern montags IMS, dienstags DB2, mittwochs VSAM-Cluster, donnerstags TSO und freitags Full-Volume-Dumps. Seitdem wir die Roboter haben, läuft das nachts unbedient und vollautomatisch, selbst im Sicherheitsarchiv haben wir ein Silo für die Katastrophensicherung."

Die Datensicherung wird hier als ein optimal organisierter Teil des betrieblichen Ablaufs im Rechenzentrum gesehen. Der sparsame Einsatz von Zeit und Betriebsmitteln ist das vorrangige Optimierungskriterium. Diese organisatorischen Abläufe sind in den meisten Fällen für den Anwender nicht sichtbar. Er verläßt sich darauf, daß das Rechenzentrum schon "irgenwie" für die ständige Verfügbarkeit "seiner" DV- Anwendungen sorgen wird.

Datensicherung ist kein isoliertes Arbeitsgebiet

Bei Betrachtung dieser Anwendungen sollte man sich aber zunächst einmal von der rein betriebstechnischen Sicht der Dinge lösen. Viele Anwendungssysteme sind inzwischen sehr komplex geworden. Die einer Anwendung zuzuordnenden Datenbestände sind zum Teil unter IMS, zum Teil in DB2 und manchmal auch noch konventionell organisiert, weil die Programme "historisch gewachsen" sind. Hinzu kommt, daß die Systeme untereinander in vielfältiger Weise verzahnt sind und zueinander in Abhängigkeitsbeziehungen stehen.

Daraus ergeben sich neue Konsequenzen für die Datenhaltung, aber auch für die Sicherung der Daten. Deshalb ist es ratsam, das Sicherungsverfahren von Zeit zu Zeit kritisch zu durchleuchten. Die Datensicherung ist heute kein für sich isoliertes Arbeitsgebiet mehr, sondern Teil der Wiederanlaufplanung und der

Verfügbarkeits- Vorkehrungen für die integrierte Informationsverarbeitung.

Solange die Informationsverarbeitung reibungslos funktioniert, dient sie wie selbstverständlich zur Unterstützung der unternehmerischen Ziele. Allerdings sollten Anwender wie DV- Fachleute nicht erst bei einem Ausfall- wenn Daten zerstört sind oder Anwendungen nicht mehr laufen - feststellen, in wie starkem Maße einzelne Geschäftsfunktionen betroffen sind. Ein methodisch erstellter Wiederanlaufplan ist heutzutage unverzichtbar.

In einem ersten Schritt der Wiederanlaufplanung sollte eine Rangordnung der Anwendungen festgelegt werden. Dabei dürfte die Skala von "überlebenswichtig" bis zu "unbedeutend" reichen. Die Reihenfolge ergibt sich zwangsläufig, wenn in einer Schadenspotential- Analyse abgeschätzt wird, welche quantitativen und qualitativen Folgen bei einem Ausfall der Anwendung für das Unternehmen entstehen.

Dabei sind unmittelbare Auswirkungen wie Gewinneinbußen, Überstunden oder Umsatzausfall leichter abzuschätzen als die mittelbaren Schäden, zum Beispiel der Image-Verlust im Markt. Steht die Rangliste fest, so ist in einem nächsten Schritt der Zeitraum festzulegen, den eine Anwendung maximal ausfallen darf.

Diese Schritte erfordern methodisches Vorgehen und führen nur bei engem Zusammenwirken der DV- Spezialisten mit den Anwendern zu brauchbaren Ergebnissen. Der hier übliche methodische Ansatz besteht darin, die Verfügbarkeitsanforderungen aus den Erfordernissen der Geschäftsfunktionen abzuleiten.

In einem zweiten Schritt wird dann über die zugeordneten unterstützenden DV- Anwendungen ein Katalog von Vorsorgemaßnahmen angelegt.

Die Verfügbarkeitsanforderungen der Geschäftsfunktionen bestimmen letztendlich die Priorität, mit der eine Anwendung wiederanlaufen soll. Sie entscheiden darüber, welche Maßnahmen zu ergreifen sind, und von ihnen hängt auch der Aufwand zur Wiederherstellung des Betriebs innerhalb des vorgegebenen Zeitrahmens ab. Ein solches anwendungsorientiertes Vorgehen führt zuverlässig zu Maßnahmen, die jeder Kosten-Nutzen-Analyse standhalten. Man vermeidet die Durchführung meist technisch motivierter Einzelmaßnahmen ebenso, wie überzogene Sicherheitsvorkehrungen (zum Beispiel die Ausgestaltung des Rechzentrums als unterirdische Festung).

So gesehen ist die Datensicherung nur ein Teilaspekt im umfassenden Wiederanlaufkonzept. Allerdings lassen sich mit dem dargestellten Verfahren unter Umständen auch neue Lösungswege realisieren. Wenn die Sicherungsmaßnahmen nach den Erfordernissen einzelner Anwendungen, die durchaus unterschiedlich sein können, auszurichten sind, dann muß darüber nachgedacht werden, ob das bislang bevorzugte zeitgesteuerte Verfahren der Datensicherung möglicherweise durch ein ereignisgesteuertes ersetzt werden sollte.

Das vielerorts noch praktizierte zeitgesteuerte Sicherungsverfahren geht von einem festgelegten Sicherungszeitplan aus. Dieser ist meist auf den RZ Arbeitsplan und weniger auf den Arbeitsrhythmus einzelner Anwendungen zugeschnitten. In dem ereignisbezogenen Modell wird dagegen der Sicherungsvorgang durch bestimmte Vorkommnisse beim Ablauf der Anwendung zum Beispiel Buchungsabschluß oder gar durch den Anwender selbst ausgelöst. In vielen Fällen läßt sich mit diesem Verfahren der Sicherungsaufwand erheblich reduzieren.

Ebenfalls stellt sich die Frage ob das Datensicherungsverfahren mit anderen Maßnahmen im Einklang steht, die im Gesamtrahmen eines Wiederanlaufkonzeptes relevant sind. Solche Teilaspekte sind die Sicherheit im Bereich Datennetz und Endgeräte, die Sicherheitsvorkehrungen im Softwarebereich oder auch die Notfallplanung für das Rechenzentrum Immerhin wird der organisatorische Ablauf der Datensicherung wesentlich durch die Katastrophenplanung mitbestimmt. So wohl die Datenauslagerung in ein entlegenes Sicherheitsarchiv als auch die Planung für die Migration in das Ausweichrechenzentrum stellen wichtige Einflußfaktoren dar.

Aus diesem Kontext heraus stellen sich unter anderem folgende Fragen:

- Wie wird die zeitgerechte Wiederherstellung nach einem Primärdaten- Verlust sichergstellt?

- Wird die Aktualität, Integrität und Konsistenz der Daten gewährleistet?

- Ist der Aufwand für die Sicherung und Wiederherstellung der Daten gerechtfertigt?

- Wie läßt sich der schnelle Zugriff auf Duplikate realisieren?

- Werden dabei alle Datenschutzauflagen erfüllt?

- Wie lassen sich Aufbewahrungsfristen einhalten und kontrollieren?

- Sind die archivierten oder ausgelagerten Bestände ausreichend dokumentiert?

- Gibt es für die Archive und Sicherheitsarchive ausreichende Objektsicherungen?

- Sind die Bestände im Sicherheitsarchiv aktuell und vollständig, um problemlos in das Ausweich-RZ zu migrieren?

Ein methodisch entwickelter Plan, der von Fachleuten zusammen mit den Anwendern erstellt werden sollte, kann hier zu den richtigen Antworten führen. Um sicherzustellen, daß der so entwickelte Plan im Fall eines Falles auch wirklich funktioniert, müssen ständige Übungen und Tests durchgeführt werden.

Peter Eberhard Pahlberg ist Geschäftsführer der Debis Systemhaus Recovery Services GmbH in Ottobrunn bei München.