Verteiltes Daten-Management und zentrale Administration Client-Server-Konzept fuer die Datensicherung im grossen Netz

18.11.1994

Von Rudolf Baumann*

Grafikorientierte Anwendungen und Benutzer-Schnittstellen verlangen zusehends mehr vom guenstig gewordenen Massenspeicherplatz. Die Kapazitaet im LAN waechst buchstaeblich explosionsartig. Mit herkoemmlichen Methoden der Datensicherung ist dieser Datenflut nicht mehr vernuenftig zu begegnen. Unbestritten bleibt jedoch die Notwendigkeit eines zuverlaessigen Backups.

Die Massenspeicherkapazitaet erhoeht sich seit 1988 schaetzungsweise um 60 Prozent jaehrlich. Hauptverantwortlich fuer dieses dramatische Wachstum sind die steigende Zahl der an Netzen angeschlossenen PCs und kompliziertere sowie leistungsfaehigere Betriebssysteme und Anwendungen. Wie die Marktforscher von Peripheral Strategies ermittelt haben, ist der Anteil vernetzter PCs von 29 Prozent im Jahr 1991 auf heute 43 Prozent gestiegen. 1997 sollen derselben Quelle zufolge 73 Prozent aller PCs ueber ein Netz verbunden sein. Ebenso tragen grafische Benutzer-Interfaces wie Microsoft Windows und OS/2, Praesentations- und Darstellungssoftware sowie CAD/CAM- Systeme zum steigenden Speicherbedarf bei.

Einen neuen Nachfrageschub in Sachen Plattenplatz wird die breite Einfuehrung von Multimedia-Anwendungen bringen. Peripheral Strategies prognostiziert, dass die typische Online-Kapazitaet eines Netzwerks zwischen 1991 und 1997 von 2,7 auf 41 GB zunehmen wird. Bei einer durchschnittlichen Diskbelegung von 70 Prozent und einer Datensicherung bei 20 Prozent aller Server und Clients betrug das zu sichernde Datenvolumen im Jahr 1991 1,4 GB. 1997 wird es schaetzungsweise auf 8,4 GB ansteigen.

Wie jede Form der Datenspeicherung verursachen auch Verwaltung und Sicherung elektronischer Daten Kosten. Im Unterschied zu konventionellen Datenbestaenden - beispielsweise einer Bibliothek - sind elektronische Daten wesentlich fragiler. Sie aendern sich staendig und wachsen extrem. Ein grosser Teil der Daten muss deshalb mindestens einmal taeglich gesichert werden - keine leichte Aufgabe, wenn man sich deren Umfang vor Augen haelt.

1991 hat eine Untersuchung von Ledgway Group/Dataquest gezeigt, dass das Management eines File-Servers im Durchschnitt 98 Stunden pro Monat erfordert - davon entfielen allein 68 Stunden auf das Backup. Die Kosten fuer die Datensicherung sind deshalb nicht zu unterschaetzen, sie lassen sich jedoch auch optimieren.

Fuer eine zuverlaessige Kostenrechnung muessen mehrere Faktoren beruecksichtigt werden: etwa das Recovery oder LAN-Totzeiten bei katastrophalen Ausfaellen. In diesem Zusammenhang sei eine Untersuchung der Infonetics Inc. bei Fortune-1000-Unternehmen aufgefuehrt. Dabei fand man heraus, dass die Ausgaben fuer totale Netzausfaelle jaehrlich knapp 3,5 Millionen Dollar betrugen, was durchschnittlich mehr als 3,5 Prozent der Einnahmen entsprach.

Magnetband ist immer noch am guenstigsten

Ferner sind Beschaffungskosten, Kapazitaet, Geschwindigkeit, Sicherheit, Zuverlaessigkeit und Ausgaben pro MB bei der Wahl einer Backup-Loesung zu beruecksichtigen. Weil Magnetband immer noch mit Abstand der guenstigste Datentraeger ist, werden heute meist Quarter Inch Cartridges (QIC), Vier-Millimeter-DAT- und Acht-Millimeter- Video-Baender eingesetzt. Momentan liegen Digital Audio Tapes sowohl in bezug auf die Geraete als auch hinsichtlich der Mediakosten am niedrigsten.

Die Methoden fuer das Speicher-Management haben sich in den letzten Jahren stark veraendert. Sie lassen sich grob in drei Arten unterteilen:

- Jede Arbeitsstation kontrolliert und besitzt ihr eigenes Backup- Geraet.

- Der File-Server ist mit einem Bandgeraet ausgeruestet, der Backup- Vorgang wird von einer Arbeitsstation aus kontrolliert.

- Ein oder mehrere Bandgeraete sind an einem oder mehreren File- Servern angeschlossen. Die Datensicherung wird von mehreren Arbeitsstationen oder Servern aus ueberwacht.

Die erste Methode ist nur in sehr kleinen DV-Umgebungen praktikabel und deshalb heute meist unbrauchbar. Ihre Effektivitaet haengt hauptsaechlich von der Disziplin der einzelnen Benutzer ab. Zeit und Geld lassen sich mit einem Netzwerk-Backup einsparen. Die Sicherung des File-Servers von einer Arbeitsstation aus wird haeufig angewendet, besitzt aber ein paar schwerwiegende Nachteile. Normalerweise kann nur der Netzadministrator Sicherungs- und Wiederherstellungsvorgaenge starten. Die Administration ist auf eine einzelne Arbeitsstation beschraenkt; nur diese wird zusammen mit dem Band-Server in den Backup-Prozess einbezogen. Zudem steht zur Sicherung und Wiederherstellung von Daten nur ein Bandgeraet zur Verfuegung. Damit eignet sich diese Variante ebenfalls nur fuer kleine Netze.

In einem groesseren Netzwerk bietet ein zentralisiertes Client- Server-Modell eine effektivere Kontrolle und eine bessere Ausnutzung der Ressourcen. Traditionelle Sicherungsstrategien stuetzen sich dabei auf den Band-Server, der alle Management- Prozesse ausfuehrt. Die Clients warten auf Instruktionen des Servers. Dadurch ist der Band-Server voll mit der Datenverarbeitung beschaeftigt und kann seine volle Sicherungskapazitaet nicht ausnutzen.

Eine bessere Moeglichkeit bietet das Konzept des "Distributed processing". Das Daten-Management wird hier auf alle Arbeitsstationen und Server im Netz verteilt. Die Backup-Software besteht aus drei Teilen:

- einem Programm, das auf dem Band-Server laeuft und den Bandinhalt in einer Datenbank protokolliert;

- einem weiteren Teil, mit dem der Administrator Sicherungsprozeduren entwirft oder modifiziert sowie Backups und Restorings initialisiert, und

- dem dritten Programmteil, den "Datenpumpen". Diese aktiven Clients bestimmen die Dateien fuer das Backup und uebernehmen den Transfer der fertig aufbereiteten Daten und der zugehoerigen Informationen zum Band-Server.

Client-Server-Konzept mit zentraler Administration

Die Vorteile dieser Client-Server-Methode sind die substantielle Entlastung des Band-Servers, eine geringere Netzbelastung und optimale Bedingungen fuer das Daten-Streaming. Backups lassen sich schneller ausfuehren, weil die Daten bereits auf den einzelnen Arbeitsstationen aufbereitet werden. Dabei koennen mehrere Clients gleichzeitig aktiv sein und ihre Datenstroeme zum Tape-Server senden.

Unterstuetzt wird diese Technik mit speziellen Datentransferprotokollen, beispielsweise mit CXNP (Concurrent Transfer Network Protocol) in Novell-Netzen. Dabei handelt es sich um Protokolle, die auf die Uebermittlung grosser Datenmengen optimiert sind. CXNP uebertraegt Daten in 16-KB-Stuecken, das Standardprotokoll SPX (Sequenced Packet Exchange) braucht 512 Byte grosse Pakete.

Mit dem Backup-Programm "Proserve CX" von Sytron koennen bis zu acht Clients gleichzeitig Daten zum Server senden. Im Streaming mode schreibt das Bandgeraet ununterbrochen mit seiner Hoechstgeschwindigkeit, weil die Daten rasch genug nachgeliefert werden. Die Software bestimmt die optimale Reihenfolge der Clients fuer die Sicherung und vermeidet es, dass langsamere Maschinen den Prozess verzoegern.

Moderne Bandgeraete sind in der Lage, Daten mit grosser Geschwindigkeit aufs Magnetband zu schreiben. Transferraten von einigen Megabyte pro Sekunde sind nichts Ungewoehnliches mehr. Proserve CX erreicht zum Beispiel Uebertragungsraten von 120 MB (lokal) und ueber das Netz von 45 MB pro Minute. Mit konventioneller Technologie betraegt die Uebertragungsrate 3 bis 8 MB pro Minute.

Der Client-Server-Ansatz ist von seiner Anlage her bestens fuer eine zentralisierte Administration geeignet. Das Backup laesst sich fuer alle Server und Clients vom Rechner des Administrators aus managen. Neue Stationen sollten von der Sicherungssoftware automatisch eingeschlossen werden.

Das Kontrollprogramm auf dem Administrationsrechner kommuniziert mit Serviceprogrammen auf den File-Servern und Arbeitsstationen. So bestimmt es Dateien auf den einzelnen Rechnern, die in das Sicherungsverfahren einbezogen werden. Ein aehnlicher Mechanismus greift beim Restoring: Dieses Konzept erlaubt die zentrale Verwaltung grosser und komplexer LANs oder gar WANs. Langsame Netzverbindungen werden nur zur Kontrolle des Backups eingesetzt. Die Sicherung der Daten selbst passiert innerhalb des schnellen Netzwerkteils auf dem lokalen Band-Server. Einmal auf Band, werden Daten sofort wertlos, wenn sich ihr Ursprung nicht mehr rekonstruieren laesst. Wichtig ist deshalb eine automatisch nachgefuehrte Datenbank, die eine gesuchte Datei auf einem bestimmten Band schnell lokalisiert. Die Nachfuehrung einer solchen Datenbank ist fuer das Recovery ausschlaggebend. Fuer eine Wiederherstellungsoperation sollte dem Administrator im Klartext angegeben werden, auf welchem Band und an welchem Ort sich die gesuchte Datei befindet. Ein Rotationsschema fuer die Magnetbaender optimiert deren Ausnutzung.

* Rudolf Baumann ist technischer Mitarbeiter bei der L&W Marcom AG in Zuerich.