Speicher-Management/Verbindung von Speicher- und System-Management zu selten genutzt

Unscheinbare Softwarewerkzeuge machen die ganze Speicherarbeit

14.01.2000
von Jochen Ewe* Ob Enterprise Computing oder E-Business - die Verfügbarkeit und Sicherheit von Systemen und Daten war noch nie so wichtig wie heute. Dabei ist das Thema keineswegs neu, sondern ebenso alt wie der Mainframe, der dank seiner Zuverlässigkeit mittlerweile als Basis für komplexe Systemumgebungen reüssiert. Kein Wunder also, dass hoch entwickelte Tools für Datensicherung und Storage-Management auch und gerade von Anbietern abgedeckt werden, die ihre Wurzeln im Mainframe-Geschäft haben.

Zentrale Backup-, Restore- und Speicher-Management-Funktionalitäten waren aus Sicht der Anwender immer schon attraktiv, weil sie erhebliche Kostenspareffekte mit sich brachten. Mittlerweile - mit zunehmender Bedeutung des E-Business - sind sie zur Conditio sine qua non geworden. Denn ein Geschäftspartner, der nicht ansprechbar ist oder nicht zügig reagieren kann, wird die längste Zeit Geschäftspartner gewesen sein. Kommen im Zuge dieser aktuellen Entwicklung steinalte Software-Tools zu neuen Ehren?

"Wir behaupten, dass wir mit unseren seit zwei Jahrzehnten erprobten Tools und Packages heute noch absolut mithalten können, was die Schnelligkeit beim Katastrophen-Management und in der Wiederherstellung von Platteninhalten betrifft", sagt Wilfried Jäger, Area Manager bei Innovation Data Processing (IDP) in München. Das liege an einem intelligenten Recovery-Verfahren, mit dem sich eine beinah hundertfach höhere Geschwindigkeit erzielen lasse als bei Produkten beispielsweise von IBM. "Wir restoren nämlich nicht unnötigerweise mehrfach irgendwelche Dateien und haben außerdem die deutlich bessere Laufzeit", erklärt Jäger. Bei VW war es vor einigen Jahren um das Restaurieren von 1,7 TB Daten gegangen. Die IBM-Utilities hätten dafür im 24-Stunden-Betrieb 100 Tage benötigt. Jäger: "Wir machten das praktisch an einem Tag."

Zur Sicherstellung einer unternehmensweit optimalen Systemverfügbarkeit greifen viele Anwender auf moderne Management-Frameworks wie "Tivoli" (IBM), "Open Master" (Bull) oder "Unicenter" (Computer Associates) zurück. Doch gerade was die Bereiche Datensicherung und Speicher-Management betrifft, sind die User nicht nur in Mainframe-, sondern auch in Client-Server-Umgebungen nach übereinstimmender Ansicht von Fachleuten mit Anforderungen konfrontiert, die von diesen Frameworks nicht oder nur eingeschränkt abgedeckt werden. Es ist allerdings nicht so, dass die Anwender offener Systeme diesen Mangel einfach hinzunehmen hätten oder ersatzweise auf die Mainframe-Plattform mit ihrer Backup- und Speicher-Management-Software zurückgreifen müssten.

IDP beispielsweise hat sich mit "FDR/Upstream" der Open-Systems-Welt geöffnet. Mit diesen Tools lassen sich laut Hersteller Open-Systems-Daten mit Hilfe von Mainframe-Ressourcen sichern. Zudem kann der Mainframe diese Daten über Escon-Kanäle einlesen und verarbeiten. Das Unternehmen hat mit allen relevanten Speicherherstellern Partnerschaftsabkommen getroffen, um deren Maschinen unterstützen zu können, erläutert Jäger weiter.

Die Software macht, so der Hersteller, die offline gehaltenen gespiegelten Dateien sowohl im Routinebetrieb als auch im Katastrophenfall direkt verwendbar. Weder ihre Volume- noch ihre Katalog- oder ihre Dataset-Namen müssen zuvor renamed werden. Außerdem ist kein Kopieren auf andere Systeme erforderlich.

Zurück zu FDR/Upstream. Die Restaurantkette "Wendy´s" verwendet die Software, um bei verteilten Systemen ein Backup-, Restore- und Speicher-Management zu praktizieren, wie es auf der MVS-Mainframe-Ebene Standard ist. Wendy´s musste auf das Speicherwachstum der verteilten OS/2- und NT-Systeme reagieren. In fünf Jahren war das Datenvolumen von 250000 Dateien mit knapp 9 GB auf 1,9 Millionen Dateien mit fast 0,5 TB angewachsen. So durften die Benutzer eigene Backup-Prozeduren verwenden. Ferner wurde eine Fileserver-Backup-Insellösung installiert. Aber alle diese Verfahren hatten große Nachteile, brachten zu wenig Automatisierung und ließen sich nicht in die anspruchsvollen Backup-, Restore- und Archivierungsprozeduren auf dem Mainframe integrieren.

Durch die Implementierung von FDR/Upstream war "Wendy´s" in der Lage, den Wirkungsbereich seines Mainframe-basierten Job-Scheduling- und Tape-Management-Systems auf die offenen Server-Speicher auszudehnen. Die Burgerkette kann seither auf den Servern, auf denen sämtliche PC-Daten gehalten werden, inkrementelle und differenzielle wie auch Full-Volume-Backups beziehungsweise -Restores fahren und die Server zentral verwalten. FDR/Upstream unterstützt laut IDP nicht nur NT- und OS/2-, sondern auch Novell-Server sowie Unix-Server und -Clients, ferner DASDs (Direct Access Storage Devices).

Prinzipiell beginnt Wendy´smit einem Full-Volume-Backup aller Server-Daten. Ausgelöst wird dieses durch einen vom Job-Scheduling-System via TCP/IP oder LU6.2 an den Server übermittelten Task. Die anschließenden inkrementellen Backups sind nach IDP-Angaben zeitsparend und belasten die Bandlaufwerke und das Netz nur geringfügig. Zur Katastrophenvorsorge werden unter Einsatz von Workload-Balancing-Techniken über die Wochentage verteilt bereichsweise Full-Volume-Backups durchgeführt. So könnten beispielsweise montags die Lotus-Notes-Server an die Reihe kommen, dienstags die Voice-Mail-Systeme, mittwochs die Remote-Server etc.

Seit rund einem Jahr setzt auch der Siemens-Unternehmensbereich Information and Communication Networks (ICN) auf die IDP-Software. Die Münchner haben damit ihr Ziel erreicht, für die Sicherung ihrer auf einer "EMC 5700" abgespeicherten NT-Daten die vorhandene Mainframe-Infrastruktur einzusetzen. "EMC und IDP boten uns hier eine Lösung, die den Escon-Kanal für den Datentransfer nutzt. Durch das Zusammenwirken der IDP-Software mit EMCs ,Time Finder´ ergab sich zusätzlich die Möglichkeit, die für die konsistente Sicherung nötige Downtime unserer NT-Umgebung minimal zu halten", erklärt Hans-Peter Seibert, Leiter LAN bei Siemens ICN.

Für Daten, die in Open-Systems-Umgebungen anfallen, hat auch Interchip aus München Speicher-Management-Software im Angebot. Karl Heinz Wimmer, Leiter Professional Services, positioniert sein Unternehmen aber doch mehr im OS/390-Mainframe-Umfeld, wo Interchip vor vielen Jahren als Anbieter von Speicher-Management-Lösungen gestartet war. Die sind jedoch mittlerweile auf Umwegen bei BMC gelandet. Inzwischen ist Interchip in viele weitere Marktsegmente hineingewachsen, verfügt aber nach eigenen Angaben immer noch über den Erfahrungsschatz aus Großprojekten in Sachen SMS-Einführung (System-Managed Storage auf dem MVS-Host) und Katastrophenvorsorge. Außerdem setzt der Anbieter weiterhin auf eigenentwickelte sowie auf Speicher-Management-Software von amerikanischen Anbietern. Drei dieser insgesamt vier Produkte zielen auf OS/390-Umgebungen.

Als ein "Reporting-Tool mit Automatisierungsmöglichkeiten" charakterisiert Wimmer die von Interchip vertriebene "HSM Solution". Die Software wertet die Logs des IBM-Datei-Management-Systems "DFHSM" aus und nutzt sie zur Überwachung von dessen Aktivitäten wie Backup, Migration und Volume Dump. Ist beispielsweise ein Backup fehlgeschlagen, bietet HSM Solution Anwendern die Möglichkeit, einen Plan zu hinterlegen, wie der neue Backup-Lauf gestartet werden soll.

Laut Wimmer spielt die Frage nach der Verträglichkeit der Interchip-Tools mit System-Management-Frameworks für die Kunden so gut wie keine Rolle. Diese Tools liefen auf dem Host, wo der Anwender keinen Bedarf an Einbindung habe. Anders sei dies allenfalls bei "Mainstar Monitor Plus for Tivoli", einer Software, die ins Client-Server-Umfeld hineinwirkt und die Interchip quasi als Add-on zur IBM-Speicher-Management-Software "ADSM" anbietet. "Man stelle sich," sagt Wimmer, "eine verteilte Umgebung mit vielen ADSM-Servern und noch mehr Clients vor." Hier sei ein Überblick über die Sicherung der Client-Daten für den Systemverantwortlichen normalerweise kaum mehr möglich. Interchip stellt dafür eine zentrale Konsole zur Verfügung, die sich an ADSM anklinkt. Von ihr aus kann in bestimmten Zeitabständen ein Polling auf die ADSM-Server ausgelöst und dadurch in Erfahrung gebracht werden, wie erfolgreich oder fehlerhaft eine Datensicherung verlaufen ist.

Mainstar Monitor plus überwacht laut Hersteller aber auch die ADSM-Umgebung selbst, darunter vor allem die Datenbanken und den Grad ihrer Belegung. Um sich vor Informationslawinen zu schützen, können Anwender Filter setzen. Außerdem lässt sich festlegen, welche Maßnahmen beim Eintreffen bestimmter Nachrichten automatisch vorgenommen werden - so etwa ein Alert auf einer Tivoli-Konsole.

Von SEA Europe aus Münster ist zu hören, dass es Anwender gibt, die ihre Speicher-Management-Software in eine System-Management-Software integrieren. Helmut Böcker, Leiter des technischen Supports, bewertet dies positiv, weil sich Anwender, wenn sie die Batch-Funktionen Backup, Restore und Datensicherung per Scheduling mit einem Online-System-Management verknüpfen, darauf verlassen können, dass die zentrale Steuerung den ordnungsgemäßen Ablauf der Speicher-Management-Vorgänge überwacht. Dazu ist allerdings erforderlich, dass die Batch-Software nicht proprietär aufgesetzt ist, sondern sich an den Standards des jeweiligen Betriebssystems orientiert. Bei SEA Europe sei dies der Fall, wenn auch (bis auf eine Ausnahme) die SEA-Produkte nur OS/390 oder VSE unterstützten. Bei der Ausnahme handelt es sich um ein plattformübergreifendes Scheduling, mit dem Anwender unter anderem Speicher-Management planbar machen können. Das SEA-Scheduling steht in Konkurrenz zum Scheduling unter Unicenter beziehungsweise unter einem zum Tivoli-Frame gehörenden Tool.

Zum Thema Speicher-Management merkt Böcker an: "Sollte ein Anwender des SEA-Bandverwaltungssystems eine Anbindung seiner Lösung ,nach oben´ planen, dann käme statt Tivoli oder Unicenter vornehmlich IBMs SMS in Betracht." SMS, eine Erweiterung des HSM (Hierarchical Storage Management), disponiere Speicherkapazitäten und optimiere die Speichernutzung. Wenn es im OS/390-Betrieb Probleme mit SMS oder HSM gebe, könne der Anwender auf die SEA-Software zurückgreifen, die die von IBM definierten Schnittstellen unterstützt.

Im Bereich Speicher-Management (DASD-Management) auf dem Host tritt SEA zum einen mit Produkten an, die vereinfacht gesagt das Kopieren von Dateien weniger zeitaufwändig machen. So stellt SEA für Partitioned-Organized-(PO-)Dateien, sequenzielle High-Performance-Kopier-Utilities bereit. Den Nutzen schnellen Kopierens erklärt Böcker anhand der Mainframe-residenten PO-Dateien: Diese haben ein Verzeichnis sowie einen Datenbereich, der beliebig viele Files aufnehmen kann. Wird eines gelöscht oder geändert, wird der bisherige Speicherplatz nicht automatisch verfügbar, sondern erst nach einem Kompresslauf mit komplett neuer Platzzuweisung. Dieser Vorgang nimmt kostbare Zeit in Anspruch. Der Zeitverbrauch - auch beim Einlesen und Kopieren - ist bei den PDSE-Dateien, die IBM später eingeführt hat, sogar eher noch höher.

Die auf den RZ-Festplatten befindlichen PO-Dateien, zum Beispiel Datenbanken oder VSAM-Cluster, verwaltet die Speicher-Management-Software von SEA in verschiedener Weise. So können Anwender mit Hilfe globaler Parameter erstens die Kompressläufe steuern und zweitens freizuhaltenden Speicherplatz bemessen. Außerdem ist es möglich, die Allokation des Directory-Bereichs einer Datei dem aktuellen Bedarf anzupassen, ohne dass diese neu angelegt werden müsste. SEA habe mit seiner Softwarepalette in den MVS-Rechenzentren weltweit Erfolg, berichtet Böcker. In 50 Prozent all dieser Sites übernähmen SEA-Tools Aufgaben des Speicher-Managements, so auch im Rechenzentrum der IBM Deutschland. Böcker: "Von unserem Erfolg ist draußen jedoch nur wenig bekannt, weil unsere Software im Prinzip im Hintergrund läuft."

Heiko Rebernik, Director Customer Service bei Sterling Software in Düsseldorf, sieht wenig Sinn darin, Client-Server-Daten zu Backup-Zwecken auf den Mainframe zu schieben, um sie dann in einer Tape-Library zu speichern. Dennoch ist eine Zusammenarbeit zwischen "SAMS Disk" (SAMS = Storage Automation Management System), Sterlings Backup-Lösung für den Mainframe, und "SAMS Alexandria", der Backup-Lösung für den Client-Server-Bereich, möglich. Daten-Server im Sterling-Modell ist in der Regel eine Unix-Maschine. Daran angeschlossen ist meist eine Bandbibliothek, und der darin arbeitende Bandroboter lässt sich auch vom Mainframe aus ansprechen. "Wir empfehlen unseren Anwendern jedoch meistens, ihre Client-Server-Daten direkt auf den Bandroboter zu schreiben," betont Rebernik.

Wirklich wichtig und in vielen Anwenderunternehmen ein Problem, sei dagegen das Backup der PC-Daten, und hier vor allem der Notebook-Daten. "Wie sichern denn Außendienstler ihre Dateien, wenn sie Kontakt mit dem Zentralsystem aufnehmen?", fragt Rebernik. "Meist unzureichend und oft genug überhaupt nicht." Ein Beispiel: die vom Außendienstler geänderte Folie seiner umfangreichen "Powerpoint"-Präsentation. Damit der Benutzer solche Softwaremodifikationen mit zumutbarem Aufwand sichern kann, schickt Sterling "SAMS Lifeguard" ins Rennen. Hauptmerkmal dieser Software ist, dass sie lediglich die geänderten Daten sichert, und zwar nicht auf Datei-, sondern auf Byte- beziehungsweise Blockebene. Im gewählten Beispiel käme es also nur zur Sicherung der geänderten, vielleicht 20 KB großen einzelnen Folie an Stelle der MB-mächtigen Gesamtdatei.

Doch Lifeguard kann laut Hersteller noch mehr: Es befreit Anwender bei Bedarf von der lästigen Pflicht der regelmäßigen Datensicherung. Angenommen, der Benutzer baut eine Verbindung auf, um vom zentralen Server seine E-Mails abzuholen. Dann erkennt das Sterling-Tool, dass es diese Verbindung gibt und nutzt sie, um für den Benutzer unbemerkt die Sicherung durchzuführen. So muss es aber nicht sein. Entscheidend ist, welche Regeln der zentrale Administrator aufstellt - konkret: welche Dateien oder Dateitypen er der automatischen Kontrolle von Lifeguard unterstellt und welche nicht.

Auf dem Backup als unterer Ebene baut Sterling im Rahmen seiner Speicher-Management-Strategie E3 (End-to-End-Enterprise) ein Storage-Resource-Management (RSM) auf. Das Schlüsselelement ist hier die Softwaresuite "SAMS Vantage", die laut Hersteller neben Automation und Monitoring auch das Reporting und Trendanalysen besorgt. Die Software verfüge ferner über Schnittstellen nach unten (SAMS Alexandria, IBMs ADSM etc.) wie auch nach oben - via SNMP - zu Tivoli, "HP OpenView" und anderen Frameworks.

"Es ist zweifellos sinnvoll, ein System-Management-Framework einzusetzen. Nur ist so ein Framework meist nicht in der Lage, detaillierte Point-Solutions zu liefern; das macht SAMS Vantage", kommentiert Rebernik. Sterling biete damit eine durchgehende Automatisierungs-Policy unter einer einheitlichen Oberfläche, die vom Mainframe bis zum Laptop reicht. Der Manager räumt allerdings ein, dass in manchen Bereichen noch Handlungsbedarf besteht. So zum Beispiel beim Management der Hubs, Switches und Router, die zu einem Storage Area Network gehören. Die dazu notwendigen Ressourcen, deutet er vorsichtig an, seien im eigenen Unternehmen jedoch bereits vorhanden.

Angeklickt

Mit den hohen Anforderungen der Anwender, was die Sicherheit ihrer Daten betrifft, sind die großen Frameworks wie Tivoli oder Unicenter meist überfordert. An dieser Stelle kommen oft Applikationen kleiner Unternehmen ins Spiel, deren Erfahrungen noch aus dem großen Zeitalter der Mainframes stammen. Heute in der Renaissance des zentralen Großrechners spielen diese Firmen ihren Vorteil aus und bieten auf spezielle Aufgaben abgestimmte Speicher-Tools auf dem Markt an.

Weitere Infos

Innovation Data Processing 089/489 02 10;

Interchip 089/920 98-142;

SEA Europe 0251/484 87-18;

Sterling Software 0211/4951-0.

*Jochen Ewe ist freierJournalist in Flintsbach am Inn.