Analysten empfehlen Konsolidierung

Speichersysteme sollen zurück in die Rechenzentren

26.06.1998

Über Jahre hinweg hat die IT-Industrie die Einrichtung dezentraler Strukturen über Client-Server-Konzepte propagiert. Nun scheint das Pendel zurückzuschwingen. Die Diskussion über eine Rezentralisierung von Rechenkapazitäten hat kaum richtig begonnen, da haben Experten schon die nächste Herausforderung für die ohnehin überlasteten IS-Manager ausgemacht. Glaubt man den Aussagen von Branchenbeobachtern und Herstellern, so liegt die Zukunft der unternehmensweiten Datenhaltung in konsolidierten und vernetzten Speichersystemen - mit zentralen Kontrollmechanismen für sämtliche Verwaltungsaufgaben. Die Schlüsselelemente in diesem Szenario bilden intelligente Speicher-Server, Fibre-Channel-basierte Speichernetzwerke und zentrale Management-Systeme.

In den kommenden zwei Jahren würden etliche Organisationen versuchen, Speicherressourcen zu konsolidieren, prognostiziert etwa die Meta Group. Für eine Zentralisierung gibt es den Analysten zufolge gute Argumente. So verursache etwa die Verwaltung unterschiedlicher Speichersysteme, die üblicherweise in einer Vielzahl dezentraler Server installiert sind, erhebliche Kosten. Würden diese Kapazitäten in externe Speichersubsysteme konsolidiert, ließe sich die gleiche Datenmenge mit einem Drittel bis zu einem Viertel des Personalaufwandes verwalten. In NT-Umgebungen sei dieser Effekt besonders ausgeprägt.

Die Marktforscher der IDC argumentieren ähnlich: In einer dezentralen IT-Struktur seien Sto- rage Manager erfahrungsgemäß in der Lage, jeweils etwa 100 GB Speicherplatz zu verwalten. Mit Hilfe konsolidierter Speichersysteme, die unter anderem besser ausgelastet würden, könnte ein Administrator dagegen mehr als 750 GB kontrollieren. In einer Studie rechnet IDC zudem Kostenersparnisse vor. Die Analysten vergleichen in einer Modellrechnung Server-abhängige, dezentrale Speicher mit zentralen, sogenannten Enterprise-Storage-Lösungen. Dabei wurden neben den Hardwarekosten auch die Aufwendungen für die Verwaltung der Speichereinheiten berücksichtigt. Bei der Enterprise-Lösung entsteht nach Addition von Hardware- und Verwaltungskosten ein Preis pro MB und Jahr von 0,65 Dollar. Obwohl die Hardwarekosten dezentraler Lösungen um die Hälfte niedriger angesetzt sind, summiert sich aufgrund der höheren Management-Aufwendungen der Betrag auf 0,76 Dollar, 17 Prozent mehr als bei der zentralen Installation (siehe Grafik "Speicherkosten").

Speicherkonsolidierung ist allerdings nicht zum Nulltarif zu haben, gibt IDC-Analyst Chris Christiansen zu bedenken. Eine ganze Reihe organisatorischer und technischer Maßnahmen ist dabei zu treffen. IS-Manager, die auf ein unternehmensweites Speichermodell migrieren wollen, müssen es schaffen, alle Operationen als eine Einheit zu verwalten. Dazu ist es erforderlich, die festen Verbindungen zwischen Abteilungen und Speichern zu durchbrechen. Christiansen: "Eine Kategorisierung von Speicherressourcen muß sich an Anwendungen orientieren, nicht an Organisationseinheiten." Dies jedoch stößt häufig auf Widerstand in den Abteilungen, die auf eigenes Personal, Dienstleistungen und Daten verzichten müssen.

Bei der Zusammenführung von Speicherkapazitäten spielen intelligente Storage Server die zentrale Rolle. Fast alle großen Hersteller der Branche bieten mittlerweile entsprechende Systeme an, darunter EMC, Comparex/Hitachi, IBM, Storagetek, Sun oder Amdahl. Noch 1997 konstatierten Beobachter wie die Meta Group eine Teilung des Speichermarktes in sogenannte "Controller-light"-Varianten - herkömmliche Raid-Subsysteme mit SCSI-Schnittstellen - und "Controller-heavy", dedizierte Speicher-Server mit Großrechnerverbindungen. Die Grenzen zwischen diesen Systemen verschwimmen in jüngster Zeit wieder. Mit der wachsenden Verbreitung unternehmensweiter Anwendungen wie der von SAP oder Baan integrieren Controller-light-Anbieter neben den üblichen Funktionen zur Datenspeicherung und -wiedergewinnung zunehmend auch Mechanismen zur Erhöhung der Verfügbarkeit, beispielsweise durch Remote-Mirroring Funktionen (Datenspiegelung an entfernten Standorten).

Entscheidend für den unternehmensweiten Einsatz der Speicher-Server ist deren Fähigkeit, unterschiedliche Hosts mit Daten versorgen zu können (Multihost-Connectivity = MHC). Bis vor kurzem bot nur eine Handvoll Hersteller derartige Systeme an, beispielsweise EMC mit der "Symmetrix"-Baureihe oder der US-Hersteller MTI mit seinen "Gladiator"-Subsystemen. Der Hitachi-Vertriebspartner Comparex ("Tetragon"-Baureihe) und Amdahl mit den "Spectris-Platinum"-Speichern werben ebenfalls mit der Fähigkeit, sowohl Main- frame- als auch Open-Systems-Server bedienen zu können. Nach dem Kauf von Encore verfügt auch Sun mit dem "Storedge A7000 Intelligent Storage Server" über ein Multihost-fähiges Subsystem, das neben Großrechnern und Unix-Servern auch NT-Systeme ansteuern können soll. Das jüngste Beispiel liefert IBM mit dem "Versatile Storage Server" (VSS), der nach Herstellerangaben Unix- und NT- sowie AS/400-Midrange-Server unterstützt. Auch die Anbindung von Großrechnern über Escon-Kanäle möchte IBM mit dem VSS in Zukunft ermöglichen. Mit Hilfe eines Escon-zu-SCSI-Gateways sollen Unix- oder Windows-NT-Server auch Zugriff auf IBMs Großrechner-Speicher der "Ramac"-Serie erhalten.

In den Jahren 1999 und 2000 werde eine ganze Reihe von Server- und Storage-Herstellern Strategien anbieten, die eine Controller- heavy-(Speicher-Server-)Architektur propagieren, prognostiziert die Meta Group. Ziel dieser Bemühungen sei, die unternehmenskritischen Daten von Kunden zu kontrollieren und damit an Macht zu gewinnen. Ab dem Jahr 2001 werden die meisten Storage- und Server-Anbieter Speicherlösungen vermarkten, die verschiedene File-Systeme, Data-Sharing (gemeinsame Nutzung desselben Datenbestandes) und Datenbanken unterstützen. IT-Organisationen würde dann eine "Onestop"-Storage-Lösung angeboten werden. Um Herstellerabhängigkeiten niedrig zu halten, empfehlen die Auguren, mindestens zwei Anbieter zum Zuge kommen zu lassen.

"Echtes Data-Sharing" ist nach Auffassung der Meta Group nicht vor dem Jahr 2000 zu erwarten. Die Hersteller werben zwar schon jetzt mit entsprechenden Fähigkeiten ihrer Systeme. Gegenwärtig werde unter Data-Sharing jedoch üblicherweise verstanden, daß sich Multihost-Umgebungen ein Speichersubsystem teilen. Jeder Server verfügt dabei in der Regel über eine fest zugewiesene Kapazität - ein oder mehrere Plattenstapel -, auf die nur er zugreifen kann. Selbst EMCs Symmetrix-Maschinen mit Unix-Mainframe-Connectivity arbeiten mit getrennten Partitionen für zwei oder mehrere Hosts. IBM verspricht mit seinem Versatile Storage Server unter bestimmten Voraussetzungen den Zugriff mehrerer gleichartiger Server auf eine einzige Datenkopie.

Die Analysten der Meta Group gehen andererseits davon aus, daß 95 Prozent der Applikationen gar kein echtes Data-Sharing benötigen, sondern mit einer stabilen Datenpartitionierung mit gegenseitigen Copy-Funktionen besser funktionieren. Beim Informatik-Zentrum Bayern (IZB) etwa, IT-Dienstleister der bayerischen Sparkassen und der Bayerischen Landesbank, beurteilt man Data-Sharing-Funktionen zurückhaltend. "Die Hersteller kochen das Thema hoch", meint Jürgen Domnik, verantwortlich für das Speicher-Management. Beim IZB, das derzeit mehr als 7 TB Daten vorhält, gebe es diesbezüglich noch keinen Bedarf.

Langfristig sollten konsolidierte, von Servern abgetrennte Speicherumgebungen in Storage Area Networks (SANs) eingebunden werden, empfehlen Experten (siehe CW 16/98, Seite 37). "In Zukunft werden Speichersysteme nicht mehr mit einzelnen Servern, sondern mit Switching-Komponenten verbunden, die Verknüpfungen zwischen beliebigen Endgeräten oder LANs und WANs herstellen können", meint Mark Raphael, Analyst bei der Meta Group in Großbritannien. Als Schlüsseltechnik für Speichernetzwerke kristallisiert sich Fibre Channel heraus. Dies spiegelt sich in den Strategien der Hersteller wider. Nahezu alle bedeutenden Speicherlieferanten, beispielsweise EMC, Sun, Comparex oder DEC, bieten inzwischen für Fibre Channel vorbereitete Produkte an. Die bisher der eigenen SSA-Schnittstellen-Technik verhaftete IBM kommuniziert eine "Fibre-Channel-Strategie" als Teil ihres "Seascape"-Frameworks. Im Versatile Storage Server ist diese allerdings noch nicht verwirklicht. Neben den SSA-Adaptern und -Festplatten bietet der Speicher-Server nur SCSI-basierte Verbindungen zu Host-Systemen. Die Unterstützung von Fibre-Channel-Links ist für das vierte Quartal 1998 geplant.

In der Praxis sind Fibre-Channel-gestützte Storage Networks noch die Ausnahme. "Viele Kunden reden darüber, doch niemand tut es", berichtet Meta-Analyst Raphael. Realisierte SAN-Konzepte erwartet er nicht vor dem Jahr 2001. Noch weiter in der Zukunft dürften mehrschichtige, unternehmensweite Backup- und Recovery-Systeme liegen, die Raphael als die nächste große Herausforderung nach der Konsolidierung und SAN-Implementierung betrachtet. Um geografisch verteilte Backup- und Recovery- (B/R-)Aufgaben lösen zu können, greifen IT-Abteilungen heute häufig auf zentralisierte Management-Systeme zurück. Entsprechende Tools, zum Teil Java-basiert und für den Einsatz über Web-Browser konzipiert, existieren bereits. Die Ausführung der B/R-Funktionen bleibt jedoch dezentral. Erst in den Jahren 2001 oder 2002, so die Prognose der Meta Group, würden IT-Organisationen in die Lage versetzt, über verschiedenartige Storage-Hardware eine Softwareschicht zu legen, die es ermöglicht, unternehmensweite Verwaltungs- sowie Backup- und Recovery-Infrastrukturen aufzubauen.

Abb.1: Speicherkosten

IDC berücksichtigt in einer Vergleichsrechnung sowohl Hardware- als auch Verwaltungskosten. Dabei schneidet die zentrale Lösung besser ab. Quelle: IDC

Abb.2: Speichernetzwerk

Über das Storage Network der Zukunft sind beliebige Verbindungen zwischen Speicherressourcen und Servern im LAN- oder WAN-Verbund schaltbar. Quelle: Meta Group