Dringend benötigte Verwaltungs-Tools fehlen

SAN-Anbieter lassen ihre Kunden weiter warten

21.01.2000
MÜNCHEN (ba) - Die Aussichten für das Speicherjahr 2000 sind nicht gerade rosig. Auf der einen Seite werden die Anwender von einer immer weiter anschwellenden Datenflut überrollt. Auf der anderen Seite lassen sich die Anbieter von Storage Area Networks (SANs) Zeit. Unbeeindruckt von den Wünschen nach zentralem und plattformübergreifendem Management, verfolgen die Hersteller stur die eigenen Interessen oder reiben sich in endlosen Streitigkeiten um Standards auf.

An der problematischen Situation wird sich so schnell nichts ändern. In einer Studie haben Analysten der Meta Group versucht, einen sinnvollen und realistischen Fahrplan für die Implementierung einer herstellerneutralen SAN-Architektur aufzustellen. Das ernüchternde Ergebnis: Bis der Zug in seinen Zielbahnhof einrollt, dürften noch etwa drei bis vier Jahre vergehen.

Doch so lange werden die meisten Anwender nicht mehr warten können. Angesichts einer zwischen 200 und 300 Prozent jährlich anwachsenden Datenflut steht den DV-Abteilungen das Wasser bis zum Hals. Außerdem geht es heute nicht mehr nur darum, die Daten irgendwo zu verstauen. Die Zeiten, in denen einfach zusätzliche Plattenkapazitäten an die Rechner angeschlossen wurden, sind vorbei. Speicherwildwuchs kann sich in Zeiten von Internet und E-Commerce aber kein Unternehmen leisten.

Heute geht es vielmehr darum, die geschäftskritischen Informationen absolut sicher und hochverfügbar vorzuhalten. Um dies zu erreichen, müssen die Unternehmen eigene Speicherarchitekturen aufbauen, in denen die Administratoren die Daten effizient verwalten können. Im Laufe des vergangenen Jahres haben vor allem die Architekturtypen SAN und Network Attached Storage (NAS) von sich reden gemacht.

Während in einem NAS-System Speichersysteme in ein bestehendes Local Area Network (LAN) integriert werden, bildet das SAN ein vom LAN abgekoppeltes Speichernetz, in dem die einzelnen Systeme meist auf Fibre-Channel-(FC-)Basis über Hubs und Switches miteinander verbunden sind. Von seiner Anlage her verspricht das SAN die bessere Speicherverwaltung. Durch die getrennten Netze wird das LAN nicht durch zusätzlichen Speicherverkehr belastet. Außerdem ist es im Idealfall möglich, von jedem Client im LAN auf jede Information im SAN zuzugreifen. Das erfordert allerdings effiziente Verwaltungs-Tools, die das Speichernetz voll unter Kontrolle haben.

Soviel zur Theorie. Die Realität sieht jedoch anders aus. Zwar arbeiten die Hersteller mit Hochdruck an neuen Entwicklungen im SAN-Bereich. Doch im Grunde kocht jeder Hersteller sein eigenes Süppchen und versucht, seine Produkte mit seinen Standards zu verkaufen.

Von der vielbeschworenen Interoperabilität und plattformübergreifenden Speichernetzen ist bislang noch nichts zu sehen. Diese Einschätzung teilen auch die Analysten des Marktforschungsunternehmens Meta Group.

In einem Modell haben die Experten sechs Ebenen definiert, aus denen sich eine SAN-Architektur zusammensetzt (siehe Grafik). Doch große Teile dieses, laut Definition, Idealmodells einer Speicherarchitektur sind noch Zukunftsmusik. Es werde noch drei bis vier Jahre dauern, bis alle Probleme gelöst seien, glaubt Norbert Deuschle, Senior Consultant bei der Meta Group in Deutschland.

Ebene null und eins des Entwurfs stellen die physikalische Basis eines SAN dar. Die Hardwareseite, Ebene null, bestimmt Verfügbarkeit, Leistung, Kapazität und Skalierbarkeit eines Speichersystems.

Die Gretchenfrage: Welcher Standard setzt sich durch?

Auf Ebene null und eins müssen nach Ansicht von Deuschle die ersten Schritte einer sinnvollen Speicherkonsolidierung ablaufen. So sollten die Anwender ihre Neuanschaffungen so planen, dass sowohl bestehende Systeme eingebunden werden können als auch eine gewisse Zukunftssicherheit garantiert ist. Das Ganze bleibt jedoch ein schwieriger Balanceakt. So ist augenblicklich noch nicht abzusehen, wie die Standards der Zukunft aussehen werden. Anwendern bleibe nichts anderes übrig, als sich an die großen Hersteller zu halten, in der Hoffnung, dass diese die Entwicklung der Standards noch am ehesten beeinflussen können.

Deuschle warnt jedoch davor, alles auf eine Karte zu setzen. "Anwender dürfen das Kind nicht mit dem Bade ausschütten. Alles rauszuschmeißen und auf eine einzige neue Architektur zu setzen, das funktioniert nicht", glaubt der Meta-Group-Analyst. Es sei nicht empfehlenswert, sich auf einen einzelnen Anbieter festzulegen. Das widerspreche der Realität. Da DV-Umgebungen meist sehr heterogen zusammengesetzt sind, müssten die Verantwortlichen nach vielen Seiten hin offen bleiben.

Problematisch bleibt die Einbindung bestehender Speicherkomponenten in eine neue SAN-Architektur. Die Anbieter garantierten zwar die SAN-Fähigkeit in aller Regel für die eigenen Produkte und die von einigen wenigen Partnerunternehmen. Wer allerdings Geräte einsetzt, die nicht in dieses Schema passen, muß ein gewisses Risiko in seinem SAN-Fahrplan einkalkulieren. Zwar bieten Hersteller wie EMC einen Service an, mit dem die Interoperabilität von einzelnen Komponenten getestet wird, doch damit wird nur ein Teil der auf dem Markt verfügbaren Produktpalette geprüft. Wer Komponenten neu integrieren oder austauschen möchte, muß immer wieder Testläufe veranstalten. Es gibt keine Standards, die eine allgemeine Interoperabilität garantieren.

Auf die Frage, wie zum Beispiel Hersteller von Bandbibliotheken in die SAN-Aktivitäten eingebunden sind, muss Malte Rademacher, Marketing-Leiter bei EMC Deutschland, passen: "Das ist nicht unser Spielfeld. Aber ich denke, dass die Hersteller daran arbeiten, ihre Produkte SAN-fertig zu entwickeln."

Den Anwendern ist mit solchen Vermutungen nicht viel geholfen. Zwar funktioniere sein System im Großen und Ganzen, aber in manchen Bereichen gebe es immer wieder Probleme, klagt Rudi Bayerl, stellvertretender Bereichsleiter Infrastruktur bei den Münchener Stadtwerken. Nachdem im letzten Jahr ein SAN aufgebaut wurde, müsse man jetzt daran gehen, das System komplett durchzutesten und eine sichere Failover-Lösung integrieren, erklärt der DV-Mann.

Auch auf Ebene eins des Modells von der Meta Group treten Schwierigkeiten auf. Diese Ebene beschreibt die Verbindungen der einzelnen Speicherkomponenten in einem SAN. Der momentan gebräuchlichste Weg funktioniert über Fibre-Channel-Verbindungen, Hubs und Switches. Im Fibre-Channel-Sektor streiten sich verschiedene Gremien um den Standard der Zukunft. Zwar hofft EMC-Manager Rademacher, noch in diesem Jahr zu einem gemeinsamen Ergebnis zu kommen, doch bis dies in konkrete Produkte umgesetzt wird, dürfte es bis zum Jahr 2002 dauern.

Auch um die Interoperabilität im Speichernetz ist es nicht zum Besten bestellt, sagt Deuschle. Zwar ließen sich kleinere Probleme, etwa dass bestimmte Adapter mit Betriebsystemen nicht zusammenarbeiten, relativ schnell lösen. Wesentlich komplexer seien dagegen die im SAN eingebundenen Switches. Diese mit eigener Logik ausgestatteten Schaltstellen müssten mit allen Komponenten zusammenarbeiten. Bis hier endgültige Standards verabschiedet seien, werde es ebenfalls noch bis zum übernächsten Jahr dauern, orakelt der Meta-Group-Analyst.

Haben die Anwender die beiden ersten Levels einer SAN-Implementierung bewältigt, nimmt die Komplexität weiter zu. Denn es reicht nicht, dass die Hardware und die Netzkomponenten funktionieren. Erst das richtige Management der Daten entscheidet über die Effizienz einer Speicherarchitektur. In den Ebenen zwei bis fünf des SAN-Idealmodells definieren die Meta-Group-Analysten die notwendigen Funktionalitäten in einem Speichernetz. Das reicht von Funktionen wie Backup und Recovery über die richtige Datenhaltung und die Integration des Speicher-Mangements in ein unternehmensweites Framework bis hin zum Traumziel eines jeden Speicheradministrators: der zentralen und plattformunabhängigen Verwaltung des ganzen Systems.

Bis dahin wird es allerdings noch ein steiniger Weg für Anwender wie Hersteller. Infrastruktur-Manager Bayerl von den Münchner Stadtwerken fühlt sich von den Herstellern im Stich gelassen. "Seit einem Dreivierteljahr versprechen sie Verwaltungs-Tools. Doch bislang ist noch nichts in Sicht", klagt der DV-Mann.

In dieser Hinsicht dürften sich die Administratoren jedoch keinen großen Hoffnungen hingeben, lautet die desillusionierende Prognose von Deuschle. Es werde noch drei bis vier Jahre dauern, bis umfassende Management-Tools zur Verfügung stünden. Solange man in einer homogenen DV-Umgebung arbeite, sei es zwar möglich, beispielsweise mit EMCs "Symmetrix"- und "Connetrix"-Systemen eine funktionierende SAN-Architektur zu errichten, doch in der Realität gibt es in den seltensten Fällen homogen aufgebaute DV-Landschaften. Meistens müssten sich die Verantwortlichen mit Unix-, NT- und Mainframe-Welten plagen.

Auch Rademacher muss zugeben, daß alles erst allmählich zusammenwächst. Die Notwendigkeit, Speicher-Management in ein Framework einzubinden, bestreitet er nicht. Der EMC-Manager hofft mit dem eigenen "Control Center" bis Ende des Jahres 80 Prozent der notwendigen Funktionalitäten in einem Speichernetz abzudecken. Einschränkung dabei: Das gilt nur für EMC-Systeme. Wie es in heterogenen Umgebungen aussieht, bleibt ungewiß. Auf die Frage nach 100-prozentiger Funktionalität äußert sich Rademacher vorsichtig: "An der eierlegenden Wollmilchsau sind schon viele gescheitert. 100 Prozent sind allerdings das hehre Ziel, auf das alle hinarbeiten."

Die Management-Frage zieht noch weitere Kreise. Um ein hochverfügbares Gesamtsystem aufzubauen, muß das Speicher-Management in ein unternehmensweites Framework eingebunden werden. Die Anforderungen reichen vom Daten-Management über Systemkonfiguration bis zu Fernwartungskonzepten. Hinsichtlich einer hohen Verfügbarkeit, wie sie heute von allen Seiten gefordert wird, müssen alle Elemente in einem solchen System 100-prozentig funktionieren und redundant vorliegen. "Das SAN ist nur eine Facette eines größeren Systems. Das ganze Thema ist sehr vielschichtig", lautet das eher resignierte Resümmee von Deuschle. Bis die Branche dieses Ziel erreicht hat, dürften Jahre vergehen.