Speicherkonzepte

Speicherfortentwicklung: JBOD - NAS - SAN - ESN

14.05.1999
Derzeit stehen die Speicherkonzepte im Vordergrund des Interesses von IT-Managern. Das war nicht immer so. Die gespeicherten Datenmengen sind inzwischen so groß, daß effektives Speicher-Management für mittlere und große Unternehmen erfolgsentscheidend wird. Der Besitz von Informationen (Daten) ist oft wichtiger als materieller Besitz.

Von Hermann Strass*

Die heutigen Speicherkonzepte sind das Ergebnis einer längeren Entwicklungsgeschichte. Die ersten Festplatten (Ramac) von IBM aus dem Jahr 1957 wurden, weil damals noch extrem teuer, einzeln als Zusatz zu Magnetbandsystemen genutzt. Später wurden dann gelegentlich mehrere gleichzeitig an einem Rechner betrieben. Heute nennt man das JBOD (Just a Bunch of Disks).

Der nächste wichtige Schritt kam 1986 mit der Definition von RAID (Redundant Array of Inexpensive Disks) durch drei Professoren an der Berkeley-Universität in Kalifornien. RAID-Varianten ohne diese Bezeichnung gab es allerdings schon einige Jahre zuvor. Die Motivation für RAID wurde durch den Begriff "Inexpensive" gekennzeichnet, später wurde daraus "Independent", seit der Preis- und Qualitätsunterschied zwischen großen (teuren) und kleinen Plattenlaufwerken keine Rolle mehr spielt. Fast alle Speichersysteme mit mehr als drei bis fünf Laufwerken werden heute als RAID-Systeme betrieben.

Als nächstes konzentrierte sich die Forschung auf NASD (Network-attached Secure Disks). Dazu gehört auch die derzeit beginnende Erforschung von OOD (Object-oriented Devices), obwohl diese nicht auf NASD beschränkt sind. Inzwischen setzen sich allerdings SANs (Storage Area Networks) als die effektivere Alternative durch. Das war auf der diesjährigen CeBIT besonders deutlich zu sehen. Die SAN-Architektur ist aber, wie Network-attached Storage (NAS), nur ein Werkzeug für die Verwaltung von Speichersystemen. Die dazu notwendigen Verwaltungsprogramme gibt es erst vereinzelt und in Bruchstücken, meist nur für dedizierte Anwendungen unter bestimmten Betriebssystemen oder Rechnerplattformen.

Das Problem bei modernen Speicherkonzepten sind nicht die Speichergeräte (Festplatten, Bandlaufwerke) oder Übertragungsmedien (Fibre Channel), sondern die Verwaltung der gigantischen Datenmengen. Daran wird unabhängig von den verfügbaren technischen Geräten schon seit vielen Jahren gearbeitet. Das geschieht vor allem im IEEE-Komitee für das Hierarchische Speicher-Management (HSM). Viele Elemente aus diesem bisher sehr akademischen Projekt sind in der Speicherverwaltungssoftware von Firmen wie Veritas, Seagate Software, Cheyenne, Novell oder Legato sowie im Enterprise Storage Network (ESN) von EMC bereits integriert. Ein reines HSM wird es vermutlich nie geben, weil in der realen Welt nie alle dafür benötigten Technologien und Geräte gleichzeitig in einer HSM-tauglichen beziehungsweise kostengünstigen Version zur Verfügung stehen werden.

Das Management der Daten in herkömmlichen Systemen ist bereits teurer als die Datenspeicher. Durch die Nutzung von SANs mit zentraler Verwaltung kann beispielsweise ein IT-Manager in einem Unternehmen nach Erkenntnissen von IDC mehr als siebenmal so viele Daten verwalten wie mit herkömmlichen Management-Systemen. Dabei wurde berücksichtigt, daß Server-spezifischer Speicher (decentralized, Server-dependent) oft nur halb soviel kostet wie zentraler Speicher (Consolidated Enterprise Storage).

Viele Normierungsgremien kämpfen um Standards

SANs und NASDs sind eine Untermenge in einem hierarchischen Speichersystem (HSM). Reine HSMs sind bisher auf extrem große, homogene Anwendungen (Wetterdienst, Klimaforschung etc.) begrenzt. Alle HSMs (teilweise auch SANs und NASDs) verwenden Elemente aus dem IEEE-Normenentwurf (IEEE P1244).

Bisherige Systeme sind gekennzeichnet durch eindeutige Zuordnungen (Client X greift über Server Y auf Datenspeicher Z zu). SANs erlauben den unabhängigen Zugriff (jeder über jeden zu jedem). Zugriffe über das Netz geschehen mit LAN-Geschwindigkeit (20 bis 40 Prozent von 10/100/1000 Mbit/s im Ethernet), SAN-Zugriffe mit der Geschwindigkeit des Fibre Channel (90 bis 97 Prozent von 1000 oder 2000 Mbit/s). Steht ein SAN zur Verfügung, wird das LAN entsprechend entlastet.

Die Bestandteile eines Speichersystems sind als Hardware und Protokoll umfassend normiert und standardisiert. Ein Teil davon ist auch bereits als internationaler Standard unter ISO oder ISO/ IEC genormt.

Vorteilhaft ist, daß FC und SCSI in ihrer Weiterentwicklung kompatibel geblieben sind. Das geht so weit, daß im FC-Betrieb mit Massenspeichern das ausgereifte SCSI-Protokoll weiterverwendet wird. Bei der Migration vom parallelen, herkömmlichen SCSI-Hardware- zum seriellen Fibre-Channel-Übertragungsmedium (elektrisch oder optisch) muß die Anwendung nicht umprogrammiert werden. Hilfsmittel und Dienste, wie Schranküberwachung und Fehlerbehandlung sind ebenfalls standardisiert. Für den Fibre Channel und SCSI/RAID gibt es mehr als 100 Normdokumente, meist von IPI/NCITS unter ANSI, zum Teil schon in der dritten Generation. Außerdem gibt es einige Normen für Steckverbinder bei EIA und SFF sowie MIBs beim IETF für das SNMP-Protokoll (Abkürzungen siehe Seite 64).

Die Normung der FC- und SAN-Komponenten wird mit größter technischer Sorgfalt durchgeführt. Dazu gehören Anleitungen zur Messung von Jitter und Korrekturen zu bestehenden EIA-Normen, die bisher falsche Resultate lieferten, weil das Verhalten bei hohen Frequenzen nie wirklich geprüft wurde. Die Vernachlässigung der physikalischen Effekte bei hohen Frequenzen hat letztes Jahr zum Beispiel die Verabschiedung der Kupfervariante von Gigabit Ethernet verhindert, weil der bisher verwendete RJ-Steckverbinder für die höheren Übertragungsraten nicht geeignet ist. Gigabit Ethernet verwendet Fibre-Channel-Chips. Man hätte also die dort erprobten Steckverbinder einsetzen können.

Die Zusammenarbeit in einem unternehmensweiten Gesamtsystem wird als IEEE-HSM-Referenzmodell weiter standardisiert. Das ist aber bisher nur eine abstrakte Vorlage für reale Systeme. Auf die immer vorhandenen heterogenen Systemumgebungen (Mainframe-OS, Unix- und Windows-Varianten) und auf die Unterschiede in den Hardwarekomponenten wird nicht eingegangen. Das ist Sache der an anderer Stelle beschriebenen Organisationen und Kooperationen.

Die Fibre-Channel- und weitere Organisationen haben bereits Dokumente und allgemeine Anleitungen für das Zusammenwirken der standardisierten Elemente in einem Gesamtsystem. Dazu gehören beispielsweise "Managing a Fibre Channel Storage Area Network" von der SNMWG-FC, "A Guide to Fibre Channel Storage Area Networking" von Transoft Networks und zahlreiche Firmenschriften zu diesem Thema.

Zu den klassischen Einsatzgebieten, etwa der Buchhaltung, kommen neuerdings Anwendungen mit großen Datenströmen zum Teil in Echtzeit, beispielsweise Video, Fernsehwerbung, Drucken auf Anforderung, Intranet. Dafür sind herkömmliche Client-Server-Systeme wenig geeignet. Solche Datenströme werden über ein eigenes Speichernetz (fast immer Fibre Channel) geleitet. Wird einfach nur ein weiterer Speicher-Server in ein LAN eingeklinkt, gibt es neben dem Bandbreiten- auch das Zugriffsproblem, wenn mehrere Teilnehmer die Daten von einem ganz bestimmten Speicher benötigen.

Derzeit sind SANs das vielversprechendste Konzept, um diesen wachsenden Speicherbedarf und dessen effizientes Management zu bewältigen. Das gilt insbesondere für die in allen Unternehmen heterogenen und verteilten Speichersysteme, Rechnerplattformen und Betriebssysteme. Den Anfang bieten die bereits vorhandenen Normen für RAID-Anordnungen und die Fibre-Channel-Übertragungstechnik. RAID-ready- und SAN-ready-Plattenlaufwerke sind ebenfalls schon definiert. Über SES wird die Umgebung (Temperatur. Stromzufuhr, USV etc.) in das System-Management eingebunden. 1999 soll das Jahr der SANs werden, ist die Meinung der meisten Marktforscher auf diesem Gebiet.

NASD sind eher in kleinen Workgroups sinnvoll, wo die Datenmenge noch relativ gering ausfällt. Hier ist der einfache Zugriff direkt über das primäre LAN von Vorteil. Nachteilig ist allerdings die erheblich niedrigere Übertragungsrate von etwa 2 bis 3 MB/s beispielweise im 100BaseT-Ethernet-LAN bei minimalen anderen Netzaktivitäten.

Legato, eine treibende Kraft im SAN-Bereich, sieht in einigen Jahren schon selbstheilende SANs und eine "Information Utility", verteilt über Weitverkehrsnetze. Dazu soll insbesondere der Einsatz von Wavelength Division Multiplexing (WDM) auf dem Fibre Channel beitragen. Diese Meinung wird von Brocade unterstützt, deren Geräte schon von NTT für die Verbindung in Weitverkehrsnetzen eingesetzt werden.

Alle Elemente eines unternehmensweiten Speicherkonzepts ergeben ein komplexes Gebilde. Normen und Standards sind für die meisten Teile verfügbar. Diese sind aber oft schon einzeln sehr komplex und erst recht im Zusammenwirken. Mit einer Speichernetzwerk-Norm ist also nicht zu rechnen. Zu den dokumentierten Normen und Standards ist zusätzlich ein umfangreiches Wissen zu logischen, physikalischen und organisatorischen Themen und Integrationsproblemen gefragt. Ein unternehmensweites, heterogenes Speichersystem kann nur in der Zusammenarbeit zwischen Lieferant/Systemintegrator und Anwender geplant und eingerichtet werden. Mit dem Kauf eines fertig konfigurierten Systems ist es nicht getan.

*Hermann Strass ist Buchautor sowie Berater für neue Technologien, insbesondere für Bus-Architekturen, Massenspeicher und industrielle Netzwerke.