Der Markt für Speicher-Subsysteme

Der Markt für Speicher-Subsysteme 2005: Speicherkonzepte vor Gericht

13.10.2005 von von Kriemhilde
Partitionierung und Virtualisierung sind Topthemen für Speicher-Subsysteme. Daneben rücken aber vor allem rechtliche Vorgaben ins Blickfeld.

Kapazität, Durchsatz und Replikationstechniken zählten in der Vergangenheit zu den wichtigsten Leistungswerten von Highend-Speichern. Als im Herbst 2004 Hitachi mit dem „Tagmastore“-Subsystem auf den Markt kam, freuten sich Highend-Anwender über die riesige Speicherkapazität von bis zu 332 TB. Noch bemerkenswerter war jedoch die Tatsache, dass der Speicher noch Zusatzaufgaben im Speichernetz (SAN) übernehmen soll: die Verwaltung von bestehenden Speicher-Arrays, die auch von Drittanbietern stammen dürfen. Dafür sorgt die hauseigene Software „Universal Volume Manager“, mit der sich die externen Daten so konfigurieren, verwalten und abrufen lassen, als ob sie im Tagmastore lagerten. Das lässt die Informationsmenge, die vom System kontrolliert wird, auf 32 Petabyte (PB) steigen und befördert den Speicher zum Dirigenten im Speichernetz.

Kurz nach Hitachis Vorstoß im Highend stellte IBM mit „DS8000“ einen Nachfolger für die „Shark“-Speicher vor. Das Fassungsvermögen bleibt mit 192 TB zwar unter dem Wert des Tagmastore, dafür warf IBM sein Knowhow aus der Prozessor- und Server-Technik in die Waagschale. DS8000 nutzt die hauseigenen „Power-5“-Prozessoren, die auch in den Unix-Servern der „P-Series“ arbeiten. IBMs Speicherankündigung vom Herbst 2004 las sich wie die Einführung von neuen Servern: Die Control Unit der DS8000 enthält zwei bis vier Prozessoren, in Zukunft wolle man aber auch Acht- und Zwölf-Wege- Konfigurationen anbieten.

Der Speicher als Rechner

Wenn schon ein Rechner im Speicher steckt, dann können dort auch Programme ablaufen. Big Blue kündigte an, Speicher- und Virtualisierungssoftware wie den „Tivoli Storage Manager“ und den „SAN Volume Controller“ direkt im Subsystem zu starten. Probehalber ließen die IBM-Ingenieure bei einer Kundendemonstration die hauseigene Datenbank DB2 auf einem DS8000-Array erfolgreich ablaufen.

Darüber hinaus führte IBM die Partitionierung, ebenfalls eine Server-Technik, innerhalb der Subsysteme ein. Da die Power-5-Chips mit einer „Virtualization Engine“ ausgestattet sind, können logische Partitionen (LPARs) eingerichtet werden: Die DS8000 lässt sich derzeit in zwei separate Einheiten unterteilen, die sogar mit unterschiedlichem Mikrocode arbeiten dürfen. Hitachi geht bei der Unterteilung der Tagmastore-Systeme noch einen Schritt weiter: Der „Virtual Partition Manager“, der separat angeboten wird, teilt den Speicher in bis zu 32 virtuelle Maschinen auf, denen je nach Bedarf interne und externe Ressourcen wie Speicherkapazität, Cache-Speicher und Ports zugeordnet werden können. Aus dem großen Speicherpool lassen sich also kleine und per Passwort abgesicherte Speicherumgebungen einrichten, die unterschiedliche Service-Levels befriedigen.

Gartner-Analyst Josh Krischer hält insbesondere die Partitionierungsfähigkeit für zukunftsträchtig, da viele Unternehmen logisch trennbare Speicher benötigen: „Kunden von Storage-Service-Providern wollen ihre Daten getrennt von anderen Firmen gespeichert wissen.“ Dazu komme die Möglichkeit, im Speicher Testumgebungen anzulegen, und „denkt man das Partitionierungskonzept konsequent weiter, dann lässt sich eine LPAR des Subsystems für Server-less Backup nutzen, eine andere für hierarchisches Speicher-Mangement (HSM) und so weiter. Somit findet Information-Lifecycle-Management innerhalb des Speichers statt.“

Speicher im Petabyte-Bereich

EMC versucht das mit dem neuen Highend-Array „DMX-3“ umzusetzen, das in diesem Sommer als „Petabyte- Speicher“ vorgestellt wurde. Die zweite Generation von Subsystemen mit „Direct Matrix Architectur“ beherbergt zum Verkaufsstart bis zu 960 Laufwerke mit Kapazitäten von 73, 146 oder 300 GB. Da im EMC-Testlabor in Hopkinton, Massachusetts, bereits 2000 und mehr Laufwerke im DMX-3-Array ihre Arbeit tun, ist der Petabyte-Speicher zum Greifen nahe.

Zudem nutzt EMC in den Highend-Systemen eine Spielart, die bislang nur in den Mittelklassespeichern „Clariion“ zu finden war: der Mix von schnellen und sicheren Fibre-Channel-(FC-)Platten und den kostengünstigeren „NL35“-Laufwerken, die Hersteller Seagate als Nearline-Laufwerke bezeichnet. So kann der DMX-3- Anwender schon im Array ein zweistufiges Speicherkonzept umsetzen. Was noch nicht funktioniert, ist die Einbindung von Drittgeräten.

Mit den neuen Funktionen versuchen die Hersteller, den sinkenden Anteil der Highend-Speicher am gesamten Storage-Markt zu stoppen. Denn Mittelklassesysteme erfreuen sich zunehmender Beliebtheit: Sie sind wegen der verwendeten Technik und auch wegen der größeren Konkurrenz in diesem Segment deutlich kostengünstiger zu beschaffen. Außer den teuren FC-Festplatten werden sie oft mit seriellen ATA-(SATA-)Drives ausgestattet, und statt FC wird als Transportpotokoll iSCSI verwendet. Seagate hat mit der Near-Line-(NL-)Familie eine Spielart der ATA-Laufwerke entwickelt, die, ausgestattet mit FC-Anschluss, eine mehrstufige Architektur (tiered storage) schon im Subsystem fördern.

Claus Egge, Program Director European Storage Systems Research der IDC, hat zudem den Trend ausgemacht, dass sich „Speicherentwicklungen vom Highend über die offenen Systeme bis in den Small- und Medium- Business-Markt durchgesetzt haben“. Heute sei man so weit, dass einst als ausgeklügelt geltende Funktionen vom privaten Heimanwender genutzt werden. EMC beispielsweise führte für die Mittelklassefamilie Clariion virtuelle LUNs (Logical Unit Numbers) ein, so dass Daten unterbrechungsfrei etwa von FC- auf ATA-Laufwerke verschoben werden können.

Die Applikation steht im Zentrum

Hitachi legte mit „Tagmastore Network Storage Controller 55“ (NSC 55) einen kleineren Bruder des Highend- Geräts auf. Der Speicher kann ebenfalls Fremdgeräte verwalten und Daten virtualisieren, so dass sie unterbrechungsfrei zwischen den angeschlossenenen Arrays verschoben und gespiegelt werden können. Zudem erlaubt Hitachi, den Cache-Speicher in bis zu acht logische Partitionen einzuteilen und die Größe der Cache-Blöcke zu flexibilisieren. Damit wird deutlich, wohin die Reise geht: Der Speicher soll sich den Anforderungen der Applikation anpassen. Legt eine Datenbank ihre Information in 4-KB-Datenblöcken ab, dann soll der Speicher das ebenfalls können. Wird ein Videofilm gespeichert, soll er mehr Cache-Speicher zugeordnet bekommen.

Suns Mittelklasseangebot nennt sich „Storedge 6920“ und enthält eine Virtualisierungsschicht, die durch die übernommene Pyrus Technology ins Haus kam. Im System sorgen eingebaute Mikroprozessoren und Switches dafür, dass Daten auch von Fremdgeräten synchron und asynchron gespiegelt sowie Point-in-Time-Kopien erstellt werden können. Abzuwarten bleibt, wie Sun die Produkte der in diesem Jahr übernommenenen Storagetek - immerhin der Erfinder des Begriffs Information-Lifecycle-Management (ILM) - nutzen wird.

Beliebt: NAS-Speicher

HPs Speicherstrategie der Zukunft gründet sich auf Grid-Technik: Intelligente Speicherzellen, jeweils ausgestattet mit Proliant-Servern und eigener Speicherkapazität, sind über Switches von Procurve verbunden. Jede Zelle ist für sich alleine funktionsfähig und kann modular und unterbrechungsfrei das Grid vergrößern. HP liefert das „Reference Information Storage System“ (RISS) derzeit noch für den mittleren Leistungsbedarf aus. Das Highend bedient HP ebenso wie Sun mit den Tagmastore- Systemen von HDS. In Zukunft aber, so HP-Manager, werde die hauseigene Grid-Technik auch den Bedarf im oberen Leistungssegment decken.

Systeme vom Typ Network Attached Storage (NAS) haben sich im Mittelstand durchgesetzt, weil die Speicher einfach ins LAN eingeklinkt werden. Ein dediziertes Speichernetz muss ebensowenig aufgebaut wie FC-Wissen vorgehalten werden. Network Appliance (Netapp) feiert mit dieser Speicherart seit Jahren kommerzielle Erfolge und hat die Funktionalität seiner Geräte erweitert. IBM, deren eigene NAS-Entwicklungen wenig erfolgreich waren, hat sich über eine Vertriebs- und Entwicklungskooperation den Zugriff auf die Produkte von Netapp gesichert.

Mit den revisionssicheren Speichern dürfte sich eine andere Storage-Gattung ebenso gut entwickeln, da gesetzliche Vorschriften für viele Informationen eine Datenarchivierung nach dem Worm-Verfahren (Write once read many) verlangen. EMC hat mit den „Centera“-Arrays den Maßstab gesetzt. Mittlerweile haben alle großen Anbieter revisionssichere Festplattensysteme im Angebot.

Mit dem weiterhin wachsenden Datenaufkommen steigt auch die Komplexität der Informationsverwaltung. Gartner-Analyst Krischer sieht Handlungsbedarf insbesondere beim Storage-Resource-Management. Seiner Meinung nach nutzen viel zu wenige Unternehmen die Möglichkeiten, die Speicherumgebung „wie mit einem Röntgengerät zu durchleuchten und die Speicherkosten zu kontrollieren“.

* Die Autorin KRIEMHILDE KLIPPSTÄTTER ist Redakteurin bei der Computerwoche. [kklippstaetter@computerwoche.de]