Der Markt für Storage

Gebündelte Informationen

31.07.2007
Speicheradministratoren kämpfen weiter mit stark wachsenden Datenmengen. Nachdem sie die Probleme damit im Rechenzentrum vor allem durch Virtualisierung in den Griff bekommen haben, werden jetzt auch die Außenstellen und Niederlassungen in die Konzepte einbezogen. Die Klassifikation der Inhalte unstrukturierter Daten bleibt weiterhin ungelöst.

Von Kriemhilde Klippstätter* * Die Autorin Kriemhilde Klippstätter ist Redakteurin der COMPUTERWOCHE.

Im vergangenen Jahr war die Speichertechnik mehr von eher kleinen Verbesserungen als von den großen Entwürfen der Vorjahre geprägt. Mittlerweile dürften alle Großunternehmen über ein Speichernetz verfügen und selbst kleinere Firmen die Trennung von Rechner und Speicher vollzogen haben. Zudem ist die früher scharfe Trennung zwischen einem SAN-Speichernetz und einem NAS-File-Server, die damals fast zum Glaubenskrieg ausartete, aufgehoben. Moderne Speichersysteme – seien es Storage-Arrays oder File-Server – können beides: das Speichern von Block- und von File-basierenden Informationen.

Neue Techniken wie iSCSI, SAS- und SATA-Platten sowie das mehrstufige Speichern (Tiered Storage) sorgen dafür, dass die Datenhaltung kostengünstiger wird. Statt wie bisher teure Fibre-Channel-SANs lassen sich Speichernetze jetzt auch mit iSCSI-Equipment aufbauen und so Kosten sparen. Das Gleiche gilt für die Festplatten in den Arrays. Zwar werden unternehmenskritische Informationen noch immer auf hochwertigen FC-Drives gespeichert, oft auch deshalb, weil die Firmen in diese Technik schon investiert haben. Aber für alles darunter gibt es preiswertere Alternativen. Die seriellen Versionen von ATA und SCSI – SATA und SAS – bieten hohe Durchsatz- und Transferraten sowie ausreichende Sicherheitsfunktionen. Obwohl beispielsweise SAS über eine Reihe von Vorzügen verfügt, wird die Technik nur zögerlich eingesetzt. Die Speichergröße EMC hatte diese Festplatten bis Mitte des Jahres nicht im Angebot, IBM erst zum Jahresbeginn. Dabei prognostizieren die Auguren ein starkes Wachstum für solche Laufwerke, die im kommenden Jahr laut Gartner 40 Prozent aller Festplattenlieferungen ausmachen werden.

Da die modernen Laufwerke immer mehr Daten fassen, wählen die Anbieter andere Raid-Verfahren. Bislang wurde oft Raid 5 statt dem teuren Raid 1 verwendet. Bei Kapazitäten von 500 GB und mehr stößt Raid 5 allerdings an seine Grenzen, denn es wurde für Platten mit einer Kapazität von 50 MB entwickelt. Deshalb entscheiden sich die Hersteller von Speicher-Subsystemen mit voluminösen SATA-Platten für Raid 6 und sparen damit Zeit bei den Schreib- und Lesevorgängen.

Zwei weitere Trends bei Laufwerken hat Josh Krischer, Ex-Analyst von Gartner, ausgemacht: "Der Formfaktor von 2,5 Zoll gewinnt an Bedeutung, und unter den Aufzeichnungsverfahren setzt sich das Perpendicular Recording durch." Derzeit stellen Festplatten im 3,5-Zoll-Format das Gros der verkauften Drives. Im Zuge der steigenden Datendichte auf den Plattenoberflächen gewinnen aber die kleineren Platten an Bedeutung, da sich Backup-Programme aus Performance-Gründen immer viele Drives wünschen, auf die sie die Daten verteilen können. Für die zunehmende Informationsdichte auf den Festplattenoberflächen sorgt insbesondere die neue Technik des Perpendicular Recording. Dabei werden die Datenbits vertikal (perpendicular to the disk) statt wie bisher horizontal (parallel to the disk) aufgezeichnet. Das spart Platz auf der Oberfläche und führte dazu, dass jetzt schon Laufwerke mit einem Fassungsvermögen von 1 TB angeboten werden. Die kleinen Laufwerke mit 2,5 Zoll bieten sich zudem wegen ihrer besseren Energiebilanz an, ein Grund, der an Gewicht gewinnt.

Diskutiert wird derzeit in der Herstellervereinigung International Disk Drive, Equipment and Materials Association (IDEMA), ob man beim Aufzeichnen nicht die Blockgröße von 512 Byte auf 4 KB erhöhen sollte. "Das nutzt nicht nur die Platten besser aus, es ermöglicht auch einen besseren Error Correction Code", beschreibt Krischer ein mögliches Szenario. Er erwartet, dass zum Jahresende die großen Laufwerkshersteller Seagate, Western Digital, Fujitsu und Hitachi den Umstieg wagen werden.

Auf der Suche nach Wegen, der Datenflut Herr zu werden, kamen Softwarefirmen wie Legato schon bald auf die Idee, Daten nur einmal zu speichern. Was zunächst nur für E-Mails möglich war, sorgt unter dem Namen "Deduplication" derzeit für Furore: Anbieter wie Data Domain, Diligent, Quantum, Avamar und Sepaton haben Programme entwickelt, die redundante Daten vor dem Backup aussortieren. Damit sorgen sie nicht nur für weniger Bedarf an Speicherplatz und Bandbreite, sondern auch für einen schnelleren Datentransfer und übersichtlichere Verwaltung der Metadaten. Die Hersteller von großen Speicher-Arrays haben das früh erkannt und sich die Technik gesichert: So vertreibt Hitachi Data Systems beispielsweise die Software "Protectier" von Diligent als OEM-Produkt, und das Startup-Unternehmen Avamar wurde von EMC wegen der Software "Axion" gekauft.

Die Zunahme an unstrukturierten Daten, die gesichert werden müssen, hat dazu geführt, dass der Backup-Prozess mehrstufig erfolgt. Wurde früher von der Festplatte direkt auf Band gespeichert, so wird heute zunehmend eine Zwischenspeicherung auf Platte dazwischengeschaltet. Dieses auch als Tiered Storage bezeichnete Verfahren hat den Vorteil, dass die Backup-Daten bei Bedarf schnell verfügbar sind und sich andererseits die Backup-Prozesse in aller Ruhe vollziehen lassen. Große Datenmengen, etwa Röntgenbilder, lassen sich so schnell speichern und wiederfinden. Anbieter von Virtual Tape Libraries (VTL) sind unter anderem IBM, Storagetek/Sun, Fujitsu-Siemens, Adic/Quantum, Diligent, Falconstor, Netapp und Hewlett-Packard/Sepatron.

Es zeichnet sich ab, dass sich eine neue Klasse von Speichergeräten entwickeln wird, die zwischen Primärspeicher und Archivsystem angesiedelt sein wird. Solche Systeme können dann auch mit Worm-Funktionalität ausgestattet sein, um etwa rechtlichen Vorschriften zu genügen. In diese Klasse fallen Systeme, die als "Massive Array of Idle Disks" (MAID) bekannt wurden. Die auf hohe Speicherkapazitäten ausgerichteten Systeme arbeiten meist mit SATA-Laufwerken und Raid-5-Implementierung. Derzeit werden solche Systeme von Copan, Fujitsu und Nexsan angeboten.

Nachdem die Verantwortlichen die Datenberge in den Rechenzentren über NAS und SAN einigermaßen in den Griff bekommen haben, machen sie sich jetzt daran, auch die Informationen der Außenstellen zentral zu organisieren. Analysten schätzen, dass in den Niederlassungen 60 bis 80 Prozent der Unternehmensdaten anfallen und gespeichert werden. Sollen diese auch zentral erfasst und abgelegt werden, wachsen Netz und Speicher immer enger zusammen. Unter den Herstellern ist schon ein Streit um diesen neuen und lukrativen Markt entbrannt. Mit "Wide Area File Services" (WAFS) sollen Files zentral verwaltet werden. Anbieter wie Hewlett-Packard, McData/Brocade, Cisco und F5 versuchen ihre Lösungen an den Mann zu bringen und werben dabei nicht selten mit Sicherheitsüberlegungen und Kostenersparnis.

Die wichtigsten Aufgaben für die Zukunft dürften sich rund um die Verwaltung der gespeicherten Informationen ansiedeln. Rick Steffens, Chef von HPs SAN-Geschäft, sieht bei den Anwendern "einen Trend dazu, mehr für das Management der Systeme auszugeben". EMC arbeitet seit Jahren an einer Möglichkeit, auch unstrukturierte Daten klassifizieren und in automatisierte Prozesse einbinden zu können. Brocade stellte kürzlich unter dem Namen "File Area Network" (FAN) eine Referenzarchitektur vor, die das in Zukunft leisten will. Dieser als lukrativ angesehene neue Markt lockt Anbieter und reizt zu Übernahmen: erst kürzlich hat sich Infrastrukturanbieter F5 das Startup-Unternehmen Acopia für 210 Millionen Dollar einverleibt – ein Schnäppchen, sagen Insider.