Der Markt für Storage-Systeme

Overflow

24.09.2008 von Josh Krischer
Der Speichermarkt war 2007 und in der ersten Hälfte dieses Jahres wie gewohnt sehr dynamisch und wettbewerbsträchtig.

Kennzeichnend war zudem die Aufmerksamkeit, die die Anbieter dem Markt für kleine und mittelständische Unternehmen (Small and Medium Business = SMB) entgegenbrachten. Disaster Recovery, die Zunahme unstrukturierter Daten sowie Akquisitionen waren weitere wesentliche Themen. Allen Herstellern gemein war die Besinnung auf ökologische Themen.

Grüne Rechenzentren

Das hatte seine Gründe. Eine Untersuchung der amerikanischen Umweltbehörde Environmental Protection Agency (EPA) für den US-Kongress verglich vier wesentliche Stromfresser in Rechenzentren: Highend-Server, Midrange-Server, Netzausrüstung und Speicher. Nach dieser Studie wiesen die Speichersysteme den höchsten Energieverbrauch und dabei die höchste Zuwachsrate auf (191 Prozent).

Der Markt für externe Speichersysteme (ECB) 2007 in Deutschland nach Umsatz.

Hersteller

Marktanteil (in Prozent)

1. EMC

21,5

2. IBM

14,7

3. Fujitsu/Fujitsu-Siemens

14,4

4. Hewlett-Packard

12,6

5. Netapp

10,1

6. Hitachi Data Systems

8,0

7. Sun Microsystems

7,4

8. Dell

4,1

9. Andere

7,2

10. SGI

0,2

Rechnet man nicht nach Umsatz, sondern nach der Stückzahl oder der ausgelieferten Speicherkapazität, würde Fujitsu/Fujitsu-Siemens jeweils auf dem ersten Platz liegen.

Quelle: Gartner

Der deutsche Markt für External-Storage

2007 kauften deutsche Anwender externe Speichermedien mit einer Gesamtkapazität von 217 Petabyte. Insgesamt zahlten sie hierfür fast eine Milliarde Dollar. Die größte Veränderung am Markt war der Sprung von Fujitsu-Siemens Computers (FSC) auf Platz eins, wenn es um die Zahl verkaufter Systeme geht. Mit 23,4 Prozent Anteil ist FSC 2007 Marktführer hierzulande. Hewlett-Packard (10,3 Prozent) und Sun Microsystems (sieben Prozent) folgen auf den Plätzen.

Gemessen am erzielten Umsatz liegt EMC mit einem Marktanteil von 21,5 Prozent weiterhin an der Spitze. IBM (14,7 Prozent) und FSC (14,4 Prozent) belegen die zweite und dritte Position.

Kleine und mittelständische Unternehmen treiben den Markt

Alle Massenspeicheranbieter machten 2007 die Erfahrung, dass die Geschäfte mit Speichern bei kleinen und mittelständischen Unternehmen (Small and Medium Business = SMB) schneller gewachsen sind als die mit Großkunden. Hierfür gab es verschiedene Gründe:

Für den anerkannten Speicherexperten Josh Krischer ändert sich am Storage-Markt fast wöchentlich etwas.
Foto: Josh Krischer

Zum einen belebte der Trend zur Server-Virtualisierung die Nachfrage nach Speichern im Netz. ERP-Systeme steigern zudem die Anforderungen an Business Continuity, Disaster Recovery und Compliance-Regulierungen.

Server-Virtualisierung beschleunigte zudem das Geschäft mit SANs. Zunehmend waren SMBs von Direct-Attached-Storage-Lösungen auf Network-Storage gewechselt. Hierbei bevorzugten sie iSCSI-SANs und NAS-Systeme. Mit IP-SANs auf Basis von iSCSI-Platten-Subsystemen lassen sich dabei Netzspeicher-Infrastrukturen realisieren, die drei wesentliche Anforderungen zufrieden stellend erfüllen können: Verfügbarkeit, Datenwiederherstellung und Verwaltung der Daten (Availability, Recoverability, Manageability). Diese Anforderungen stellen sich durch Geschäftsanwendungen. Außerdem erwarten Anwender, dass die Systeme leicht zu handhaben sind und sich auf einem Kostenniveau bewegen, das User von Windows-Umgebungen gewohnt sind.

Alle Marktforscher gehen davon aus, dass das Thema iSCSI-Konnektivität signifikant an Bedeutung gewinnt. Eine zunehmende Zahl von Herstellern bietet "Unified-Storage"-Subsysteme mit SAN-Unterstützung (vorzugsweise iSCSI) gemeinsam mit einigen Speicher-Management- und Copy-Funktionen an.

Fiber Channel, SATA und SAS

In Datenzentren werden im Prinzip drei Plattentypen benutzt, die nach ihren Anschlussarten (Interface) unterschieden werden: Fiber Channel, SATA (= Serial Advanced Technology Attachment) und SAS (= Serial Attached SCSI). Sie nutzen jeweils unterschiedliche Techniken und weisen verschiedene Leistungscharakteristika und Verfügbarkeitslevels auf.

SAS ist der Nachfolger von Parallel-SCSI. Es bietet die Bandbreite und die Leistung sowie Skalierungsoptionen, wie sie heutzutage im Enterprise-Umfeld erforderlich sind. SAS ist kompatibel zum SATA-Interface. Damit ist es Anwendern möglich, Hochleistungs-SAS-Platten für höchste Speicher- mit preiswerten SATA-Laufwerken für niedrigere Speicherprioritäten in einem Gehäuse zusammen zu nutzen. Je nach den Leistungsanforderungen werden entweder SAS- und Fiber-Channel-Systeme oder niedrigpreisige ATA-Technik den Vorzug erhalten. Als neuen Trend vor allem im SMB-Umfeld kann man die Nutzung von SAS- und SATA-Laufwerken in einer abgestuften Speicher-Infrastruktur ausmachen.

Unstrukturierte Daten auf dem Vormarsch

Die weit überwiegende Mehrzahl der Massenspeichersysteme ist für die Bedürfnisse von Datenbanken, Text- und Transaktionsapplikationen ausgelegt - also auf die Befähigung zugeschnitten, kleine Datenblocks mit hohem Durchsatz zu speichern. Das dürfte sich ändern. IDC hat in einer Untersuchung im Dezember 2007 festgestellt, dass der Bedarf an Speicherplatz in Unternehmen künftig vor allem von der wachsenden Menge an unstrukturierten Daten herrühren wird.

Unstrukturierte Daten sind bislang typischerweise E-Mails und Präsentationen. Hierzu werden künftig aber vor allem Dokumente und Datentypen kommen wie beispielsweise Audio, Video, Fotos, gescannte Dokumente, medizinische Bildgebungsverfahren, Computersimulationen, seismische Daten etc. Diese Daten liegen als große Dateien vor, die hohe Brandbreiten beanspruchen. Typischerweise greifen auf diese Daten sehr viele Nutzer gleichzeitig zu. Diese Anforderungen erledigen NAS-Systeme in aller Regel. Wenn sie aber an ihre Grenzen kommen und ausgebaut werden müssen, kann es Probleme geben.

Datei-Virtualisierungsdienste, geclusterte NAS-Systeme oder individuell ausgelegte Speichersubsysteme können für solcherlei Anforderungen Lösungen bieten.

Innovationen 1: Thin Provisioning

Mit Thin Provisioning kann virtueller Speicher zugewiesen werden, ohne dass dazu im vorhinein physischer Plattenspeicher dediziert werden muss. Zusätzlicher Speicher lässt sich je nach Bedarf während des Betriebs zuordnen, die Anwendungen laufen dabei weiter. Anwender, die Subsystem-Virtualisierung mittels Thin Provisioning intelligent nutzen, erzielen damit drei Effekte: Sie müssen weniger investieren, sie reduzieren ferner Kosten, weil sie weniger Energie und weniger physischen Platz in Rechenzentren benötigen. Und sie erhöhen die Leistung ihrer Speichersysteme, weil sie die Daten im Striping-Verfahren über alle Platten eines Array-Systems verteilen.

Thin Provisioning weist je nach den wechselnden Bedürfnissen von einem gemeinsam verfügbaren Speicherpool physische Kapazitäten zu. Für diese Technik benutzen Hersteller unterschiedliche Bezeichnungen. Bei 3Par etwa heißt dieses Feature "Dedicate-on-Write" (DoW), Compellent nennt es "Dynamic Capacity". Lefthand Networks tituliert das Feature mit "SAN/iQ Advanced Provisioning" und Network Appliance als "Flexvol". Hitachi und seine Partner HP und Sun Microsystems hatten ihre Thin-Provisioning-Version am 14. Mai 2007 auf ihren Highend-Subsystemen vorgestellt. Die "Nextra"-Systeme von XIV verfügen ebenfalls über ein Thin-Provisioning-Feature. IBM hatte XIV im Januar 2008 gekauft.

Innovationen 2: De-Duplication

Mit dem De-Duplication-Konzept lassen sich mehrfach vorliegende Daten reduzieren. Die Technik wird momentan vor allem bei Backup-Systemen verwendet. Allerdings kommt sie zunehmend auch in Archivierungsanwendungen und anderen Applikationen zum Einsatz. Mit De-Duplizierung reduzieren sich die Anforderungen an Netzbandbreite und die Kosten für Data-Recovery-Vorkehrungen schon deshalb, weil die Menge an zu transferierenden Daten sich verringert.

Im Wesentlichen gibt es zwei De-Duplizierungs-Techniken, die miteinander konkurrieren: das "Inline"- und das "Post-Processing"-Verfahren.

Beim Inline-Verfahren werden Daten in dem Moment de-dupliziert, in dem sie auf dem Zielsystem ankommen - also in Echtzeit. Die Daten werden somit auch nicht zeitweise zwischengespeichert. Dieses Verfahren unterstützen Hersteller wie Falconstor, Netapp und Quantum sowie Sepaton.

Im Gegensatz dazu werden Daten beim Post-Processing-Verfahren zumindest vorübergehend auf dem Zielspeicher abgelegt. Hierbei werden die Daten in ihrer nativen Form auf die Speichersysteme geschrieben und dann sukzessive wieder eingelesen, um von einer De-Duplication-Engine verarbeitet zu werden. Dieses Verfahren benötigt zum einen mehr Speicherplatz, zum anderen mehr Zeit. Es wird von Speicheranbietern wie Datadomain, Diligent, EMC/Avamar und Puredisk genutzt.

Innovation 3: LTO-4

Wenn es um die kostengünstigste und gleichzeitig bequemste Möglichkeit geht, Daten zu speichern, dann sind Bandspeicher immer noch Spitze. In diesem Segment der Branche kam der Markteinführung der nächsten LTO-Generation, LTO-4, die größte Bedeutung zu. LTO (LTO = Linear Tape Open) ist ein Standard für Magnetbänder und Laufwerke. Diese Technik bietet höhere Kapazitäten (bis zu 1,6 Terabyte an komprimierten Daten), schnellere Datentransferraten (bis zu 240 MB pro Sekunde), dazu Worm-Optionen (Write Once Read Many) und integrierte Verschlüsselungstechniken. LTO-4 ist sowohl bei Lese- wie bei Schreibaktionen rückwärtskompatibel zu LTO-3-Kassetten. Zu LTO-2-Kassetten bietet der neue Standard lediglich bei Lesevorgängen Rückwärtskompatibilität.

LTO ist für die gesamte Branche von großer Bedeutung. Denn in der Vergangenheit zeichnete sich die Bandspeicherindustrie vor allem dadurch aus, dass sie in der IT-Welt die am wenigsten kompatiblen Techniken lieferte. Das änderte sich erst im April 1998. Seinerzeit kündigten HP, IBM und Seagate die zwei Bandformate "Ultrium" und "Accelis" unter Nutzung der LTO-Technik an. Seitdem sind bereits drei LTO-Generationen erfolgreich im Markt eingeführt worden. Die LTO-Technologie ist nicht proprietär. HP, IBM, Quantum und Tandberg bieten sie an.

IDC hat berechnet, dass im Jahr 2007 die Auslieferungen von LTO-Bandspeichern um 15 Prozent gegenüber dem Vorjahr gestiegen sind. Hersteller erzielten damit 2007 insgesamt 883,1 Millionen Dollar Umsatz.

Die großen Akquisitionen

Heutzutage entwickeln viele kleine Firmen die Innovationen im Speichermarktsegment. Diese Betriebe werden entweder privat oder von Wagniskapitalgebern finanziert. Setzt sich eine ihrer Ideen am Markt durch, werden diese Startups in aller Regel von den großen Konzernen gekauft.

IBM hat sich bezüglich Akquisitionen 2008 besonders hervorgetan. Innerhalb von weniger als vier Monaten kaufte Big Blue gleich drei auf Speichertechniken spezialisierte israelische Firmen: XIV hatte sich darauf konzentriert, Highend-Speichersubsysteme zu entwickeln und hierbei Cluster-Designs und SATA-Laufwerke genutzt. IBM Tivoli erwarb ferner FileX, ein auf das Thema Continuous Data Protection (CDP) spezialisiertes Unternehmen, sowie Diligent, Experte für De-Duplizierungsverfahren im Enterprise-Umfeld.

Ebenfalls 2008 machte Dell eine wichtige Akquisition. Es erwarb mit Equallogic aus Nashua im US-Bundesstaat New Hampshire einen Spezialisten für skalierbare iSCSI-Speicherlösungen in IP-SAN-Umgebungen. Mit einem Preis von 1,4 Milliarden Dollar zählte Dells Zukauf zu den größten Erwerbungen der vergangenen 18 Monate im Speichermarkt. Dell wird mit diesem Zukauf sein Portfolio an iSCSI-Speicherlösungen neben den bereits vorhandenen eigenen und von EMC bezogenen Subsystemen erheblich erweitern.

Fazit

Der Markt für Speichersysteme ist der dynamischste Sektor der IT-Branche. Es vergeht kaum eine Woche ohne Ankündigungen. Die Anforderungen an Speichersysteme wachsen ständig, die Ausgaben hierfür ebenfalls. Die große Zahl von Herstellern und der harte Wettbewerb sind Garanten dafür, dass die Nutzer Technologien mit guter Qualität zu einem günstigen Preis erwerben. Zwar lässt sich wegen diverser Akquisitionen ein Trend zur Konsolidierung des Marktes feststellen. Gleichzeitig aber entstehen immer neue Unternehmen, die mit neuen Ideen den Markt in konstanter Bewegung halten.