Der Markt für Storage-Systeme

Overflow

24.09.2008
Von Josh Krischer

Innovationen 1: Thin Provisioning

Mit Thin Provisioning kann virtueller Speicher zugewiesen werden, ohne dass dazu im vorhinein physischer Plattenspeicher dediziert werden muss. Zusätzlicher Speicher lässt sich je nach Bedarf während des Betriebs zuordnen, die Anwendungen laufen dabei weiter. Anwender, die Subsystem-Virtualisierung mittels Thin Provisioning intelligent nutzen, erzielen damit drei Effekte: Sie müssen weniger investieren, sie reduzieren ferner Kosten, weil sie weniger Energie und weniger physischen Platz in Rechenzentren benötigen. Und sie erhöhen die Leistung ihrer Speichersysteme, weil sie die Daten im Striping-Verfahren über alle Platten eines Array-Systems verteilen.

Thin Provisioning weist je nach den wechselnden Bedürfnissen von einem gemeinsam verfügbaren Speicherpool physische Kapazitäten zu. Für diese Technik benutzen Hersteller unterschiedliche Bezeichnungen. Bei 3Par etwa heißt dieses Feature "Dedicate-on-Write" (DoW), Compellent nennt es "Dynamic Capacity". Lefthand Networks tituliert das Feature mit "SAN/iQ Advanced Provisioning" und Network Appliance als "Flexvol". Hitachi und seine Partner HP und Sun Microsystems hatten ihre Thin-Provisioning-Version am 14. Mai 2007 auf ihren Highend-Subsystemen vorgestellt. Die "Nextra"-Systeme von XIV verfügen ebenfalls über ein Thin-Provisioning-Feature. IBM hatte XIV im Januar 2008 gekauft.

Innovationen 2: De-Duplication

Mit dem De-Duplication-Konzept lassen sich mehrfach vorliegende Daten reduzieren. Die Technik wird momentan vor allem bei Backup-Systemen verwendet. Allerdings kommt sie zunehmend auch in Archivierungsanwendungen und anderen Applikationen zum Einsatz. Mit De-Duplizierung reduzieren sich die Anforderungen an Netzbandbreite und die Kosten für Data-Recovery-Vorkehrungen schon deshalb, weil die Menge an zu transferierenden Daten sich verringert.

Im Wesentlichen gibt es zwei De-Duplizierungs-Techniken, die miteinander konkurrieren: das "Inline"- und das "Post-Processing"-Verfahren.

Beim Inline-Verfahren werden Daten in dem Moment de-dupliziert, in dem sie auf dem Zielsystem ankommen - also in Echtzeit. Die Daten werden somit auch nicht zeitweise zwischengespeichert. Dieses Verfahren unterstützen Hersteller wie Falconstor, Netapp und Quantum sowie Sepaton.

Im Gegensatz dazu werden Daten beim Post-Processing-Verfahren zumindest vorübergehend auf dem Zielspeicher abgelegt. Hierbei werden die Daten in ihrer nativen Form auf die Speichersysteme geschrieben und dann sukzessive wieder eingelesen, um von einer De-Duplication-Engine verarbeitet zu werden. Dieses Verfahren benötigt zum einen mehr Speicherplatz, zum anderen mehr Zeit. Es wird von Speicheranbietern wie Datadomain, Diligent, EMC/Avamar und Puredisk genutzt.