Virtualisierung, Cloud, Big Data, SSD

Storage-Trends - Speichertechnologien für 2012

10.02.2012
Von 
Christian Vilsbeck war viele Jahre lang als Senior Editor bei TecChannel tätig. Der Dipl.-Ing. (FH) der Elektrotechnik, Fachrichtung Mikroelektronik, blickt auf langjährige Erfahrungen im Umgang mit Mikroprozessoren zurück.

Mehr Funktionen für Einsteigersysteme

Mehr Daten mit weniger Budget zu speichern, bleibt besonders bei kleinen und mittelständischen Unternehmen ein zentrales Thema. Wandern Technologien wie Deduplizierung und Thin Provisioning zunehmend in die Einsteigersysteme, und reicht das aus?

Hans Schramm - Dell: "Anstatt von Einsteigersystemen, sollte man eher von Storage-Systemen für die unkomplizierte Nutzung von Massenspeichern sprechen. Als genereller Trend wird standardmäßig in Storage-Systemen integrierte Software eine immer größere Rolle spielen. Viele kostengünstige Gigabit-Ethernet-iSCSI-Arrays verfügen heute bereits über vielfältige Funktionen zur intelligenten Datenverwaltung, automatischen Anpassung von Systemressourcen und Leistungsoptimierung. Lange Zeit wurden angeforderte Kapazitäten auch komplett im Storage-Array reserviert (allokiert), was zu vielen, zum Teil ungenutzten Speicherbereichen führte. Heutige Array-Systeme dagegen agieren wesentlich effizienter. Verfahren wie Thin Provisioning nutzen die Brutto-Kapazitäten eines Systems besser aus und vermeiden "leere", aber allokierte Datenbereiche."

Daniel Pelke - EMC: " Die VNX Produktlinie wurde speziell für KMUs und dezentrale IT Organisationen erstellt. Als sogenannte Unified Platform bieten die VNX-Systeme eine einheitliche Unterstützung für Datei-, Block- und Objektspeicher. Unsere Kunden profitieren von der vollständigen Sichtbarkeit virtueller und physischer Ressourcen, können Speicher und Replikation transparent bereitstellen und Speicherfunktionen auf das Array verlagern."

"Des Weiteren können sie dank der Effizienzfunktionen der VNX-Serie wie Komprimierung, Datendeduplizierung, Virtual Provisioning und anwendungsorientiertem Schutz ihren Bedarf an Datenkapazität deutlich verringern und somit wertvollen Speicherplatz zurückgewinnen. F.A.S.T. VP sorgt mit automatischem, effizientem Tiering für eine weitere Senkung der Speicherkosten und steigert gleichzeitig die Performance."

"Prinzipiell muss aber gesagt werden, dass derartige Funktionen weiterentwickelt und gepflegt werden müssen. Das bedeutet, dass sie, egal ob integraler Bestandteil des Systems oder Option, einen Preis haben. Unter dem Blickwinkel des generellen Verfalls der Hardwarepreise ist die untere Grenze erreicht. "

Robert Guzek, Business Management Eternus, Fujitsu Technology Solutions: "Der Trend, höherwertige Storage-Services auch im Entry-Level zu implementieren, bleibt 2012 ungebrochen."
Robert Guzek, Business Management Eternus, Fujitsu Technology Solutions: "Der Trend, höherwertige Storage-Services auch im Entry-Level zu implementieren, bleibt 2012 ungebrochen."
Foto: FTS

Robert Guzek - Fujitsu Technology Solutions: "Der Trend, höherwertige Storage-Services auch im Entry-Level zu implementieren, bleibt 2012 ungebrochen. Allerdings gibt es unter den Herstellern große Unterschiede. Viele haben kein durchgängiges Storage-Portfolio, oftmals kommt es zu Systembrüchen zwischen dem Entry-, Midrange- und Enterprise-Bereich. Hersteller mit einer durchgängigen Produktstrategie tun sich daher bei der Implementation entsprechender Softwarefunktionalitäten leichter. Die ETERNUS DX-Familie von Fujitsu bietet viele Enterprise-Funktionalitäten auch für den Entry-Bereich. Dazu gehören zum Beispiel Snapshots, Thin Provisioning und Cloning. Um den Einstieg in die Nutzung dieser Technologien zu erleichtern, werden ETERNUS DX Entry-Systeme kostenfrei mit der Speichermanagement-Software ETERNUS SF Express ausgerüstet. Weiter bieten ETERNUS DX Systeme mit der Funktionalität 'Data in Place' die Möglichkeit, von einem Entry- über ein Midrange- bis hin zu einem Highend-System zu wachsen."

Guido Klenner - Hewlett Packard: "Ja, Technologien wie Deduplizierung und Thin Provisioning werden wir in den nächsten Jahren auch in Einsteigersystemen sehen. Denn sie machen die langfristige Speicherung und Archivierung effizienter. Das hilft ihnen dabei, Compliance-Anforderungen einzuhalten. Es reicht jedoch nicht aus, die Kosten für die Speicherinfrastruktur dauerhaft niedrig zu halten, weil Unternehmen heute - oftmals vollkommen unnötig - Daten sammeln und aufheben. Wichtig ist daher ein umfassendes Informationsmanagement, in dem Unternehmen definieren, welche Daten mit welchen Serviceanforderungen wie lange aufbewahrt werden müssen. Die Daten werden dann automatisch auf das entsprechend günstigste Medium verlagert."

Dr. Georgios Rimikis - Hitachi Data Systems: "Die Entwicklung geht dahin, dass die Funktionalitätslücke zwischen den so genannten KMU- und Enterprise-Storage-Lösungen immer kleiner wird. Auch kleine und mittelständische Unternehmen haben mit dem rapiden Anstieg des Datenvolumens und damit verbundenen Hardware- und Ressourcenengpässen zu kämpfen. Um diese effizienter nutzen zu können, ist den Firmen nicht durch den einfachen Zukauf von Speicherlösungen mit zusätzlichen Funktionalitäten geholfen. Thin Provisioning ist eine Funktionalität, die mittlerweile auch den sogenannten Midrange-Speicherbereich erreicht hat und mit unseren Systemen standardmäßig geliefert wird. Diese Lösung liefert nicht nur Kapazitätsvorteile für Unternehmen, sondern ist, durch das Striping der Daten, mit signifikanten Performance-Verbesserungen verbunden. Deduplizierung im Backup-Bereich führt zu einer Verschlankung der Backup-Daten und zu einer Zeitreduzierung des Prozesses. Eine Lösung, die von unseren Kunden sehr geschätzt wird ist die Hitachi Data Protection Suite (HDPS): eine integrierte Datenmanagement-Plattform für Archivierung, Search, Backup & Recovery, Deduplizierung und Replikation. Um die IT-Umgebung flexibel ausbauen zu können, sollten Speicher- und Server-Virtualisierung in Angriff genommen werden. Da gerade in kleineren Unternehmen die Personalressourcen für IT knapp sind, sollte zudem das Datenmanagement mit Software und Services optimiert werden."

Ralf Colbus - IBM: "Gefragt sind effizientere Systeme. Damit sind Systeme gemeint, die sich selbst optimieren, mehr auf dem vorhandenen speichern, dem Administrator Standardaufgaben abnehmen und einfach zu bedienen sind. Das ist ein Trend, der sich überall, unabhängig von Systemgröße oder Branche, widerspiegelt. Dedup oder Compression kann ein Ansatz sein, mehr Daten bei weniger Budget zu speichern. Jedoch kann dies bei falschem Einsatz zu Leistungseinschränkungen führen, da nicht jede Applikation von Daten-Reduktionsmethoden profitiert."

Thomas Kao - Infortrend: "Eine effiziente Datenverwaltung ist für alle Unternehmen eine große Herausforderung. Wurden Daten-Deduplizierung und Storage Tiering ursprünglich vor allem im High-End-Bereich zur Verwaltung komplexer Rechenzentren großer Unternehmen eingesetzt, so werden in 2012 auch kleine und mittlere Unternehmen auf diese Funktionen setzen. Durch Deduplizierung werden doppelte Datensätze entfernt und bis zu 90 Prozent Speicherplatz eingespart. Dadurch können Anwender mehr Daten auf einem einzigen Array speichern und ihre Produkte länger nutzen sowie die ROI erhöhen."

Herbert Bild - NetApp: "Aus NetApp Sicht sind Funktionalitäten wie Deduplizierung und Thin Provisioning seit der Einführung unserer dedizierten Mittelstandssysteme der FAS2000 Reihe im Jahr 2007 Standard und kostenlos in allen Systemen integriert. Am großen Erfolg unserer 2000er Systeme zeigt sich der enorme Bedarf nach Effizienztechnologien bei KMUs. Daher werden Deduplizierung und Thin Provisioning nicht ausreichen. Kompression für Daten, bei denen Deduplizierung nicht viel ausrichtet, SAN/NAS-Integration, nahtlose Skalierbarkeit, einfaches Management und integriertes Backup sind weitere Funktionen, die im Mittelstand eine immer größere Rolle spielen und langfristig zu dem Standard werden, der Deduplizierung und Thin Provisioning bereits heute ist."