Storage, SSD, Deduplizierung

Die wichtigsten Speicher-Techniken für IT-Manager

09.03.2009 von Christian Vilsbeck
Eine Tatsache verändert sich auch in der Krise nicht: Der Bedarf an Speicherplatz in den Unternehmen steigt stetig. Wir beleuchten die wichtigsten Storage-Techniken, die IT-Verantwortliche jetzt im Auge behalten müssen.

Der Kostendruck in vielen Unternehmen hat auch auf die IT-Budgets durchgeschlagen. Wer für die Beschaffung und den Betrieb der Storage-Infrastruktur verantwortlich zeichnet, steht vor einer schwierigen Aufgabe: Obwohl die Datenmenge ständig zunimmt verlangt das Management Einsparungen. Umso wichtiger ist es, den Betrieb so effizient wie möglich zu gestalten. Helfen könnend dabei Techniken wie Deduplizierung oder das Einbinden von externen Storage-Dienstleistern.

Vier Storage-Experten erläutern die maßgeblichen Trends für das laufende Jahr:

Deduplizierung

Deduplizierung soll in den Backup- und Archivierungs-Systemen helfen, Datenredundanz zu erkennen und zu beseitigen. Mit der Storage-Technologie lassen sich Speicherplatz und Netzwerkbandbreite sparen. Der Einsatz der Technologie befindet sich jedoch noch am Anfang. Lesen Sie die Meinungen der Experten über die weitere Entwicklung der Deduplizierung:

Mika Kotro, EMC: „Das Thema Deduplizierung steht sicher erst am Anfang.“ (Quelle: EMC)

Mika Kotro, EMC: Das Thema Deduplizierung steht sicher erst am Anfang. Zunächst einmal ist Deduplizierung eine Backup-Technologie, die heute zur Datensicherung eingesetzt wird. Hier entfaltet die Technologie ihre Vorteile, denn Datendeduplizierung bedeutet weniger Datenverarbeitung trotz steigenden Datenvolumens. Das Datenwachstum lässt sich zwar nicht aufhalten, aber durch die „Entdoppelung“ drastisch reduzieren. Bei der Deduplizierung werden nur definierte Teile der Originaldaten gespeichert. Redundante Informationen werden an der Quelle identifiziert und nicht nochmals gespeichert. Dadurch wird die Menge der zu speichernden Daten minimiert. Darüber hinaus ist die Deduplizierungstechnologie in Zukunft auch online im File-System sowie in E-Mail- und Datenbank-Systemen denkbar.

Marcus Schneider, FSC: Deduplizierung etabliert sich als Kerntechnologie für Storage. Viele Unternehmen hat diese Technologie aber noch nicht erreicht. 2009 werden wir deutlich mehr Einsatzfälle von Deduplication sehen, insbesondere im Bereich Backup von Zweigstellen und von virtuellen Servern (die besonders viele Redundanzen enthalten). Wir erwarten eine nochmals stark steigende Nachfrage nach unserem Produkt „Avamar on Primergy“. Deduplizierung kämpft aber auch noch immer mit Einschränkungen. So gibt es nach wie vor keine Lösung für das Highend Data Center. Hier bestehen noch Probleme mit der Skalierbarkeit und Geschwindigkeit dieser Technologie. Deduplizierung im Online-Bereich steht noch ganz am Anfang.

Peter Wüst, NetApp: Deduplizierung ist eine sehr erfolgreiche Technologie. Die meisten Anbieter positionieren ihre Deduplizierungstechnologien allerdings ausschließlich im Backup-Umfeld, was ja auch sinnvoll ist. Aus NetApp-Sicht ist das Thema Deduplizierung jedoch erst dann optimal umgesetzt, wenn eine End-to-End-Deduplizierung erreicht wird, das heißt, wenn Unternehmen sowohl die primären und sekundären Daten als auch die Backup-Daten dedupliziert vorhalten können. Erst dann lässt sich das Potenzial an Ressourceneinsparung durch Deduplizierung bestmöglich ausschöpfen.

Ralf Colbus, IBM: Worum geht es bei der Deduplizierung? Primäres Ziel ist es, Technologien zu finden, die dem Datenwachstum entgegenwirken. Hier ist die Deduplizierung ein Hilfsmittel neben File-Management, intelligentem Daten-Sharing oder der Verlagerung von Daten. Durch Software, die auf den Servern installiert wird, können wir heute schon „im Vorfeld“ unnütze Daten herausfiltern, um diese dann beispielsweise zu löschen oder auf günstigerem Storage zu speichern. Wir sehen, dass Deduplizierung auch auf Disk- sowie File-Systemen anwendbar sein wird. Das größte Problem bleibt aber die Konsistenz der Daten sowie die Verarbeitungsgeschwindigkeit. Im Backup-Bereich muss die Deduplizierung in der Lage sein, im Restore-Fall sehr schnell die Daten wiederherzustellen. Im Produktionsbereich dürfen keine oder nur sehr geringe Performance-Einbußen auftreten.

Thin Provisioning

Anwender erhalten auf ihren Clients virtuell mehr Kapazitäten zugeordnet, als tatsächlich physikalisch zugewiesen wurde. Der Speicherplatz wird erst dann belegt, wenn Daten tatsächlich gespeichert werden. Thin Provisioning sorgt somit dafür, dass der ungenutzte Speicher für andere Zwecke zur Verfügung steht. In High-End-Systemen hat sich die Technologie inzwischen gut etabliert. Unsere befragten Experten antworten auf die Frage, ob Thin Provisioning auch in Einsteiger- und Midrange-Systemen Fuß fasst:

Mika Kotro, EMC: Thin Provisioning ist ein Verfahren zur Bereitstellung von Speicherkapazität in virtualisierten Speicherumgebungen, das zahlreiche Vorteile bietet: Wenn weniger Speicherkapazität benötigt wird, hat das direkten Einfluss auf Energieverbrauch, benötigten Stellplatz und die Kosten. Thin Provisioning gibt es bereits in Midrange-Speichersystemen. Allerdings: Je kleiner der Gesamtspeicherplatz ist und je weniger Systeme angeschlossen werden, umso weniger sinnvoll ist Thin Provisioning.

Marcus Schneider, FSC: „Es ist sicherlich ein Trend, dass Thin Provisioning auch kleinere Systeme erreicht.“ (Quelle: FSC)

Marcus Schneider, FSC: Es ist sicherlich ein Trend, dass Thin Provisioning auch kleinere Systeme erreicht. Allerdings ist der Nutzen dieses Verfahrens umso größer, je mehr Applikationen und Server auf ein Storage-System konsolidiert wurden. Damit ist Thin Provisioning etwa im Mittelstand keinesfalls so spannend wie im Rechenzentrum, und man muss genau prüfen, ob es sich rechnet. Durchsetzen wird es sich im Einstiegsbereich 2009 sicherlich noch nicht.

Peter Wüst, NetApp: Thin Provisioning ist eine sinnvolle Technologie für alle Kunden, die mehrere physische oder virtuelle Server mit einem zentralen Storage-System verbinden. Die Technologie wird sich auch bei Midrange- und Einsteigersystemen durchsetzen. Bei NetApp ist Thin Provisioning im Betriebssystem integriert und steht damit automatisch auf allen Systemen vom Enterprise- über das Midrange- bis hin zum Einstiegssegment zur Verfügung.

Ralf Colbus, IBM: Ja. Hier gilt es zu beachten, dass das Management der Thin-Volumes einfach ist und dass diese Volumes genauso behandelt werden können wie Standard-Volumes in Bezug auf Flashcopys/Snapshots (für Datensicherung) oder Datenspiegelung. Interessant ist die Aussage einiger Kunden, die kein Thin Provisioning einsetzen werden, da in ihren Augen das Problem nicht gelöst ist, sondern nur „verlagert“.

Solid State Disks in Storage-Systemen

Nach dem primären Einsatz in Notebooks finden SSDs zunehmend den Weg in Storage-Systeme. Neben einem geräuschlosen Betrieb und der geringen Wärmeentwicklung ist vor allem die hohe Performance für den Einsatz ausschlaggebend. Sehr hohe Transferraten sowie verschwindend kurze Zugriffszeiten sorgen je nach Applikation für eine deutliche Beschleunigung. Allerdings ist der Preis pro GByte noch sehr hoch bei den Flash-basierten Laufwerken. Unsere befragten Experten antworten, ob SSDs in Storage-Systemen für Performance-kritische Anwendungen schon nachgefragt werden und wofür sie sich nicht eignen:

Mika Kotro, EMC: SSDs werden nicht nur nachgefragt, sondern sind bei einer Reihe unserer Kunden bereits im Einsatz. Mit einigem Erfolg: Die Dauer von Standardaufgaben lässt sich erheblich optimieren. So können die Zeitfenster für Batch-Jobs beispielsweise von sechs auf zwei Stunden reduziert werden.

Marcus Schneider, FSC: Mit SSDs in Symmetrix waren wir gemeinsam mit unserem Partner EMC die ersten, die SSDs im großen Stil im kommerziellen Markt verfügbar gemacht haben. Nachfrage nach SSDs gab es vom ersten Tag an. Aber fraglos befinden wir uns noch am Anfang einer dynamischen Entwicklung. Wir werden 2009 eine Vielzahl neuer Produkte sehen. Dieser Markt ist in starker Bewegung, und zwar im Hinblick auf stark sinkende Preise, viele Basisinnovationen und verbesserte Integration in RAID-Systeme. Damit wird 2009 der Grundstein dafür gelegt, dass SSDs in Zukunft als Tier 0 eine wichtige Rolle in Storage-Architekturen spielen werden. Wenn SSDs in unbegrenzter Kapazität fast kostenlos verfügbar wären, würde man sie wohl zu fast jedem Zweck einsetzen wollen – außer vielleicht für die Archivierung.

Peter Wüst, NetApp: Während SSDs für leseintensive Workloads immer interessanter werden, sind sie Stand heute für schreibintensive Workloads nicht optimal. Auch sind die Kosten noch relativ hoch, was sich aber bei steigender Verbreitung ändern wird. Das Interesse an dieser Technologie ist definitiv vorhanden.

Ralf Colbus, IBM: „SSDs wollen im starken Random-Read-Umfeld eingesetzt werden, häufige Writes lassen die Speicher schneller altern, was zu häufigem Austausch der Systeme führt.“ (Quelle: IBM)

Ralf Colbus, IBM: Die Nachfrage besteht, aber nur in sehr extremen Fällen! Extrem heißt, Bereiche sehr kleiner Speicherkapazitäten mit sehr hoher I/O-Belastung – beispielsweise bestimmte Applikationen aus dem Simulationsbereich, High Performance Computing oder aus dem Video-/Medienbereich. Nach heutigem Stand können wir mit „klassischen“ Technologien (hierzu zählen FC-Drives, Storage-Virtualisierung sowie intelligentes Cache-Management) 99 Prozent aller Performance-Anforderungen erfüllen. SSDs wollen im starken „Random-Read“-Umfeld eingesetzt werden, häufige „Writes“ lassen die Speicher schneller altern, was zu häufigem Austausch der Systeme führt. Lassen Sie uns einen Schritt weiterdenken: Wie werden in Zukunft – mit großflächigerem Einsatz von SSDs – Infrastrukturen, Middleware und Management aussehen, wenn wir Disksysteme haben, die 1 Million IOs in wenigen Millisekunden liefern werden? Wir sehen eine größere Nutzung und Verbreitung der SSD-Technologie erst in ein bis zwei Jahren, dann auch in klassischen Applikationsbereichen – wenn der Premiumpreis es rechtfertigt. Die Disktechnologie entwickelt sich ja ebenfalls weiter.

Compliance-gerechte Komplettlösungen

Die gesetzlichen Anforderungen an die Speicherung von geschäftskritischen Daten sind eine komplexe Thematik – Stichwort ITIL und Euro-SOX. Sind die Storage-Anbieter 2009 somit verstärkt von ihren Kunden gefordert, Compliance-gerechte Komplettlösungen anzubieten?

Mika Kotro, EMC: Das Thema Compliance wird 2009 weit oben auf der Agenda der IT-Verantwortlichen stehen. Denn die Finanzkrise und die beinahe täglich bekannt werdenden Datenpannen werden voraussichtlich zu noch strengeren Vorschriften seitens des Staats führen, was den Umgang der Unternehmen mit Informationen betrifft. Dies ist sicher ein Wachstumsbereich, da viele Kunden sich des Werts ihrer Informationen und ihrer Verantwortung dafür bewusster werden. Durch die Umsetzung von Information-Governance-Strategien können Unternehmen sich für diese Herausforderungen gut aufstellen.

Marcus Schneider, FSC: Compliance wird auch 2009 eine wichtige Rolle spielen, und wir als Storage-Hersteller dürfen unsere Kunden und Partner nicht allein lassen. Mit unserer Initiative „Efficient E-Mail“ haben wir uns 2008 einem besonders kritischen Teilaspekt gewidmet: Unternehmen stehen insbesondere dann vor Herausforderungen, wenn sich Technologien und Regeln schnell ändern. Das betrifft vor allem den Bereich der elektronischen Post, sodass hier Handlungsbedarf besteht. Wir werden Efficient E-Mail 2009 vorantreiben und weiter ausbauen – das gute Feedback dazu bestärkt uns darin, über den Tellerrand Storage-System hinauszuschauen. Insbesondere Managed Storage und E-Mail-as-a-Service scheinen uns hier hilfreich, um unsere Kunden zu entlasten. Das ist Teil unserer Strategie „Dynamic Infrastructures“, mit der wir 2009 voll durchstarten werden.

Peter Wüst, NetApp: Grundsätzlich sind Compliance-Themen aktuell und werden stark nachgefragt. Kunden wollen häufig eine Gesamtlösung, deren Einzelkomponenten, also Software, Hardware, Service und Prozessberatung et cetera sie nach ihren individuellen Anforderungen und Branchenspezifika auswählen und kombinieren können. Eine flexible Storage-Infrastruktur ist daher das A und O.

Ralf Colbus, IBM: Wir stellen fest, dass wir fast keine Archivierungslösung mehr ohne Zertifikate oder Eignung (zum Beispiel auch KPMG) verkaufen.

Fibre Channel over Ethernet

Zuverlässige und schnelle Datennetze bilden heute das Fundament für den Datenaustausch. Mit Ethernet und Fibre Channel (FC) stehen zwei bewährte und schnelle serielle Technologien zur Verfügung, die auch längerfristig einen Investitionsschutz bieten. Fibre Channel over Ethernet (FCoE) verbindet beide Technologien und soll den Administrationsaufwand deutlich vereinfachen. Lesen Sie die Meinungen der Storage-Experten zu FCoE:

Mika Kotro, EMC: FCoE bietet viele klare Vorteile, beispielsweise eine Reduzierung der Komplexität oder eine verbesserte Energieeffizienz. Die Technologie entwickelt sich rasant, aber die Entscheidung über die Annahme liegt letztendlich beim Kunden. 2009 wird es sicher einige erste Installationen geben, die nachfolgenden Jahre werden dann zeigen, ob sich die Technologie durchsetzt.

Peter Wüst, NetApp: „Was FCoE ermöglichen wird, ist eine sanfte Migration bestehender FC-Umgebungen auf 10 GbE, sodass die Vorteile beider Protokolle genutzt werden können.“ (Quelle: NetApp)

Marcus Schneider, FSC: Die Standardisierung der Ethernet-Erweiterungen, die für FCoE eine wichtige Rolle spielen, wird erst 2009 abgeschlossen werden. Trotzdem ist FCoE bereits jetzt wichtig, denn es hilft, Verkabelungskomplexität zu verringern. Das beginnt bei den sogenannten „Top of the Rack“-Switches. Hier werden aus vier Kabeln pro Server (Ethernet+FC, jeweils redundant) nur noch zwei (FCoE, redundant). Eine solche Lösung haben wir gemeinsam mit Cisco und NetApp bereits im November 2008 auf unserer Hausmesse VISIT präsentiert. Bis FCoE allerdings einen signifikanten Marktanteil, insbesondere bis hin zum RAID-System, erreichen wird, muss noch etwas mehr Zeit vergehen. Um es deutlich zu sagen: Fibre Channel wird auch 2009 die dominante Storage-Networking-Technologie sein.

Peter Wüst, NetApp: Mit FCoE eröffnen sich ganz neue Perspektiven für Datacenter. Derzeit sieht es so aus, dass der FCoE-Standard, an dessen Entwicklung NetApp maßgeblich beteiligt war, Mitte 2009 verabschiedet sein wird. Was FCoE ermöglichen wird, ist eine sanfte Migration bestehender FC-Umgebungen auf 10 GbE, sodass die Vorteile beider Protokolle genutzt werden können. Wer sich heute über FCoE Gedanken macht, steht auch nicht unter Zugzwang. Die eigentliche Entscheidung wird sein, ob und wann 10 GbE eingeführt wird. Hier werden die Weichen für die Konvergenz der Netzwerke gestellt.

Ralf Colbus, IBM: Einige Storage- und Infrastruktur-Anbieter pushen das Thema gerade sehr stark, um neue Geschäftsfelder zu erschließen. Sie implizieren, dass FCoE – gemäß der Produktzykluskurve – für die Produktion eingesetzt werden kann. Erinnern wir uns noch an die Verbreitung von iSCSI? FCoE kann langfristig das wichtigste Protokoll für Storage werden, für die nächsten Jahre aber werden SAN (FCP und auch iSCSI) und NAS (NFS/CIFS) die etablierten Protokolle bleiben.

SaaS: Storage as a Service

Das Speichern von Daten außer Haus bei externen Dienstleistern klingt verführerisch, lassen sich doch Kosten für eigene Speichersysteme sparen. Auch das Management der eigenen Datenflut lässt sich bequem auslagern. Allerdings sind nicht alle Daten geeignet, außer Haus gegeben zu werden. Lesen Sie die Meinungen unsere befragten Storage-Experten zum Thema Storage as a ServiceSaaS“:

Mika Kotro, EMC: Das Interesse der Unternehmen für SaaS wächst ständig. Die Technologie ist noch relativ neu, die ersten SaaS-Produkte kamen erst 2008 auf den Markt. Somit ist es schwierig, hier jetzt schon Aussagen über den Erfolg insgesamt zu machen. Ich gehe jedoch von einer stärkeren Nachfrage nach Alternativen zu anlageintensiven Investitionen aus, mit Blick auf die Konjunktur im Jahr 2009. Daher erwarte ich eine positive Entwicklung.

Marcus Schneider, FSC: Auf jeden Fall ist SaaS bei deutschen Unternehmen von Interesse. Und das wird durch die wirtschaftliche Situation weiter verschärft. Hier lassen sich Kosten sparen. Allerdings ist nicht jeder Service gleichermaßen gut dazu geeignet, „as a Service“ bezogen zu werden. Wir glauben, dass sich SaaS in einigen Bereichen deutlich durchsetzen wird, etwa bei Collaboration wie E-Mail. Und in anderen Bereichen wiederum eher weniger: Backup ist zum Beispiel ein Thema, bei dem viele Unternehmen die Hardware und die Daten weiter gern im Haus haben, aber die Arbeit nicht unbedingt selbst übernehmen wollen, da doch viel Routine damit verbunden ist. Unsere Antwort lautet hier „Managed Storage“. Damit waren wir schon im vergangenen Jahr erfolgreich, und wir versprechen uns für 2009 ein deutliches Wachstum. In anderen Bereichen, zum Beispiel bei Storage für das SAP-System, werden viele Kunden weiterhin auf Produkte und Lösungen wie etwa FlexFrame setzen. Der Trend für 2009 heißt flexible Delivery-Modelle, und dem tragen wir mit unserer Strategie „Dynamic Infrastructures“ Rechnung.

Peter Wüst, NetApp: Storage as a Service ist ein Thema für deutsche Unternehmen und wird auch vermehrt nachgefragt. Vor allem Unternehmen mit größeren Storage-Umgebungen sind an SaaS interessiert.

Ralf Colbus, IBM: Der Kostendruck und die Sparmaßnahmen lassen SaaS in neuem Glanz strahlen. CIOs erhoffen sich durch SaaS und On-Demand-Konzepte eine deutliche Entlastung ihres Budgets. SaaS setzt aber voraus, dass ein CIO genau weiß, welche Applikationen verlagert werden müssen. Das klingt einfach, die Praxis aber zeigt die Schwierigkeiten auf: Applikationen und deren Schnittstellen müssen genau analysiert werden. Im Klartext: Es muss aufgeräumt werden im Applikationswildwuchs. Wie sehen danach die Anpassungen in das Betriebskonzept aus? Wie sicher und verfügbar ist dann der Service? Für 2009 besteht aber ernsthaftes Interesse, sowohl im KMU-Bereich als auch bei sehr großen Kunden.

Ausblick auf den Storage-Markt

Das Storage-Jahr 2009 ist durch knappe IT-Budgets geprägt. Entsprechend wichtig gestaltet sich ein effizientes Nutzen der Speicherressourcen. Mit welchen weiteren Trends beziehungsweise Entwicklungen und Technologien IT-Verantwortliche und Administratoren in nächster Zeit rechnen müssen, erläutern unsere befragten Storage-Experten:

Mika Kotro, EMC: Auch 2009 wird es darum gehen, die Energieeffizienz von Speichersystemen langfristig zu erhöhen. Daneben werden auch bei Einsteiger- und Midrange-Systemen mehr Funktionalitäten nachgefragt werden. Den Anwendern wird es zunehmend darum gehen, die optimale Lösung für ihr Unternehmen zu finden. Für uns Hersteller bedeutet das, Systeme anzubieten, die noch modularer und flexibler anpassbar sind. Storage wird 2009 auch ein zentraler Bestandteil von Information-Governance-Strategien sein, also dem richtigen Umgang mit Informationen. Denn den größtmöglichen Nutzen aus dem Informationskapital zu ziehen, wird auch 2009 ein Erfolgsfaktor für die Unternehmen sein.

Marcus Schneider, FSC: 2009 wird das Jahr der Scale-Out-Storage-Systeme. Wir haben 2008 mit CentricStor FS ein Produkt angekündigt, das auf einer Grid-Architektur basiert und nahezu unbegrenzt wachsen kann. Das Interesse an solchen Produkten ist riesengroß, denn es lässt sich hier sehr viel Geld sparen. Zum einen basieren solche Scale-Out-Systeme auf Standard-Hardware, was den Anschaffungspreis drückt. Zum anderen verwenden wir bei CentricStor FS ein einziges verteiltes Dateisystem, was eine File-Konsolidierung nicht nur vereinfacht, sondern das Systemmanagement dramatisch erleichtert und somit auch operative Kosten einspart. CentricStor FS ist ein sehr robustes, hochverfügbares Produkt, das den File-Markt 2009 umkrempeln wird.

Peter Wüst, NetApp: 2009 werden voraussichtlich Themen wie Scale Out, Global Namespace, End-to-End-Deduplizierung und VTL den Storage-Markt bestimmen.

Ralf Colbus, IBM: Virtualisierung (End-to-End) und Konsolidierung, File-Systeme, Security, Technologien für den 24x7-Betrieb (Weiterführung der Geschäftsprozesse), Archivierung und intelligentes Backup, Green IT sowie Cloud/Grid-Storage. (wh)

Dieser Artikel basiert auf einem Beitrag von TecChannel.de