Storage, SSD, Deduplizierung

Die wichtigsten Speicher-Techniken für IT-Manager

09.03.2009
Von 
Christian Vilsbeck war viele Jahre lang als Senior Editor bei TecChannel tätig. Der Dipl.-Ing. (FH) der Elektrotechnik, Fachrichtung Mikroelektronik, blickt auf langjährige Erfahrungen im Umgang mit Mikroprozessoren zurück.

Deduplizierung

Deduplizierung soll in den Backup- und Archivierungs-Systemen helfen, Datenredundanz zu erkennen und zu beseitigen. Mit der Storage-Technologie lassen sich Speicherplatz und Netzwerkbandbreite sparen. Der Einsatz der Technologie befindet sich jedoch noch am Anfang. Lesen Sie die Meinungen der Experten über die weitere Entwicklung der Deduplizierung:

Mika Kotro, EMC: „Das Thema Deduplizierung steht sicher erst am Anfang.“ (Quelle: EMC)
Mika Kotro, EMC: „Das Thema Deduplizierung steht sicher erst am Anfang.“ (Quelle: EMC)

Mika Kotro, EMC: Das Thema Deduplizierung steht sicher erst am Anfang. Zunächst einmal ist Deduplizierung eine Backup-Technologie, die heute zur Datensicherung eingesetzt wird. Hier entfaltet die Technologie ihre Vorteile, denn Datendeduplizierung bedeutet weniger Datenverarbeitung trotz steigenden Datenvolumens. Das Datenwachstum lässt sich zwar nicht aufhalten, aber durch die „Entdoppelung“ drastisch reduzieren. Bei der Deduplizierung werden nur definierte Teile der Originaldaten gespeichert. Redundante Informationen werden an der Quelle identifiziert und nicht nochmals gespeichert. Dadurch wird die Menge der zu speichernden Daten minimiert. Darüber hinaus ist die Deduplizierungstechnologie in Zukunft auch online im File-System sowie in E-Mail- und Datenbank-Systemen denkbar.

Marcus Schneider, FSC: Deduplizierung etabliert sich als Kerntechnologie für Storage. Viele Unternehmen hat diese Technologie aber noch nicht erreicht. 2009 werden wir deutlich mehr Einsatzfälle von Deduplication sehen, insbesondere im Bereich Backup von Zweigstellen und von virtuellen Servern (die besonders viele Redundanzen enthalten). Wir erwarten eine nochmals stark steigende Nachfrage nach unserem Produkt „Avamar on Primergy“. Deduplizierung kämpft aber auch noch immer mit Einschränkungen. So gibt es nach wie vor keine Lösung für das Highend Data Center. Hier bestehen noch Probleme mit der Skalierbarkeit und Geschwindigkeit dieser Technologie. Deduplizierung im Online-Bereich steht noch ganz am Anfang.

Peter Wüst, NetApp: Deduplizierung ist eine sehr erfolgreiche Technologie. Die meisten Anbieter positionieren ihre Deduplizierungstechnologien allerdings ausschließlich im Backup-Umfeld, was ja auch sinnvoll ist. Aus NetApp-Sicht ist das Thema Deduplizierung jedoch erst dann optimal umgesetzt, wenn eine End-to-End-Deduplizierung erreicht wird, das heißt, wenn Unternehmen sowohl die primären und sekundären Daten als auch die Backup-Daten dedupliziert vorhalten können. Erst dann lässt sich das Potenzial an Ressourceneinsparung durch Deduplizierung bestmöglich ausschöpfen.

Ralf Colbus, IBM: Worum geht es bei der Deduplizierung? Primäres Ziel ist es, Technologien zu finden, die dem Datenwachstum entgegenwirken. Hier ist die Deduplizierung ein Hilfsmittel neben File-Management, intelligentem Daten-Sharing oder der Verlagerung von Daten. Durch Software, die auf den Servern installiert wird, können wir heute schon „im Vorfeld“ unnütze Daten herausfiltern, um diese dann beispielsweise zu löschen oder auf günstigerem Storage zu speichern. Wir sehen, dass Deduplizierung auch auf Disk- sowie File-Systemen anwendbar sein wird. Das größte Problem bleibt aber die Konsistenz der Daten sowie die Verarbeitungsgeschwindigkeit. Im Backup-Bereich muss die Deduplizierung in der Lage sein, im Restore-Fall sehr schnell die Daten wiederherzustellen. Im Produktionsbereich dürfen keine oder nur sehr geringe Performance-Einbußen auftreten.