Cloud, Virtualisierung, SSD

Die Storage-Trends 2011

12.03.2011 von Ariane Rüdiger
Cloud-Services und neue Speicherarchitekturen verändern den Storage-Markt und machen IT-Verantwortlichen das Leben leichter.

„Wir sehen den Speichermarkt in diesem Jahr sehr optimistisch“, berichtet Lynn-Kristin Thorenz, Director Research & Consulting bei IDC Central Europe. Allein die unaufhörlich wachsenden Datenmassen, aber auch jahrelang hinausgeschobene Investitionen in die IT-Infrastruktur machten Investitionen in Speichersysteme jetzt unabdingbar. Davon profitiere die ganze Branche: „Besonders die starke Zunahme mobiler Daten, die allgemeine Sammelwut und gesetzliche Vorgaben machen hier Druck“, beobachtet die Analystin.

Dieser Druck zeigt Wirkung, indem er die geltenden Paradigmen im Storage-Markt verschiebt. Unternehmen müssen ihre Daten heute nicht mehr unbedingt im eigenen Haus speichern. Das ist vielleicht die wichtigste Veränderung, die sich derzeit in den Köpfen vieler Storage-Verantwortlicher vollzieht. Was noch vor drei Jahren als Tabubruch galt, nämlich Daten einem externen Dienstleister anzuvertrauen, entwickelt sich gerade in kleinen Unternehmen und bei Freiberuflern zu einer gern genutzten Alternative.

Das Angebot an neuartigen Speicherdiensten wächst unterdessen stetig. Etliche zufriedene Anwender zerstreuen die Befürchtungen, die eigenen Daten seien beim Dienstleister grundsätzlich nicht sicher oder könnten ins Ausland gelangen und damit juristische Probleme auslösen. Die Vorteile von Storage as a Service oder Storage aus der Cloud haben inzwischen viele Unternehmen erkannt: Die Dienste machen Anwender unabhängig von Neuinvestitionen in Hardware und Software, auch die aufwändige Wartung und Pflege der System entfällt. Stattdessen zahlen Kunden in der Regel nach Speicherbedarf. Um die knifflige Frage, wie oft die Daten wo gespeichert und damit vor Missbrauch geschützt sind, muss sich in erster Linie der Dienstleister kümmern. Natürlich trägt der Anwender am Ende die Verantwortung; aber entsprechende Verträge können dafür sorgen, dass er sich im Ernstfall beim Anbieter schadlos halten kann. Und dieser wird sich schon aus Imagegründen darum bemühen, Probleme zu auszuschließen.

Deduplizierung bleibt ein wichtiges Thema

Weil die Datenmengen in den Unternehmen ungebremst wachsen, ist es kein Wunder, dass Sicherungs- und Deduplizierungstechniken weiterhin eine wichtige Rolle spielen. In diesem Segment gibt es zahlreiche neue Entwicklungen, die zum Teil schon auf der CeBIT präsentiert wurden. iSync von Druva beispielsweise sichert Unternehmens-Notebooks überall. Dabei soll die Leistung des Geräts während der Sicherung nicht leiden. Zur Übertragung sind alle verfügbaren Verbindungen geeignet, sogar ungesichertes WAN (Wide Area Network). Die Lösung kalkuliert für jede Anwendung die optimale Größe der übertragenen Datenpakete, teilt sie auf bis zu acht parallel bearbeitete Warteschlangen auf und dedupliziert sie noch an der Quelle, um so viel wie möglich über die Leitung zu pumpen. Veränderungen werden in kurzen Abständen in Form von Snapshots auf dem Server gespeichert. Zur Rücksicherung wählt der Anwender über eine Webschnittstelle den Zeitpunkt aus, zu dem die Daten noch in Ordnung waren – das gilt sogar für einzelne Dateien. 16 TB deduplizierte Daten und bis zu 2000 Anwendermaschinen passen auf einen Backup-Server. Druva kostet einmalig 600 Euro pro Server und 53 Euro pro gesichertes Gerät. Dazu kommen 16 Euro jährlich für die Wartung.

Commvault lässt den Anwendern bei Simpana 9 die Wahl zwischen Deduplizierung an Quelle oder Ziel. Die Anwender verwenden einen gemeinsamen Dedupe-Speicher, was die benötigte Gesamtkapazität verringert. Anwender können sogar einzelne Mails aus Exchange-Snaps und Einzeldaten aus Sharepoint wiederherstellen.

Rechtskonforme Archivierung treibt Storage-Services

Besondere Brisanz hat die Frage nach professionellen Speicherdiensten im elektronischen Geschäftsverkehr, wo viele Dienstleister ein Einfallstor in den Markt der kleinen und mittleren Firmenkunden vermuten. Diese müssen nämlich ihre Mails, vor allem elektronisch eingegangene Rechnungen, rechtskonform archivieren. Das stellt gerade sehr kleine Betriebe oder Freiberufler vor große Hindernisse, so sie nicht auf die Services von Externen zurückgreifen. Beispiele für einschlägige neue Angebote sind etwa die e-Rechnung der DATEV, aber auch die heiß diskutierte DE-Mail oder der E-Postbrief.

7 Mythen über die E-Mail-Archivierung
Archivieren oder lieber nicht
Darf ein Unternehmen jede E-Mail archivieren? Was passiert mit privater Korrespondenzen? Sollte jede E-Mail verschlüsselt werden? Hier finden Sie die gröbsten Fehleinschätzungen bei der E-Mail-Archivierung.
1. Jede Mail muss archiviert werden
Alle Unternehmen – Kleingewerbetreibende ausgenommen – müssen ihre komplette Geschäftskorrespondenz für sechs bis zehn Jahre ab Ende des Kalenderjahres aufbewahren.
2. Jede Mail darf archiviert werden
Einige E-Mails können, andere müssen gespeichert werden. Es gibt aber auch Mails, die auf keinen Fall mitgespeichert werden dürfen: private E-Mails von Mitarbeitern, soweit keine explizite Einwilligung der Mitarbeiter vorliegt.
3. Das Verbot privater Mails in Unternehmen ist juristisch ohne Alternativen
Auch wenn es die bequemste und einfachste Methode ist: Ein striktes Verbot für private E-Mail ist nicht mehr zeitgemäß. Der gesamte Social-Media-Bereich weicht die Grenze von privater und geschäftlicher Nutzung IT auf und gerade die Einbindung des Unternehmens in Facebook, Twitter oder ähnliche Netzwerke erfordert eine private oder halbprivate E-Mail-Korrespondenz während der Arbeitszeit.
4. Das E-Mail-Archiv muss verschlüsselt sein
Der Gesetzgeber verlangt keine Verschlüsselung. Einige Fälle von unbeabsichtigten Datenverlusten zeigen aber, dass es im Eigeninteresse der Unternehmen liegen sollte, Daten verschlüsselt zu speichern und zu übertragen.
5. Bordmittel des E-Mail-Servers bieten alle nötigen Optionen
E-Mails werden häufig in proprietären Archivdateien gesichert, wie beispielsweise PST-Dateien in Exchange-Umgebungen. Diese enthalten nicht nur die gesicherten E-Mails, sondern auch Kalendereinträge, Kontakte sowie Aufgaben und werden häufig auf dem Endgerät des Anwenders abgespeichert. Dies reduziert zwar die Datenmenge auf den Mail-Servern, bietet aber keinerlei Compliance.
6. Ein E-Mail-Archivsystem garantiert Rechtskonformität
Neue, automatisierte Appliances oder Cloud-Lösungen mit hohem Zusatznutzen steigern die Motivation in Unternehmen, ihre E-Mail-Archivierung rechtskonform aufzusetzen. Doch die Tools automatisieren nur den Archivierungsvorgang.
7. E-Mail-Archivierung geschieht nur aus juristischen Gründen
Selbst wenn es keine gesetzliche Verpflichtung geben würde, ist eine Sicherung der E-Mails nach heutigen Standart sinnvoll: Eine umgehende Wiederherstellung verloren gegangener E-Mail-Infrastrukturen ist jederzeit möglich - entweder von einer lokalen Appliance oder von einem externen Rechenzentrum, wo die Daten gespiegelt sind.
Cisco bündelt seine Smart-Storage-Systeme mit einem Angebot des Speicherservices Mozy
Foto: Cisco

Auch wer sicher sein muss, dass die eigenen Daten nur innerhalb der deutschen Grenzen gespeichert werden, kann inzwischen auf entsprechende Cloud-Services, etwa vom Dienstleister ScaleUp, zurückgreifen. Mit einer neuentwickelten Hard- und Softwarearchitektur schafft es das Unternehmen, das Gigabyte für zehn Eurocent anzubieten - bei dreifacher Speicherung jeder Information. Ein weiterer Anbieter von Cloud-Services ist etwa die EMC-Tochter Mozy, die sich auf der CeBIT zum ersten Mal einer breiten deutschen IT-Öffentlichkeit präsentierte. Aber auch Dataglobal oder Host Europe offerieren Storage aus der Cloud. Cisco kombiniert Speichersysteme seiner Smart-Storage-Serie mit Mozy in einem Paket. Der Backup-Spezialist Acronis bietet für 49,90 Euro jährlich pro Maschine 250 GB Backup-Kapazität an. Dort können Kunden ganze Images speichern. So lässt sich etwa nach einem Crash das komplette System wieder aufspielen.

Die Einschätzung, dass Speicher- und Archivierungsdienste wichtiger werden, deckt sich übrigens mit Trendprognosen des Sicherheitsspezialisten Symantec: Dort geht man davon aus, dass die Grenzen zwischen Hardware, Software und Services aus der Sicht des Anwenders eher unwichtig werden. Dieser interessiere sich künftig vor allem für das Ergebnis, sprich für sicher gespeicherte Daten. Gleichzeitig werde das Speichern in der Cloud beliebter, erwartet der Hersteller, der auch selbst entsprechende Services offeriert. Dessen ungeachtet können kleinere Firmen Archivierungsaufgaben natürlich auch mit eigenen Systemen erledigen. So präsentierte etwa Grau Data Storage zur CeBIT ein hardwareunabhängiges Archivierungssystem für mittlere und große Unternehmen, das bis in den Petabyte-Bereich skaliert. EMC stellte kürzlich seinen Data Domain Archiver vor, ein System, das Backups und Langzeitarchivierung in einem System konsolidiert.

Neue Storage-Architekturen für die Cloud

EMCs neue VNX-Systeme vereinigen Eigenschaften von SAN- und NAS-Storage in einer Plattform
Foto: EMC

Die Verbreitung von Cloud-Storage wirkt sich auf die architektonische Seite von Speichersystemen aus. Scale-Out und Grid-Storage heißen hier die Stichworte. Selbst EMC fühlt sich anscheinend unter Druck gesetzt, endlich kostengünstigere Produkte auf den Markt zu bringen, so geschehen jüngst mit der VNX-Plattform, die SAN- und NAS-Technologie unter einem Dach vereinigt. Anderen Herstellern reichen solche Ansätze nicht mehr: Der bereits erwähnte Anbieter ScaleUp beispielsweise verwendet als Infrastruktur-Basis die Softwareplattform Ring von Scality. Dabei handelt es sich um eine hochskalierbare Object Storage-Software, die vor allem auf unstrukturierte Inhalte und E-Mail ausgerichtet ist. Für das Speichern von Datenobjekten in der Cloud nutzt das System global verteilte Knoten aus individuell entwickelten Servern, die ihrerseits aus Standardkomponenten bestehen und eine offene Referenzarchitektur nutzen. Die Architektur wurde von einem amerikanischen Storage-Dienstleister entwickelt und kann frei verwendet und modifiziert werden. Vor Verlusten werden die Daten durch ständiges wechselseitiges Monitoring der Knoten und permanente Replikation geschützt. Scality kann unter anderem auf eine Kooperation mit dem Datensicherungs-Spezialisten Commvault verweisen.

Cloud-Infrastrukturen verändern das Storage-Management

Wenn Speichersysteme zur schnell disponiblen Ressource innerhalb mehr oder weniger virtualisierter Infrastrukturen werden, muss das auch Auswirkungen auf die nötigen Management-Werkzeuge haben. Tatsächlich kommen inzwischen Tools auf den Markt, die versuchen, die Leistung einer Infrastruktur ganzheitlicher zu betrachten und auch die Gesamt-Performance statt diejenige einzelner Komponenten oder Funktionen zu verbessern.

Einige Beispiele: IntelliMagic SPM (Storage Performance Management) ist eine Storage-Management-Suite, die sämtliche Speicher-Ressourcen verwaltet und ihre Leistung durch umfassende Datensammlung an den Geräten überwacht. Bei Fehlern analysiert sie die Ursachen und macht Vorschläge zur Schadensbehebung. Die Software prognostiziert zum Beispiel den zukünftigen Speicherbedarf, schlägt optimale Konfigurationen und Lastverteilungen vor und hilft bei der Datenmigration. Auch Mainframe- und Open-Storage-Systeme lassen sich in die zentrale Verwaltung einbeziehen.

Die von Netapp aufgekaufte Firma Akorri nimmt sich mit Balance Point gleich die Verwaltung der gesamten Infrastruktur vor. Der Ansatz des jungen Unternehmens heißt Cross Domain Analytics: Die Analyse der physischen und virtuellen Infrastruktur (Server und Storage) läuft über eine Plattform. Agenten auf den Systemen sind dafür nicht nötig. Um die Leistung des Gesamtsystems zu analysieren und zu optimieren, verwendet Akorri dynamische Modelle. Damit lassen sich zum Beispiel definierte Servicequalitäten von Cloud-Diensten zuverlässig einhalten.

COMPUTERWOCHE Marktstudie Datenqualität

Wir haben unsere Leser aus dem IT-Management gefragt, ob und mit welchem Erfolg sie für einen sauberen Datenbestand sorgen. Die Antworten möchten wir Ihnen nicht vorenthalten!

Zur Marktstudie

Amplidata verwendet zur Vermeidung redundanter Datenspeicherung ein Satellitenprotokoll, das Daten und Prüfsummen feingranular aufteilt
Foto: ad

Die belgische Neugründung Amplidata setzt ebenfalls auf global verteilte Speicherknoten und kombiniert diese mit einem Satellitenprotokoll. Dieses teilt Daten und Prüfsummen in viele kleine Blocks auf. Beides verteilt das Bitspread-Protokoll über so viele Knoten, dass sich bei Ausfällen einzelner Komponenten das gesamte Datenmaterial praktisch auch ohne Redundanz im Datenbestand immer wieder rekonstruieren lässt. Die Granularität der Verteilung definiert der Anwender, indem er angibt, wie viele Plattenausfälle jeweils maximal kompensiert werden sollen. „Wir brauchen nur 1,4 TB Rohkapazität, um 1 TB Daten zu speichern“, erklärt Yves Delongie, Vice President Sales des 2004 gegründeten Unternehmens. Auch der US-Hersteller OS Nexus präsentierte mit Quantastor schon im Vorfeld der CeBIT eine Lösung, die es erlaubt, Speichersysteme zu einer skalierbaren und Cloud-tauglichen Hardwarebasis zu machen.

Die Herausforderung, Speicherinfrastrukturen für das Cloud-Zeitalter zu vereinfachen, gehen andere Anbieter eher auf der Netzwerkebene an: Coraid etwa verzichtet mit seiner Ethernet-Storage komplett auf Fibre Channel und komplexe Protokollschichten. Die Technologie verwendet die Medienzugangsschicht (MAC) des Ethernet-Protokolls (Level 2) und das Open-Protokoll AoE (ATA over Ethernet). Server schreiben dabei auf die Disks, als wären es lokale Laufwerke. Virtuelle LANs trennen die Klienten logisch voneinander. Die Platten haben nur eine Ethernet-MAC-, aber keine Internet-Adresse. Die höheren Netzwerkfunktionen befinden sich in der Steuerungshardware im Rack. Ein Modul enthält jeweils bis zu 36 Laufwerke (SAS, SSD oder SATA) beliebiger Kapazität, die mit allen RAID-Technologien (0, 1, 5, 6 oder 10) gesichert werden können. „Wir bieten 30 Prozent mehr Leistung als Fibre Channel zu 20 Prozent des Preises“, sagt Coraids CEO Kevin Brown. Man habe bereits 1200 Kunden gewonnen, die vor allem aus dem Bildungsbereich stammten.

Tiered Storage und SSDs setzen sich durch

IDC setzt in seinen Prognosen für das Speicherjahr 2011 andere Schwerpunkte. Nicht Cloud-Services und neue Architekturen stehen aus Sicht der Analysten auf der Agenda ganz oben, sondern der Aufbau geschichteter („Tiered“) Architekturen. Diese entwickelten sich in Unternehmen immer mehr zum Standard. Daten werden dabei nach ihrer Wertigkeit gespeichert: teure, wichtige oder schnell verfügbare Daten auf schnellen und teuren Speichern, weniger wichtige, die man eher selten braucht, auf langsamen. In solchen Tiered-Infrastrukturen, die sich auch innerhalb eines einzelnen Geräts aufbauen lassen, spielen Solid State Disks (SSDs) eine immer wichtigere Rolle.

Dazu tragen sicher auch die demnächst zu erwartenden E-MLCs bei. Diese Enterprise-tauglichen MLCs (Multi Level Cells) sollen mit Hilfe innovativer Caching- und Softwaremechanismen fast ebenso zuverlässig arbeiten wie die teureren Multi-Level-Speicherzellen. Nahezu jeder wichtige Hersteller arbeitet an einschlägigen Techniken. Die große Hoffnung der Anbieter: SSD-Speicher könnten in Märkte vorstoßen, für die die Flash-Speicher bislang wegen der hohen Kosten keine Rolle spielen, beispielsweise in Midrange-Speicherlösungen. Samsung etwa bietet jetzt ein MLC-basierendes SSD-Modul für Enterprise-Anwendungen an.

In Notebooks sind SSDs bis heute eher selten anzutreffen. Die Preise sind noch zu hoch.
Foto: Samsung

Im Highend ist der selektive Einsatz von SSDs durchaus schon heute üblich, auf den Cent wird in diesen Preisregionen ohnehin eher nicht gerechnet. Zuverlässigkeit und Schnelligkeit zählen mehr. Das bestätigt Wolfgang Schwab, Senior Advisor & Program Manager Efficient Infrastructure beim Beratungsunternehmen Experton Group: „Bei den obersten fünf Prozent der Systeme wird sich SSD-Technologie als quasi selbstverständliche schnellste Speicherschicht verbreiten“, erwartet er. In Notebooks würden sich SSDs wegen der nach wie vor hohen Preise aber kaum schnell weiter ausbreiten. Nur in sehr spezifischen Marktsegmenten ergebe ein Ersatz oder die Ergänzung der herkömmlichen Festplatte durch eine SSD wirklich Sinn. (wh)