Amazon S3 & Co.

Storage in der Cloud - was Anwender beachten müssen

10.08.2009
Von 
Heinrich Vaske ist Editorial Director a.D. von COMPUTERWOCHE, CIO und CSO.

Warum sind viele Unternehmen noch skeptisch?

Die Kontrolle über die unternehmenseigenen Daten liegt im Kernverantwortungsbereich eines CIOs. Diese Daten aus der Hand zu geben, trauen sich viele IT-Verantwortlichen nicht - zumal die Anbieter ihnen - mit Ausnahme vielleicht von Amazon.com - oft nicht wirklich vertrauenswürdig erscheinen. Allerdings wird dieser Verzicht zunehmend bedauert: Aspekte wie bedarfsbezogene Abrechnung, keine Vorleistungen oder keine Planung künftiger Speicherkapazitäten klingen auch für konservative CIOs verlockend. Gene Ruth, Analyst der Burton Group, berichtet, dass keiner seiner 100 größten Kunden derzeit Cloud-Speicherdienste für die Verwaltung von Live-Daten nutze. Allerdings sei das Interesse gewaltig.

Schwierigkeiten macht den Anwendern, dass die Cloud ihrem Namen gerecht wird: Man weiß nicht, was man kauft. Gehen die Services von einem verteilten Standard-Speicher aus, von einem traditionellen Midrange-System oder von einer zuverlässigen High-end-Maschine? Oft ist nicht einmal sicher, ob der Dienstleister selbst überhaupt die Speichertechnik besitzt oder selbst Kunde eines Cloud-Anbieters ist. Die Frage der Zuverlässigkeit beziehungsweise des Risikos ist also zentral.

Ebenso die Sicherheitsthematik: In einer Speicher-Cloud liegen die Unternehmensdaten oft auf derselben Platte wie die von anderen Nutzern. Was aber, wenn beispielsweise Ermittlungsbehörden oder Geheimdienste das Medium konfiszieren? Sind dann die Daten immer noch geschützt? Die Gesetzeslage ist hier nicht eindeutig. Manche Anbieter versuchen das Problem zu lösen, indem sie jeden Kunden auf einer physikalisch anderen Platte verwalten - im Zeitalter der Virtualisierungstechniken kein sehr wirtschaftliches Modell. Andere verschlüsseln die Daten ihrer Kunden unterschiedlich, dürften damit aber den Ermittlern kein allzu großes Problem bereiten.

Manche Anwender möchten auf jeden Fall sichergehen, dass ihre Daten nicht verloren gehen können. Sie verlangen deshalb Kopien, die regelmäßig repliziert an das Data Center zurückgehen. Damit reduziert sich die Cloud auf die Funktion eines Zweitspeichers und manchem Kunden stellt sich die Frage, warum er sich überhaupt noch einer Public Cloud anvertrauen sollte.

Auch die Themen Herstellerabhängigkeit und fehlende Standards stellen sich massiv. Jeder Anbieter von Speicher-Services hat seine proprietären Progarmmierschnittstellen (APIs). Erst allmählich beginnen die Anbieter, über gemeinsame Standards nachzudenken. Da die meisten Cloud-Dienstleister aber Startups mit unsicherer Zukunft sind, fürchten die Kunden, dass im Falle einer Pleite das Equipment als Konkursmasse einfach beschlagnahmt werden könnte.

Auch scheint die Rückführung der Daten schwierig, wenn die Internet-Verbindung nicht genügend schnell ist. Das Cloud-Startup Zetta beispielsweise muss 25 Prozent seiner Gesamtkosten für eine angemessen dicke Pipe ausgeben, um die Kunden zufriedenzustellen. Bevor Anwender also einem Anbieter vertrauen, ist eine Due Diligence unerlässlich, aus der hervorgeht, wo die Daten liegen, ob sie in ausreichender Schnelligkeit zurückgeführt werden können und ob sie wirklich sicher gelagert sind.

Was sind die Hausaufgaben für CIOs?

IT-Entscheider sollten genau prüfen, bevor sie sich binden. Dazu gehört, die Data Centers zu besuchen, um zu sehen, was wo gespeichert ist. Ein Service-Level-Agreement mit den maßgeblichen Metriken ist einzurichten, durch regelmäßige Audits sollte dabei geprüft werden, ob der Anbieter seinen Pflichten nachkommt. Verlässt sich der Servicelieferant auf einen Drittanbieter, der den Speicher bereitstellt, ist auch dieser genauestens zu prüfen.