Mehr Freiheit für Unternehmensdaten

Data Gravity mit Multi-Cloud-Infrastruktur überwinden

28.09.2015
Von 


Herbert Bild ist seit November 2005 als Senior Solution Marketing Manager CEMEA bei NetApp tätig. Zu seinen Hauptaufgaben gehören die Unterstützung bei der Markteinführung neuer NetApp Lösungen, die interne und externe Kommunikation rund um Produktneuheiten sowie die Darstellung und Positionierung der Lösungen gegenüber dem Mitbewerb. Sein Zuständigkeitsbereich umfasst vor allem den deutschen Markt und auch projekt- und produktbezogen Aktivitäten im gesamten EMEA Vertriebsgebiet.
Wer Daten auf eine neue Plattform migriert, hat meist mit der sogenannten "Data Gravity" zu kämpfen. Gewisse Daten "klammern" sich an die alte Infrastruktur. Ein Weg aus diesem Dilemma ist eine Multi-Cloud-Infrastruktur.
Auch Bits und Bytes unterliegen den Gesetzen der Schwerkraft - im übertragenen Sinne. Sie haben nämlich die Tendenz, sich an eine bestehende Infrastruktur zu klammern, die sogenannte Data Gravity.
Auch Bits und Bytes unterliegen den Gesetzen der Schwerkraft - im übertragenen Sinne. Sie haben nämlich die Tendenz, sich an eine bestehende Infrastruktur zu klammern, die sogenannte Data Gravity.
Foto: everything possible-shutterstock.com

Die Cloud gibt mittelständischen Unternehmen mit überschaubarer IT-Infrastruktur eine effiziente Möglichkeit, das kontinuierliche Datenwachstum sicher zu beherrschen. Dies ist vor allem wichtig, weil Daten heute zu einem zentralen Produktionsfaktor geworden sind. Gleichzeitig nimmt die Menge der Informationen, die in Rechenzentren verarbeitet werden, ständig zu. IT-Verantwortliche sollten daher Cloud-Technologien evaluieren, um sicher und wirtschaftlich die kommenden Anforderungen beherrschen zu können. Auf dem Weg zur Cloud-Integration bremst jedoch eine Kraft die Modernisierungsvorhaben aus: die Data Gravity.

Die Daten-Schwerkraft

Wer als IT-Experte schon einmal vor der Aufgabe stand, Daten auf eine neue Plattform zu migrieren, wird vor der einen oder anderen Schwierigkeit gestanden haben. Die auftretenden Herausforderungen sind häufig auf den Effekt der Data Gravity zurückzuführen. Auch Bits und Bytes unterliegen den Gesetzen der Schwerkraft - im übertragenen Sinne. Sie haben nämlich die Tendenz, sich an eine bestehende Infrastruktur zu klammern. Je nach Eigenschaft und Sicherheitsklasse besitzen die Unternehmensdaten also eine gewisse Trägheit, die es erschwert, Daten zu migrieren oder neue Ressourcen zu integrieren.

Das Phänomen der Data Gravity ist vielen CIOs bekannt, wenn auch nicht immer unter dieser Bezeichnung. Es handelt sich hierbei keineswegs um ein theoretisches Szenario, sondern um eine reale Herausforderung, der sich beinahe jeder IT-Verantwortliche stellen muss, der versucht, die eigene IT-Infrastruktur zu optimieren. Wie aber entsteht Data Gravity überhaupt und warum muss sich die IT damit beschäftigen?

Es gibt verschiedene Faktoren, die diese Schwerkraft erzeugen. Hierzu zählt beispielsweise die Größe der Daten. Wer eine Storage-Infrastruktur im Petabyte-Bereich betreibt, wird diese aufgrund der großen Datenmenge nur sehr schwer auf eine neue Plattform migrieren können. Verlangt eine Anwendung nach einer leistungsfähigen Transaktions-Plattform und schnellen Zugriffszeiten auf die Storage-Systeme, ist es auch hier kaum möglich, Daten auf ein Zielsystem zu verlagern, das nicht die gleiche Performance bietet. Schließlich kann es auch rechtliche Rahmenbedingungen geben, die es erforderlich machen, dass kundenbezogene Informationen nur auf speziell gesicherten Servern verarbeitet werden dürfen.

Diese Beispiele zeigen, dass sich die Data Gravity in beinahe jedem Projekt versteckt. Für IT-Experten wird es dadurch erschwert, IT-Infrastrukturen zu modernisieren und beispielsweise neue Ressourcen aus der Public Cloud zu integrieren.

Data Fabric ist das von NetApp entwickelte Konzept, mit dem Unternehmen eine Multi-Cloud-Infrastruktur realisieren.
Data Fabric ist das von NetApp entwickelte Konzept, mit dem Unternehmen eine Multi-Cloud-Infrastruktur realisieren.
Foto: NetApp

Cloud ist keine Sackgasse

Wer seine Daten einmal in die Public Cloud übertragen hat, wird diese Daten nur schwer zurückholen können. Zu hoch war der Aufwand der initialen Übertragung in die Cloud, die vielleicht sogar noch mit einer Datenkonvertierung einherging. Das Prinzip der Data Gravity wirkt also auch in der Cloud.

Es gibt jedoch Methoden, um auch Cloud-Ressourcen unterschiedlicher Anbieter flexibel zu nutzen und damit die Datenschwerkraft zu umgehen. Grundlage hierfür sind Storage-Betriebssysteme, die Funktionen für Integration, Verwaltung oder Replizierung von Datenbeständen über Storage-Infrastrukturen hinweg ermöglichen.

Multi-Cloud schafft Sicherheit

Bei der Auswahl eines solchen Storage-Betriebssystems sollten Unternehmen darauf achten, dass sich Cloud-Infrastrukturen verschiedener Anbieter sowie On-Premise Systeme von zentraler Stelle aus verwalten und steuern lassen. Gleichzeitig muss gewährleistet sein, dass die IT die Daten zwischen diesen Ressourcen schnell und einfach transportieren kann. Andernfalls läuft man Gefahr, nur über kostenintensive Migrationsprojekte die operativen Daten von einer Cloud in das eigene Rechenzentrum oder in eine andere Cloud verschieben zu können.

Weiterhin ist es für CIOs wichtig, die häufig im Unternehmen vorhandenen Speicher-Silos einzelner Fachabteilungen oder Standorte aufzulösen. Erst mit dem Zusammenführen dieser Daten-Silos zu einer Gesamtlösung wird es möglich, zum Beispiel neue Big Data-Strategien wirkungsvoll umzusetzen und kundenorientierte Prozesse über alle Abteilungen hinweg zu etablieren. Auch bei dieser Datenintegration helfen Storage-Betriebssysteme, indem sie einen Virtualisierungs-Layer über die Speicherlösungen legen.

Viel IT-Leistung ohne hohe Vorabinvestitionen

Wer ein solches Gesamtsystem mit flexibel nutzbaren Cloud-Ressourcen und eng integrierten Daten-Silos implementiert hat, kann dynamisch die anfallenden Workloads und Daten über alle Ressourcen hinweg verschieben. Treten beispielsweise Lastspitzen auf, werden Workloads auf schnelle Flash-Systeme im eigenen Rechenzentrum (On-Premise) verschoben. Für größte Datenmengen können Unternehmen auf die Public Cloud wie Amazon AWS oder Microsoft Azure zurückgreifen und damit effizient und wirtschaftlich agieren. Insbesondere für mittelständische Betriebe ist es so möglich, mit überschaubaren finanziellen Investitionen leistungsfähige IT-Systeme aus der Cloud zu nutzen und so die eigene Wettbewerbskraft zu steigern. (cvi)