Facing Data Gravity

Datenkontrolle in der Public Cloud

René Büst ist Senior Analyst und Cloud Practice Lead bei Crisp Research mit dem Fokus auf Cloud Computing und IT-Infrastrukturen. Er ist Mitglied des weltweiten Gigaom Research Analyst Network und gehört weltweit zu den Top 50 Bloggern in diesem Bereich. Seit Ende der 90er Jahre konzentriert er sich auf den strategischen Einsatz der Informationstechnologie in Unternehmen.
Mit der fortschreitenden Digitalisierung nimmt die Bedeutung von Daten signifikant zu. Auf Grund von Compliance-Richtlinien, rechtlichen Anforderungen, technischen Limitationen und individuellen Sicherheitsklassen besitzen diese jedoch eine bestimmte Trägheit.

Die sogenannte "Data Gravity" macht die Daten unterschiedlich beweglich. Damit sich diese Daten dennoch außerhalb der eigenen IT-Infrastruktur verarbeiten lassen, ohne die Kontrolle darüber zu verlieren, sind neue Storage-Konzepte notwendig.

Eine hybride Cloud-Architektur ist in der Lage die Herausforderungen der "Data Gravity" zu adressieren und eindeutige Lösungsansätze zu bieten.
Eine hybride Cloud-Architektur ist in der Lage die Herausforderungen der "Data Gravity" zu adressieren und eindeutige Lösungsansätze zu bieten.
Foto: everything possible-shutterstock.com

Data Gravity im Zeitalter der Public Cloud

Der Stellenwert von Daten nimmt im digitalen Zeitalter stetig zu. Einerseits werden immer mehr Daten für analytische Zwecke produziert. Andererseits steigt der Verletzungsgrad auf Grund einer immer größer werdenden Vernetzung mit zum Teil nicht bekannten Systemen sowie der Verteilung von Daten innerhalb von Public Cloud-Infrastrukturen, die sich nicht mehr vollständig unter der eigenen Kontrolle befinden.

Passend zum Thema: Software Defined Infrastructure in Deutschland 2016

Software Defined Infrastructure (SDI) hilft Ihnen IT-Ressourcen kosteneffizienter und flexibler zu nutzen.
Weitere Vorteile und eine Roadmap zur SDI laut IDC erfahren Sie in dieser Studie.

Download

Angesichts dieser Tatsache verfügen Daten je nach Typ und individueller Sicherheitsklasse über eine bestimmte Trägheit. Diese sogenannte "Data Gravity" macht die Daten unterschiedlich beweglich. Zentrale Gründe für diese Datenträgheit sind:

  • Größe der Daten

  • Latenz des Zugriffs auf die Daten

  • Durchsatz / Bandbreite für den Zugriff auf die Daten

  • Kontrollmöglichkeiten der Daten

  • Erfüllung rechtlicher Rahmenbedingungen

  • Zugriff von lokalen / mobilen Apps und Cloud-Services

Mit der Hybrid Cloud die Data Gravity reduzieren

Eine hybride Cloud-Architektur ist in der Lage die Herausforderungen der "Data Gravity" zu adressieren und eindeutige Lösungsansätze zu bieten. Dabei ist es nicht mehr notwendig die Daten zu bewegen. Stattdessen bleiben diese auf dem eigenen Storage-System liegen und die Public-Cloud-Services wie Rechenleistung oder Applikationen greifen dann zur Verarbeitung auf die Daten zu. Im Laufe der Verarbeitung wurden die Daten durch die Public-Cloud-Services zwar verändert und gegebenenfalls neue Daten erzeugt. Jedoch verlassen diese niemals das Storage-System in Richtung Public Cloud.

So ein Hybrid Cloud-Szenario bietet daher eine gute Grundlage, um die Herausforderungen im Zuge der Datenverarbeitung in der Public Cloud zu meistern. Zu diesen zählen:

  • Stabilisierung bzw. Verbesserung der Performance

  • Verringerung der Latenz

  • Erhöhung der Verfügbarkeit

  • Optimierung der Zugriffskontrolle

  • Einhaltung von Compliance-Richtlinien & Gesetzesvorgaben

  • Sicherstellung von Governance

Zwar bieten Public-Cloud-Infrastrukturen für Unternehmen zahlreiche Wege, um sich neuen Geschäftsideen zu widmen, ihre IT-Infrastruktur skalierbarer zu betreiben oder einen Vorteil aus ihren Datenbeständen zu ziehen. Dennoch stellen sich Compliance- und Governance-Richtlinien als auch das erforderliche Kontroll-Level immer wieder als Hürden heraus. (bw)