Zettabyte-Barriere geknackt

Big Data - die Datenflut steigt

Martin Bayer
Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP; mitverantwortlich für die Entwicklung von Themenschwerpunkten; Betreuung von News und Titel-Strecken in der Print-Ausgabe der COMPUTERWOCHE.
Email:
Connect:
Die explodierenden Datenmengen werden für Unternehmen zu einem ernsthaften Problem. Wer die Kontrolle behalten und möglichst viel Nutzen aus den Informationen ziehen will, muss die gesamte IT-Infrastruktur hinterfragen.
Die Datenflut steigt.
Die Datenflut steigt.
Foto: fotolia.com/ktsdesign

Die Information ist das Öl des 21. Jahrhunderts, und Analytics der Verbrennungsmotor, der damit läuft" - Peter Sondergaard, Senior Vice President von Gartner, bemühte eine Metapher, um die Herausforderung deutlich zu machen. Den Rohstoff Information aus gewaltigen Datenmengen zu extrahieren und zu verarbeiten sei eine der künftigen Kernaufgaben für Unternehmen.

Neue Dimension: Zettabyte

"Big Data ist ein Katalysator für verschiedenste Entwicklungen." Rüdiger Spies, IDC.
"Big Data ist ein Katalysator für verschiedenste Entwicklungen." Rüdiger Spies, IDC.
Foto: IDC

Glaubt man den Marktforschern, wird sich in den kommenden Jahren eine bis dato kaum absehbare Flut an Daten und Informationen auf die Unternehmen in aller Welt zuwälzen. 2010 durchbrach das globale digitale Universum erstmals die Zettabyte-Barriere (1 mit 21 Nullen), ergab die von EMC gesponserte IDC-Studie "Extracting value from Chaos". 2011 soll die weltweit produzierte Datenmenge auf ein Volumen von 1,8 Zettabyte ansteigen, das sind 1,8 Billionen Gigabyte. Damit sei die Informationsmenge den IDC-Analysten zufolge in den zurückliegenden fünf Jahren um den Faktor fünf gewachsen. IBM zufolge produzieren wir derzeit weltweit täglich 2,5 Trillionen Byte Daten (1 mit 18 Nullen). 90 Prozent des derzeitigen globalen Datenbestands seien in den beiden zurückliegenden Jahren entstanden.

Experten fassen diesen Trend unter dem Schlagwort Big Data zusammen. Der Begriff sei neu, nicht aber das Thema, sagen Andreas Zilch und Holm Landrock, Analysten der Experton Group. Nach ihrer Definition ist Big Data als neue Dimension zu verstehen, die über bekannte Methoden, Prozesse und Verfahren der Datenanalyse hinausgeht. Vier Entwicklungen bestimmen laut Experton die Veränderungen:

  • Volumen: Die Menge der anfallenden Informationen wird weiter drastisch wachsen. Grenzen sind keine erkennbar.

  • Quellen: Neben dem Volumen wächst auch die Zahl der Datenquellen. Waren es früher hauptsächlich Transaktionssysteme, die strukturierte Daten produzierten, kommen heute vielfältige weitere Quellen hinzu wie beispielsweise Sensoren, Social Networks und mobile Endgeräte.

  • Geschwindigkeit: In Zukunft werden Analysen und Auswertungen ad hoc erwartet und gefordert. Wo früher ein monatlicher Report ausreichte, geht heute der Trend in Richtung Echtzeitanalysen.

  • Nutzer: Mit dem steigenden Datenvolumen wächst auch die Zahl der Nutzer von Datenanalysen in den Unternehmen. Die Herausforderung liegt darin, die unterschiedlichen Rollen mit den passenden Auswertungen zu versorgen.

Neben diesen vier Entwicklungen gibt es aus Sicht der Analysten zwei Metaebenen, die Unternehmen beim Daten-Handling beachten müssen:

  • Sicherheit: Die vielfältigen Informationsflüsse gerade auch hinsichtlich der wachsenden Zahl mobiler Endgeräte, die mit Daten versorgt werden wollen, erfordern ausgefeilte Security-Mechanismen.

  • Qualität: Mit den steigenden Datenmengen wird es für die Unternehmen immer wichtiger, eine hohe Datenqualität sicherzustellen. Schon heute klagen viele Firmen über eine mangelhafte oder zumindest zweifelhafte Qualität ihrer Datenbestände.

Big Data richtig nutzen

Wer mit Big Data richtig umgeht, kann davon profitieren, wollen die Experten von McKinsey herausgefunden haben:

  • Der amerikanische Gesundheitssektor könnte seine Effizienz deutlich verbessern. Das Volumen wird auf 300 Milliarden Dollar pro Jahr beziffert.

  • Handelsunternehmen wären in der Lage, ihre operative Marge um bis zu 60 Prozent zu verbessern.

  • Europäische Behörden könnten durch effizientere Prozesse jährlich bis zu 250 Milliarden Euro einsparen.

  • Mit Hilfe von Lokalisierungsdaten ließen sich weltweit jährlich rund 100 Milliarden Dollar mehr Umsatz erzielen.