Datenmanagement

Big Data - Fluch, Segen oder einfach viel Arbeit?

20.11.2012
Von Rob Sobers

Metadaten sind der Schlüssel

Die Argumente weisen mehr oder weniger alle auf einen gemeinsamen Kern: Die Datenmengen sind so stark gewachsen, dass sie sich ohne automatisierte Prozesse weder analysieren noch verarbeiten lassen.

Die Nutzung von Metadaten ist mittlerweile das A und O für das Verwalten und Schützen nutzergenerierter Inhalte. E-Mails und das Intranet haben beispielsweise das Speichern und Austauschen von Dateien für die Nutzer vereinfacht. Die Organisationen sind mit großen Datenbergen konfrontiert, die sie mit Small-Data-Ansätzen nicht mehr verwalten können. Zahlreiche Organisatio-nen stehen heute vor Problemen, die sie früher noch mühelos beheben konnten.

Nach Schätzungen von IDC ist zudem nur die Hälfte der kritischen Daten tatsächlich geschützt. Das Problem verschärft sich durch die Cloud-Dienste noch, denn hier entstehen Datenspeicher für nutzergenerierte Inhalte, die ebenfalls verwaltet werden müssen. Hinzu kommt, dass diese Speicher außerhalb des Unternehmens liegen, also neue Management-Prozesse erfordern.

Aus diesen Gründen sieht David Weinberger von der Harvard University Big Data noch am Anfang: "Wir beginnen erst, die Probleme zu verstehen, die mit Big Data gelöst werden könnten." Viele Unternehmen hätten noch nicht erkannt, welche Potenziale in ihren Daten schlummern, und könnten diesen Schatz bisher nicht heben.

Fragen und Antworten zur Big-Data-Strategie

Welche Daten werden in fünf Jahren benötigt?

Ob Kundentransaktionen, Ereignisprotokolle oder Klick-Streams – Unternehmen sollten sich die Frage stellen, welche Daten sie in fünf Jahren brauchen. Sicher ist es schwierig, vorherzusagen, was man später benötigen wird, doch in Bezug auf die Erfassung neuer Daten ist es wichtig, strategisch zu denken.

Brauchen auch kleine Firmen eine Big-Data-Strategie?

Auch kleine Unternehmen können über riesige Datenmengen verfügen. Ein Beispiel sind kleine Banken, die oft Informationen im Umfang von mehreren Terabyte speichern. Sie könnten sich von der Konkurrenz absetzen, indem sie ihre Daten nach Mustern durchsuchen und bestimmen, auf welche Bereiche sie sich konzentrieren.

Woher kommen die nützlichsten Daten?

Eine Quelle sind Server-Protokolle. Web-, Datenbank- und Datei-Server sammeln wertvolle Daten etwa zu Besuchern, Klickverhalten, Kundentransaktionen und Sicherheitsereignissen. Anhand der Analyse können Firmen viel über das Verhalten von jetzigen und künftigen Nutzern lernen. Zudem können sie nach Mustern suchen, um Fehler in der Kundenansprache oder sogar bösartige Aktivitäten zu entdecken. Die nützlichste und größte Datengruppe stellen häufig Inhalte dar, die Mitarbeiter täglich nutzen: E-Mails, Dokumente, Tabellenkalkulationen, Präsentationen und Bilder. Viele Organisationen erfassen und analysieren bereits Content-Informationen, Zugriffsaktivitäten und Berechtigungsdaten. Die Erkenntnisziele dabei sind unterschiedlich, das Risiko, Datenschutzrechte zu verletzen, ist beträchtlich.

Benötigen Unternehmen neuesFachpersonal für Big Data?

Vor der Einrichtung einer Big-Data-Analyseinfrastruktur sollte ein Unternehmen Big-Data-Prioritäten festlegen. Dann muss es geeignete Technologien für die Umsetzung ermitteln. Die größte Hürde ist aber, ausgebildete Systemadministratoren und Datenexperten zu finden. Diese sollten Plattformen konfigurieren, Daten umfassend analysieren und Ergebnisse deuten können.