Webcast

So hebt Big Data den Datenschatz

27.05.2020
Anzeige  Wer Big Data effizient nutzen will, braucht die richtigen Speicher- und Analyseplattformen. Was dabei zu beachten ist, erklärt ein Webcast der Computerwoche.
Wollen Unternehmen ihren Datenschatz heben, brauchen sie die richtige Technologie und Infrastruktur.
Wollen Unternehmen ihren Datenschatz heben, brauchen sie die richtige Technologie und Infrastruktur.
Foto: carlos castilla - shutterstock.com

Das Versprechen von Big Data ist bekannt - das Einlösen erfordert effiziente Speicher- und Analyseplattformen. Darüber informiert ein Webcast der Computerwoche. Nico Seiberth, Consultant bei SVA System Vertrieb Alexander, zeigt auf, wie IT-Entscheider den Wert ihrer Daten evaluieren und die richtige Analysestrategie finden. Fachjournalist Thomas Hafen von der Computerwoche moderiert den Webcast und steigt einer Bemerkung über die aktuelle Medienkarriere des Themas Big Data ein: "Welche und wie viele Infos brauchen wir für eine Corona-App, diese Frage erhitzt die Gemüter!"

Im Unternehmenskontext ist Big Data auch nach rund zehn Jahren noch problematisch, fügt Seiberth an. Das hat zwei Gründe, zum einen den technologischen Aspekt - welche Daten hat ein Unternehmen tatsächlich und wie sieht die Infrastruktur dahinter aus - und einen organisatorischen. Den umschreibt der Berater mit Punkten wie: "Ist eine Daten-Strategie vorhanden, habe ich Use Cases identifiziert?" Seiberth schmunzelt: "Auf solche Fragen gibt es leider nicht die einfache Antwort ,42', so wie bei 'per Anhalter durch die Galaxis'!" Denn beschäftigt sich ein Unternehmen mit Autonomem Fahren ist das ein ganz anderer Use Case als etwa Spracherkennung.

Alle Kunden aber stehen vor drei typischen Herausforderungen: erstens sind die Daten (wie Dokumente, Bilder oder Video) "irgendwo abgelegt". Zweiten spülen Datenströme Informationen von außen ein, wie beim Internet der Dinge (IoT). Und drittens - laut Seiberth der Klassiker - operieren sie mit großen relationalen Datenbanksystemen. In diesen sind wertvolle Daten enthalten, aber wie kommt man an sie heran?

Die typischen Herausforderungen

Und wo sehen die Zuschauer des Webcasts die größten Herausforderungen? In einer Umfrage setzen sie die Heterogenität der Daten sowie deren Zusammenführung aus verschiedenen Quellen auf den ersten Platz (jeweils 29 Prozent der Nennungen). Rechtliche Fragen folgen auf Platz zwei (21 Prozent) und die wachsende Datenmenge auf Rang drei (elf Prozent).

Stellt sich die Frage, welchen Zwecken Big Data Analytics vor allem dienen sollen. Hier ist das Ergebnis eindeutig: 60 Prozent nennen Prognosen beziehungsweise Predictive Maintenance. Weiter priorisieren die Webcast-Zuschauer zwei Punkte, nämlich das Optimieren der Produktion und den Einsatz im Finanz- und Risikocontrolling (jeweils 40 Prozent). Es folgen Distribution/Logistik (24 Prozent) und besseres Kunden-Management (20 Prozent).

Aus Zielen wie diesen leitet sich die zentrale Frage ab: Wie generiert ein Unternehmen Wertschöpfung aus seinen Daten? "Manche Betriebe wollen nur etwas optimieren, Produktion oder Abläufe zum Beispiel, andere wollen sich ein neues Geschäftsfeld erschließen", sagt Seiberth. Eines fällt ihm auf: Immer mehr Mittelständler setzen sich mit Analytics und KI auseinander, um Daten sinnvoll auszuwerten, und leiten daraus Infrastruktur und Tools ab. Seiberth: "Auch der Mittelstand hat verstanden, dass Big Data kein Marketing-Gag ist."

IT, Fachbereiche und Management an einem Tisch

Seine Firma SVA veranstaltet mit ihren Kunden erst einmal einen Data-Value-Workshop, in dem die Ziele geklärt werden. Drei bis fünf Tage Zeit sollten Entscheider dafür einplanen. "Und das ist nicht nur IT-Thema", betont Seiberth. Das Unternehmen muss IT, Fachbereiche und Management an einen Tisch holen. Auf dieser Grundlage kann eine Datenstrategie entwickelt werden, der Pilotierung/Prototyping folgen. Danach kann das Unternehmen die Strategie implentieren, ausrollen und Betrieb nehmen.

In Sachen Daten sehen die Architekturansätze mit NetApp so aus, dass schon am Edge vorsortiert werden kann. Dann gehen die Daten in den Core gehen und gegebenenfalls in die Cloud. "Ziel ist eine Datenmobilität", erklärt Seiberth. Daten müssen DSGVO-konform hin- und hergeschoben werden können. Dafür besteht auch Bedarf, denn 47 Prozent der Webcast-Zuschauer integrieren Cloud und on-prem in ihre Big-Data-Analysen, 35 Prozent sogar bereits Edge, Cloud und on-prem. "Das ist ein hoher Anteil", kommentiert Seiberth. Auf dem Markt sieht er viele Unternehmen "erst im Startbereich".

Die größten Herausforderungen bei der Kombination verschiedener Infrastrukturen liegen bei den Bandbreiten, so der Experte weiter. Er hat Kunden, die in ihrem Bereich Marktführer sind und in ihrer Region schlicht nicht in die Cloud können, obwohl sie es wollten. Zum Zweiten geht es um rechtliche Aspekte (welche Daten dürfen wo hin) und drittens um die Datenformate. Bekommt man sie im gleichen Format wieder zurück, wenn sie in die andere Umgebung verschoben wurden?

"Die Produkte von NetApp sprechen die gängigen Protokolle am Markt an", betont Seiberth. "Man muss nicht alles neu kaufen, sondern kann einen zentralen Umschlagplatz für die Daten schaffen und seine Silos andocken." Sein Schlusswort bildet einen Bogen zur Ausgangsfrage: "Das Allerwichtigste ist die Entwicklung der Daten-Strategie. Was will, was kann ich erreichen?"

Hier den Webcast ansehen