Datenflut im Griff

Tipps zum Aufbau eines Data-Intelligence-Centers

Holger Bartels ist Managing Consultant und Experte für Data Analytics bei der Managementberatung Detecon.
Mit der zunehmenden Digitalisierung, insbesondere der fortschreitenden Vernetzung von Maschinen, müssen Unternehmen mit einer Flut neuer Daten zurechtkommen. Der Aufbau eines Data-Intelligence-Centers hilft, die Datenmassen zu bewältigen.

Bis 2020 soll die Datenmenge weltweit auf rund 40 Zettabyte steigen. Dann wird es 57 Mal mehr Daten als Sandkörner auf den Stränden der Erde geben. Fluch oder Segen? Mit der zunehmenden Digitalisierung, insbesondere der fortschreitenden Vernetzung von Maschinen, haben Unternehmen jedenfalls Zugriff auf eine Flut neuer Daten. Dazu kommen Daten aus öffentlichen Quellen, mit denen sie ihre eigenen Informationen anreichern können. Diese Masse an Daten sollten Unternehmen über gezielte Analysen für sich nutzbar machen, zum Beispiel durch das Identifizieren verborgener Muster oder das Offenlegen von völlig neuen Korrelationen.

Was brauchen Unternehmen dafür? Zu empfehlen ist der Aufbau eines Data-Intelligence-Centers: Ein solches Center bündelt Methoden, Tools und Prozesse rund um die Datenanalyse, sorgt so in Zusammenarbeit mit den Fachbereichen für mehr Umsatz und identifiziert Kosteneinsparpotenziale.

Wie? Indem es wichtige unternehmerische Fragen beantwortet und bessere sowie genauere Analyse macht. Zum Beispiel, indem es Daten aus allen Unternehmensbereichen mischt. Indem es interne mit externen Daten anreichert. Und schließlich indem es Analyseergebnisse in konkrete Handlungen umsetzt.

Worauf sollten Unternehmen nun achten, wenn sie ihre Datenanalysekompetenzen in einem speziellen Team bündeln wollen, wo liegen die Fallstricke und wie lässt sich der gesamte Datenschatz heben? Hier einige "Lessons learned", die es zu beachten gilt:

Das könnte Sie auch interessieren:

Sieben Erfolgsfaktoren zur Digitalisierung

So schaffen Unternehmen den Turnaround in der Digitalisierung

Die Cloud wird zum Motor der Digitalisierung

Was sollte ein Data Intelligence Center abdecken?

Die Aufgaben sind vielfältig, die Kompetenzen herausfordernd. Ein Data Intelligence Center sollte daher folgende Bereiche abdecken:

  • Auswahl und Bereitstellen von Big Data Tools und Technologien

  • Visualisierung der Ergebnisse und Deskriptive Statistik

  • Predictive und Prescriptive Analytics

  • Modellierung und Simulation

  • Data Mining

  • Aufbau und Bereitstellung der Dateninfrastruktur, einer Cloud und der Enterprise Architecture

  • Entwicklung von speziellen Applikationen und Plug-Ins

Wie strukturiere ich ein Data Intelligence Center?

Ein Data Intelligence Center beschäftigt sich im Kern mit drei Kompetenzfeldern:

Erstens muss es eine Datenarchitektur für das Datenmanagement aufbauen. Dazu muss die passende IT-Infrastruktur mit Hard- und Software installiert sein. Das Datenmanagement verdichtet die Daten, entscheidet, ob es Anwendungen aus der Cloud braucht oder in der Lage sein muss, Daten in Echtzeit zu verarbeiten.

Zweitens stellt ein Data Intelligence Center Datenanalytiker bereit. Sie bringen die mathematisch- statistische Methodenkompetenz ins Team. Dazu gehören unter anderem Zeitreihenanalysen für prädiktive Analysen.

Drittens sollte ein Data Intelligence Center über Industrie- und Prozess-Know-how verfügen, also typische Abläufe im Unternehmen oder zumindest der Branche kennen. Eine reine Fokussierung auf Hard- und Software sowie theoretische Analytiker sowie das Briefen über Fachbereiche greift zu kurz.

Das richtige Team

Von allem mindestens ein Paar: also zwei Analytiker, zwei Datenmanager, zwei Businessanalysten. Warum? Im Tandem arbeiten sie produktiver. Sie können sich austauschen, ausprobieren, neue Wege gehen und ihre individuellen Kompetenzen einbringen. Hier gilt also das klare Prinzip: Eins und eins macht drei.

Das Problem: Es gibt kaum gute Leute auf dem Markt - egal wie sie heißen. Ob Business Big Data Analyst, Data Warehouse Analyst oder Data Scientist: Die Unternehmen suchen verzweifelt nach erfahrenen Analysten. Allein über Stepstone suchten Ende August 2017 mehr als 3.400 Unternehmen Data Warehouse Analytiker.

Die Alternative: selbst ausbilden und dafür guten Nachwuchs direkt von der Uni holen. Hier aber nicht nach einem Data Scientist suchen, denn dieses Berufsbild ist neu und in vielen Unis gibt es noch keinen passenden Studiengang. Stattdessen ist es besser, nach einem R-Entwickler zu suchen. R ist eine freie Programmiersprache für statistische Berechnungen und Grafiken. Und das Wichtigste: R ist Hype an den Unis.

An einem erfahrenen Datenanalysten kommt trotzdem kein Unternehmen vorbei. Es muss im Team wenigstens einen erfahrenen Data Scientist geben, der Algorithmen schreiben kann, und echtes praxisnahes Analytics-Know-how mitbringt. Dafür kann man dann aber auch etwas mehr Geld in die Hand nehmen.

Ohne Fachbereiche geht es nicht

Die Spezialisten im Data Intelligence Center haben in der Regel kein Fachbereichs-Know-how, sind also keine Produktions-, Finanz- oder Logistikexperten. Diese Kompetenz muss aus den Fachbereichen kommen. Hier besteht allerdings häufig ein Zeitproblem: die mangelnde Verfügbarkeit. Nur nebenbei ist zu wenig.

Daher sollten die Fachbereiche Mitarbeiter definieren, die eine festgelegten Anteil ihrer Arbeitszeit explizit für das Data Intelligence Center zur Verfügung stehen. Eine andere Möglichkeit ist es, Datenanalysten in die Fachbereiche zu setzen. Hier stellt sich jedoch meist die Frage: Woher nehmen und nicht stehlen?

Zwei Denkwelten zusammenbringen

IT-Experten und Mitarbeiter in den Fachbereichen trennt neben Zeit noch ein weiteres Problem: Sie denken und handeln grundverschieden. Linienorganisationen arbeiten weniger agil und haben meist kein Projektmanagement im eigentlichen Sinne.

Entwicklerteams dagegen arbeiten heute meist agil, zum Beispiel auf Basis der Scrum-Methodik. Der Data Scientist wiederum funktioniert in keine der beiden Richtungen. Er kennt weder Projektmanagement noch Scrum, sondern setzt in der Regel auf das branchenübergreifende Prozess-Modell Cross Industry Standard Procedure for Data Mining (CRISP DM).

Dieses Modell besteht aus sechs Phasen: Erst Business verstehen, dann Daten verstehen, anschließend Daten aufbereiten, Modell bauen, evaluieren und schließlich das analytische Modell bereitstellen. Während die CRISP DM-Methodik und Scrum der Datenanalysten und Entwickler noch gut harmonisieren, ist es deutlich schwieriger die Fachbereiche methodisch einzubetten. Wer das allerdings nicht schafft, könnte den Projektaufwand extrem erhöhen und schlimmstenfalls scheitern.