Big Data Analytics

Entwickler müssen mehr drauf haben

05.09.2015
Von 
Christine Wildgruber ist als freie Journalistin in München.
Software für die Analyse von Big Data zu entwickeln, stellt neue und spezielle Anforderungen an Developer. Sie müssen Pioniergeist haben, offene und proprietäre Techniken wie Open Source, Hadoop oder R beherrschen, aber auch einen Sinn für das Business aufweisen.
  • Big Data Analytics funktioniert nur im Teamwork.
  • BDAS-Entwickler müssen allgemeine und proprietäre Tools beherrschen.
  • Gute Developer leiten Business-Entscheidungen aus Analyseergebnissen ab.

Analytik im Bereich Big Data ist auf dem Weg, digitaler Mainstream zu werden. Die Anwendungsbeispiele sind vielfältig: So wird sie unter dem Begriff Enduser-Analytik im IT-Service eingesetzt und beschreibt IT-Systeme, die sich teilweise selbst warten. Im "Internet der Dinge" betrifft das auch große physische Maschinen. , Beispielsweise senden Flugzeuge während des gesamten Fluges technische Daten an ein Kontrollzentrum, das mit Hilfe analytischer Lösungen Verschleiß und mögliche Schäden ermittelt, damit schon bei der Landung die entsprechend ausgerüstete Service-Crew bereitsteht.

Analytik im Marketing wird auch eingesetzt, um das Verhalten von Kunden vorauszusehen oder im Bankwesen, um - in Echtzeit - legitime von betrügerischen Kartenzahlungen zu unterscheiden. Diese Aufzählung ließe sich noch beliebig fortsetzen.

Entwickler in Sachen Big Data Analytics müssen breiter aufgestellt sein als herkömmliche Analytikexperten.
Entwickler in Sachen Big Data Analytics müssen breiter aufgestellt sein als herkömmliche Analytikexperten.
Foto: Ismagilov - shutterstock.com

Die richtigen Informationen extrahieren

Bei allen Unterschieden haben die Anwendungen von Big- Data-Analytik doch zwei Dinge gemeinsam:

  • Sie liefern einen hohen Mehrwert für den Anwender, wenn er aus den massenhaft vorhandenen Daten die richtigen Informationen extrahiert, und

  • jede Analytiklösung ist nur so schlau wie das menschliche Gehirn dahinter, das die zugrunde liegenden Algorithmen entwickelt, getestet, überarbeitet und Stück für Stück präziser gemacht hat.

Die Entwickler von Big-Data-Analytiksoftware (BDAS) sind nach den Data Scientists ein weiteres neues Berufsbild, das die Big-Data-Ära hervorgebracht hat. Aber was unterscheidet einen BDAS-Developer von einem Entwickler traditioneller Prägung?

Entwickler müssen Teamwork leben

Zunächst einmal ist es zwingende Voraussetzung, ein echter Teamplayer zu sein: "Das Klischee vom einsamen Wolf, der allein in seinem Kellerlabor an Lösungen für jedes Problem tüftelt, ist in der Big-Data-Ära überholt", sagt Doug Clare, Vice President FICO Analytic Cloud, einem Anbieter von Predictive Analytics und Softwarelösungen für Entscheidungsmanagement. Im Zeitalter von Big Data gehe es vor allem um echte Kollaboration, welche die Silostrukturen und die Grenzen zwischen Abteilungen überwindet. Denn damit ein Unternehmen den vollen Nutzen aus der Big-Data-Analytik schöpfen kann, müssen die Entwickler zusammenarbeiten sowie ihre Ideen und Konzepte miteinander teilen. Immer wieder, so Clare, hätten Kunden berichtet, dass mehrere Teams an derselben Analytik gearbeitet hätten - was eine Verschwendung wertvoller Ressourcen sei. Das koste Zeit und bremse die Dynamik. Beides können sich Unternehmen, die erfolgreich Big-Data-Analytik betreiben wollen, nicht leisten.

BDAS-Developer sind agil und produktiv

Die wichtigsten Prinzipien bei der Arbeit mit Big-Data-Analytik sind Produktivität und Agilität. Deswegen müssen Developer neuen Zuschnitts auch eine Art digitalen Werkzeugkasten besitzen, aus dem sie je nach konkreter Herausforderung die passenden Tools auswählen und die gestellten Anforderungen bewältigen können. "Es gehört zum Anforderungsprofil eines echten BDAS-Developers, breiter aufgestellt zu sein als traditionelle Analytikexperten. Letztere haben natürlich auch einen großen Erfahrungsschatz, sind aber oft spezialisiert auf bestimmte Tools, die sie bevorzugt einsetzen. Ein BDAS-Developer muss hingegen traditionelle oder auch proprietäre Tools genauso wie neue Technologien in Open Source nutzen können", betont Clare. Dazu zählen etwa das Hadoop-Framework oder die Programmiersprache R. Zudem müssen sie in der Lage sein, die enormen Datenmengen mit den entsprechenden Tools parallel zu bearbeiten, um die "Time to insights" von mehreren Wochen auf wenige Tage oder Stunden zu reduzieren.

Erkenntnisse in Business-Entscheidungen transformieren

Daten sind der wichtigste Rohstoff des 21. Jahrhunderts. Unternehmen, die ihn am besten verarbeiten, sichern sich Vorteile im Wettbewerb. Das bedeutet, dass diejenigen, die die Tools für die Bearbeitung dieser Daten entwickeln, bereit sein müssen, weiter zu gehen als die anderen - also eine echte Entdeckermentalität zu zeigen und dadurch Erkenntnisse zu erzielen, die zuvor schwierig oder kostspielig waren. "Durch Big Data kann man durchaus Dinge entdecken, die man gar nicht gesucht hat. Es ist ein wenig wie bei der Erkundung einer Höhle: Man findet einen Schatz oder vielleicht auch nur einen Haufen Steine", vergleicht Clare. Deswegen ist es wichtig, bei allem Entdeckergeist auf die Fragen fokussiert zu bleiben, die man mittels Analytik zu lösen versucht - also einen Mittelweg zu finden zwischen konkreten Analysen und der Bestätigung von Hypothesen und einem "Lass-die-Daten-dir- erzählen,-was-du-finden-sollst"-Ansatz.

Wenn Entwickler dann auch noch in der Lage sind, die so gewonnenen Erkenntnisse in Schlussfolgerungen und konkrete Business-Entscheidungen zu transformieren, geben sie Unternehmen die Fähigkeit, den Nutzen von Big Data voll auszuschöpfen. (pg)