Quelle: - Foto: buchachon, Fotolia.com & nopporn, shutterstock.com

Von Data Scientist bis zum Information Broker

Jobmaschine Big Data

31.10.2013 | von Bernd Reder (Autor) 
freier Journalist mit den Schwerpunkten Netzwerke, IT und Telekommunikation in München.
Big Data bietet jede Menge Potenziale fürs Business. Es gibt nur ein Problem: Spezialisten, die mit der neuen Art der Datenanalyse gekonnt umzugehen wissen, sind rar.

Daten sind der Rohstoff, der Unternehmen in den kommenden Jahren einen entscheidenden Wettbewerbsvorsprung bringen soll. So sind beispielsweise Informationen über Kunden, ihr Kaufverhalten, ihre Vorlieben und ihre Aufenthaltsorte bares Geld wert. Das Problem dabei: Big-Data-Projekte, bei denen völlig unterschiedliche Datensätze zu verwertbaren Geschäftsinformationen kombiniert werden, erfordern einen ganz speziellen Typus von IT-Spezialisten. Und der ist noch höchst selten anzutreffen.

Bis 2016 werden dank Big Data weltweit 4,4 Millionen neue Jobs in der IT entstehen, meint die Marktforschungsfirma Gartner. Und laut der Untersuchung "Worldwide Big Data Technology and Services 2012-2016 Forecast" von IDC steigt die weltweite Nachfrage nach Produkten und Services für Big Data derzeit um 31,7 Prozent jährlich. Insgesamt wird der neue Analysetrend IDC zufolge im Jahr 2016 ein Marktvolumen von 23,8 Milliarden Dollar erreichen.

Was Big Data eigentlich ist

In ihrer Studie "The Emerging Big Returns on Big Data" erläutert die IT-Beratungs- und –Dienstleistungsfirma Tata Consultancy Services (TCS), welche Informationen aus welchen Quellen in Big-Data-Projekten Verwendung finden. Das erste Kriterium ist die Form, in der die Informationen vorliegen. Differenziert wird nach:

  • strukturierten Daten: Sie sind in fest definierten Feldern und einer fixierten Form enthalten, etwa in Datenbank-Feldern oder den Zellen von Excel-Tabellen,

  • unstrukturierten Daten: Dazu zählen E-Mails, Audio- und Video-Dateien ohne Tags, außerdem Beiträge in unterschiedlichen Medien wie Online-Foren oder auf Social-Media-Plattformen,

  • halbstrukturierten Daten: Sie nutzen keine fest definierten Felder, verfügen jedoch über Marker beziehungsweise Tags. Dazu zählen HTML- oder XML-Dateien oder "getaggte" Audio-Dateien.

Zudem wird bei Big Data zwischen der Quelle der Informationsbestände unterschieden.

  • Interne Daten werden vom Unternehmen selbst ermittelt. Dazu werden Verkaufsstatistiken oder Informationen der Kundendienstabteilung herangezogen.

  • Externe Quellen sind unter anderem Social-Media-Services wie Facebook und Google+, zudem Daten von professionellen Datenhändlern oder auch Mobilfunkfirmen, die beispielsweise Unternehmen Informationen über den Standort von Kunden bereitstellen.

Laut der Studie von TCS liegen derzeit in Europa 50 Prozent der Daten in strukturierter Form vor. Bei jeweils 25 Prozent handelt es sich um halb- und unstrukturierte Informationen. Im Rahmen von Big-Data-Analysen verwerten die Unternehmen zu 68 Prozent selbst ermittelte Daten. Die restlichen 32 Prozent stammen aus externen Quellen.

Mehr Informationen über Kunden

Benno Zollner, Fujitsu: "Big-Data-Lösungen kombinieren Informationen aus unterschiedlichen Quellen und von vielen Technologien."
Benno Zollner, Fujitsu: "Big-Data-Lösungen kombinieren Informationen aus unterschiedlichen Quellen und von vielen Technologien."
Foto: Privat

Den Nutzen von Big-Data-Projekten für Unternehmen und öffentliche Einrichtungen taxieren Marktforscher weit höher. Die Beratungsfirma McKinsey schätzt beispielsweise, dass Unternehmen weltweit zusätzlich Produkte im Wert von 600 Milliarden Dollar absetzen könnten, wenn sie mehr über den aktuellen geografischen Standort ihrer potenziellen Kunden wüssten. Der öffentliche Bereich in der EU wiederum wäre in der Lage, durch die Auswertung umfassender Datenbestände an die 250 Milliarden Dollar einzusparen, etwa durch eine höhere Effizienz der Steuerbehörden und der Einrichtungen, die für die Vermittlung von Arbeitsplätzen zuständig sind.

Laut einer Studie, die das Marktforschungsunternehmen Business Application Research Center (BARC) auf der CeBIT 2013 vorstellte, nutzen europäische Unternehmen im Rahmen von Big-Data-Analysen vor allem Transaktionsdaten (75 Prozent). Das sind beispielsweise Informationen über das Einkaufsverhalten von Kunden, sei es in Geschäften oder auf Online-Portalen, die Quote der Rücksendungen und Reklamationen oder Anfragen nach Informationen über bestimmte Produkte.

An die 55 Prozent der Unternehmen werten Log-Files aus, rund 44 Prozent Informationen, die von Sensoren stammen. Mit 14 Prozent sind Social-Media-Daten noch unterrepräsentiert, doch mehr als 50 Prozent der Unternehmen wollen auch solche Informationen künftig verwenden, um Produkte zu optimieren, Trends schneller zu erkennen oder Informationen über spezielle Anforderungen von Interessenten und Kunden zu erhalten.

Diese Ergebnisse machen deutlich, dass Big Data eines bedeutet: Daten in unterschiedlichen Formaten und aus diversen Quellen müssen erfasst, konsolidiert und in Informationen "übersetzt" werden, mit denen Manager in der Geschäftsleitung, dem Vertrieb oder der Produktentwicklung etwas anzufangen wissen. "Herkömmliche Programme können die Datenmengen nicht ganzheitlich erfassen; dazu ist neue Software notwendig. Damit verändern sich auch die Anforderungen an das Know-how und die Fähigkeiten der IT-Fachkräfte", sagt Patrick Schmidt, Director Data Center Sales bei Cisco Systems Zentraleuropa. Ein wesentliches Element von Big Data ist die Auswertung von Informationen in Echtzeit. "Schon allein das erfordert ein spezielles Know-how im Bereich IT-Infrastruktur", ergänzt Schmidt.

Ein Big-Data-Fachmann in der IT-Abteilung müsse zudem Spezialkenntnisse in Bereichen wie Cloud Computing, Datenschutz und IT-Sicherheit haben. Das gilt nicht nur für die IT-Experten von Großunternehmen, sondern auch von kleinen und mittelständischen Betrieben. Der Grund: Für die Echtzeitanalyse großer heterogener Datenbestände fehlt es im Mittelstand oft an den erforderlichen IT-Ressourcen, etwa Server-Leistung, Speicherplatz und der Analysesoftware. Diese Komponenten lassen sich bei Cloud-Service-Providern ordern.

Die IT-Abteilung des Cloud-Nutzers muss in diesem Fall wissen, in welchem Format Daten an den Service Provider übermittelt werden und wie es um den Schutz dieser Informationen vor dem Zugriff Unbefugter bestellt ist. Da Big Data Echtzeit-Analyse bedeutet, muss die Netzwerkinfrastruktur so ausgelegt sein, dass Daten und Auswertungen schnellstmöglich zwischen dem Firmenrechenzentrum und dem Data Center des Dienstanbieters übermittelt werden.

Neue Berufsbilder

Laut Experton-Analyst Holm Landrock entstehen durch Big Data einige neue Berufsbilder, für die es bisher allerdings wenig Ausbildungsmöglichkeiten gibt.
Laut Experton-Analyst Holm Landrock entstehen durch Big Data einige neue Berufsbilder, für die es bisher allerdings wenig Ausbildungsmöglichkeiten gibt.
Foto: Privat

Allerdings sind die Mitarbeiter in IT-Abteilungen nur eine von mehreren Akteursgruppen, die in Big-Data-Projekten eine Rolle spielen. Die Beratungsfirma Experton Group geht davon aus, dass im Zuge von Big Data neue Berufsbilder entstehen, darunter der Data Scientist und Data Analyst, außerdem der Information Broker. Nach Einschätzung von Experton-Analyst Holm Landrock dauert eine entsprechende Ausbildung etwa zwei bis drei Jahre. Allerdings seien entsprechende Aus- und Weiterbildungsangebote noch Mangelware. Nach Ansicht von Landrock benötigt ein "Datenwissenschaftler" Know-how aus unterschiedlichen Fachbereichen. Solche fach- und themenübergreifenden Ansätze seien jedoch noch selten anzutreffen.

Das bestätigt Benno Zollner, Chief Information Officer von Fujitsu Technology Solutions: "Big-Data-Lösungen kombinieren Informationen aus unterschiedlichen Quellen und von vielen Technologien. Somit sind interdisziplinäre Erfahrungen notwendig." Ein Big-Data-Spezialist müsse im Idealfall Wissen aus folgenden Bereichen aufweisen:

  • Enterprise-Content- und Dokumenten-Management,

  • Business Intelligence (BI),

  • Datenbanken,

  • Data Warehousing,

  • semantische IT-Ansätze und

  • Social-Media-Netze.

"Das setzt ein Studium der Informatik, Wirtschaftsinformatik oder Mathematik voraus", empfiehlt Zollner weiter. "Bezogen auf IT-Applikationen sollte ein Big-Data-Fachmann außerdem über Know-how in Bereichen wie Datenbanken sowie SAP und Oracle verfügen." Zudem sei ein fundiertes Wissen auf dem Gebiet des Projekt-Managements erforderlich.

Suche nach dem Alleskönner

Kay Müller-Jones, Tata: "Fachübergreifendes Denken ist wichtig."
Kay Müller-Jones, Tata: "Fachübergreifendes Denken ist wichtig."
Foto: TCS

Diese Anforderungsliste klingt nach der "eierlegenden Wollmilchsau". Damit nicht genug, so Kay Müller-Jones, Head of Global Consulting Practice bei Tata Consultancy Services (TCS), einem Anbieter von IT- und Outsourcing-Diensten: "Neben technischen Fertigkeiten und fachlichem Wissen sollten Big-Data-Experten über ein hohes Maß an Fingerspitzengefühl im Umgang mit Kollegen verfügen. Denn gerade Big Data erfordert ein fachbereichsübergreifendes Denken, das Informationen aus vormals klar abgegrenzten Bereichen zusammenführt und vorhandene Datensilos sinnvoll miteinander verknüpft."

Solche Datensilos sind derzeit auf unterschiedlichen Ebenen anzutreffen: Einzelne Unternehmensbereiche und Niederlassungen pflegen in der Regel separate Informationsbestände. Häufig liegen diese in unterschiedlichen Formaten vor. So ist es nicht ohne weiteres möglich, Daten von Werkzeugmaschinen einer Fertigungslinie mit E-Mails oder Beiträgen auf Social-Media-Plattformen zu kombinieren, in denen sich Kunden über die mangelnde Qualität eines Produkts eines Herstellers beschweren.

Für Big-Data-Fachleute heißt dies zweierlei: Sie müssen technische Kenntnisse aufweisen und über diplomatisches Geschick verfügen, um Abteilungen oder Geschäftsbereiche zur Weitergabe von Informationen zu bewegen. Diese Kombination ist in technisch geprägten Berufsfeldern wie der IT nur selten zu finden.

Weiterbildung zum Big-Data-Fachmann

Angesichts der umfassenden Anforderungen an Big-Data-Experten überrascht es nicht, dass diese derzeit fast ebenso gesucht sind wie einst spanische Schatz-Galeonen. Die Beratungsgesellschaft McKinsey schätzt, dass alleine in den USA etwa zwei Millionen IT-Fachleute fehlen, die über Know-how im Bereich Big Data verfügen. Dieser Mangel an Fachpersonal hat mittlerweile etliche IT-Unternehmen auf den Plan gerufen. Kein Wunder, diese wollen mit Big-Data-Produkten Geld verdienen. Ein Beispiel ist SAS, ein Anbieter von Business-Analytics-Software. Das Unternehmen bietet seit November 2012 ein zehntägiges "Power-Seminar" an. In ihm werden Informatiker, Mathematiker und erfahrene Nutzer von SAS-Software zum "Big-Data-Analysten" ausgebildet.

Einen ähnlichen Weg wie SAS beschreitet EMC. Der Hersteller von Storage-Systemen bietet seit vergangenem Jahr im Rahmen seiner EMC Academic Alliance Schulungen zum Thema Data Science und Big-Data-Analyse an. Dies erfolgt teils in Zusammenarbeit mit Hochschulen, teils auf Basis von kostenpflichtigen Online-Seminaren, die bis zu 5.000 Dollar kosten.

Ähnliche Aus- und Weiterbildungsangebote sind auch bei anderen IT-Firmen erhältlich, etwa IBM, HP und Oracle. Allerdings sind etliche dieser Kurse darauf ausgelegt, den Teilnehmern den Umgang mit vorhandenen Big-Data-Lösungen des jeweiligen Hersteller nahe zu bringen, etwa Tools für das Erfassen und Auswerten von Daten. Eine herstellerneutrale Einführung in die Thematik ist bislang noch selten anzutreffen.

Big Data: Gute Jobchancen, aber hohe Anforderungen

Big Data ist für IT-Fachleute, Informatiker und Mathematiker mit Sicherheit ein Feld, das mittel- und langfristig gute Berufsaussichten bietet. Das gilt auch für Quereinsteiger aus anderen Bereichen, etwa Wirtschaftsinformatik oder Betriebswirtschaftslehre, wenn diese eine entsprechende Aus- oder Weiterbildung absolvieren.

Allerdings sind die Anforderungen, die ein Big-Data-Experte erfüllen muss, nicht zu unterschätzen. Die Kombination aus technischem Fachwissen, analytischen Fähigkeiten, einem tief greifenden Verständnis von Geschäftsprozessen und der Unternehmensstrategie in Verbindung mit diplomatischem Geschick dürfte nur bei wenigen Mitarbeitern zu finden sein. Praktikabler ist der Ansatz, die Aufgaben im Rahmen von Big-Data-Projekten auf mehrere Positionen respektive Fachleute zu verteilen: Ein Data Scientist oder Data Architect ist für die Konzeption zuständig, ein IT-Fachmann übernimmt die technische Umsetzung, und ein Data Change Agent sorgt dafür, dass Big Data in die Unternehmensprozesse integriert wird und die Fachabteilungen mitspielen.

»