Analytics und Big Data

2017: Big-Data-Prognosen für CIOs

04.01.2016 von Wolfgang Herrmann
Big Data hat sich zu einem milliardenschweren Markt entwickelt, der weiter schnell wachsen wird. Lesen Sie, welche Trends Experten für 2017 sehen und wie sich CIOs darauf einstellen sollten.

9,4 Milliarden Dollar werden 2020 weltweit im Big-Data-Markt umgesetzt, schätzt das Marktforschungs- und Beratungshaus Ovum. 2016 waren es 1,7 Milliarden. Das rasante Wachstum hat Folgen, für IT-Verantwortliche in Unternehmen ebenso wie für Software- und Serviceanbieter. Lesen Sie, was Marktforscher und Experten für das neue Jahr prognostizieren.

Der Markt für Big-Data- und Analytics-Systeme wächst rasant. Für Anwender wie Anbieter entstehen damit neue Herausforderungen.
Foto: Ai825 - shutterstock.com

Prognose 1: Die Nachfrage nach Data Scientists wird abflauen

Der Bedarf an den heiß begehrten Data Scientists wird allmählich abnehmen, schreibt Ovum in einem aktuellen Report. Die Marktforscher verweisen auf Zahlen des Job-Portals Indeed.com, denen zufolge die Nachfragekurve für die Data-Experten in den vergangenen Jahren eher flach verlaufen ist. Gleichzeitig gebe es mittlerweile immer mehr Hochschulabsolventen mit Data-Science-Know-how.

"Wer stellt diese Nachwuchskräfte ein?", fragen die Ovum-Analysten. Abgesehen von Firmen aus dem Online-Business dürfte es sich vor allem um große Unternehmen aus den Global 2000 handeln. Alle anderen wüssten mit Data Scientists eher wenig anzufangen. Die große Mehrheit der Unternehmen, die Analytics-Software von der Stange einsetze, hat aus Sicht der Auguren kaum Bedarf an einschlägigen Fachkräften. Viel wichtiger sei es für sie, geeignete Anwendungen und Tools zu finden, die Data-Sciences-Funktionen unter der Haube mitbringen.

Data Scientists
Die Aufgaben des Business Developer
Business Developer blicken tief in die Geschäftsprozesse und können Unternehmensziele mit Datenanalysen in Verbindung bringen. Sie entwickeln eine erste Fragestellung oder decken ein Problem auf, das anhand der erhobenen Daten gelöst werden soll. Als Schnittstelle zwischen Geschäftswelt und Technik kann er den Nutzen der Analyseergebnisse am besten einschätzen und arbeitet daher eng mit dem Data Analyst zusammen.
Die Aufgaben des Data Analyst
Der Data Analyst besitzt profunde Kenntnis über datengetriebene analytische Methoden, Data Mining-Verfahren und Techniken der Datenvisualisierung. Mit ihnen können Datensätze automatisch klassifiziert oder hinsichtlich ihrer Ähnlichkeit gruppiert werden. So kann der Data Analyst die Aussagekraft der Daten bewerten und relevante Muster und Auffälligkeiten in den Datenströmen erkennen.
Die Aufgaben des Data Manager
Der Data Manager sorgt dafür, dass die Qualität der Daten optimiert wird und sie durch Metadaten ausreichend beschrieben werden. Dazu zählt, dass sich der Data Manager einen Überblick über die Nutzungsrechte verschafft und bei sensiblen Daten weiß, wofür diese verwendet werden dürfen.
Die Aufgaben des Application Developer
Der Application Developer setzt die Plattform auf, auf der die Daten integriert und die Anwendungen entwickelt und installiert werden. Er beherrscht verschiedene Werkzeuge zur Parallelisierung und Echtzeitverarbeitung, so dass die statistischen Modelle des Data Analysten auch auf großen Datenmengen genutzt werden können.
Die Aufgaben des Security Manager
Der Security Manager sorgt dafür, dass die Zusammenführung, Anreicherung und Analyse von Daten keine Rückschlüsse auf Einzelpersonen zulässt und damit die Persönlichkeitsrechte verletzen könnte. Der Security Manager muss also den Datenschutz organisatorisch und technisch umsetzen.
Die 5 Typen von Data Scientists im Überblick
Das Schaubild zeigt noch einmal alle 5 Typen von Data Scientists und ihre Aufgaben im Überblick.

Prognose 2: Data Science als Teamaufgabe wird zum Erfolgsfaktor

Data Scientists und Data Engineers spielen in Unternehmen unterschiedliche Rollen. Während der Scientis Hypothesen formuliert und überprüft, selektiert der Engineer Data Sets, stellt Cluster zur Verfügung und optimiert Algorithmen für den Produktivbetrieb.

Ovum erklärt dazu: "Die eigentliche Herausforderung besteht darin, Data Scientists und Data Engineers dazu zu bringen, enger zusammenzuarbeiten." Nur so lasse sich sicherstellen, dass die von Datenwissenschaftlern formulierten und getesteten Hypothesen auch korrekt implementiert und mit den richtigen Data Sets auf dem Cluster arbeiten könnten.

Auch die Zusammenarbeit zwischen Data Scientists und Business-Analysten gewinne an Bedeutung. Denn klassische Enterprise-Software und einschlägige Data-Tools würden zunehmend mit Machine-Learning-Features ausgestattet. Das Potenzial des maschinellen Lernens könnten Unternehmen aber nur ausschöpfen, wenn Business- und Data-Experten an einem Strang zögen.

Prognose 3: Lokale Datenhaltung gewinnt an Bedeutung

Morrison & Foerster, eine international tätige Kanzlei für Wirtschaftsrecht, rechnet mit einer Zunahme an Datenschutzgesetzen mit dem Ziel, Daten im jeweiligen Land zu halten. Aktuelle Bestrebungen der Gesetzgeber beobachten die Juristen beispielsweise in Russland. Auch China habe erst kürzlich ein "Data Localization"-Gesetz verabschiedet. Es sei damit zu rechnen, dass sich 2017 weitere Staaten in diese Richtung bewegen. Insbesondere Anbieter einschlägiger Cloud-Services dürften von derlei Regelungen betroffen sein. Für IT-Verantwortliche in Unternehmen könnte der Spielraum in Cloud-Szenarien und großen Big-Data-Projekten enger werden.

Lesen Sie dazu auch:

Die besten Public-Cloud-Plattformen in Europa

Prognose 4: Unternehmen tun sich schwer mit der Monetarisierung von Daten

Das Big-Data-Zeitalter eröffne Unternehmen viele Optionen, gewonnene Daten zu monetarisieren, schreibt das Marktforschungs- und Beratungshaus IDC in einer Prognose zur "CIO Agenda 2017". Doch die praktische Umsetzung solcher Vorhaben sei alles andere als einfach: "Trotz der Wünsche des Topmanagements werden sich viele Unternehmen schwertun, daraus erfolgversprechende Produkte und Umsatzströme zu entwickeln."

Erfolgreiche Organisationen in diesem Feld zeichneten sich durch solide IT-Strategien und Daten-orientierte Services aus. IT-Verantwortlichen empfehlen die IDC-Analysten unter anderem, Innovations-Teams aus IT- und Business-Experten aufzustellen. Diese sollten prüfen, wie sich die aus existierenden und künftigen Anwendungen gewonnenen Daten gewinnbringend nutzen lassen.

Prognose 5: Data Lakes werden endlich nützlich

Unternehmen haben zum Teil viel Geld in Data Lakes und zugehörige Services investiert. Die großen Daten-Pools sollen aggregiert und für Experten zugänglich gemacht werden, um daraus neue Erkenntnisse zu gewinnen. In der Praxis stießen Projektverantwortliche auf zahlreiche Probleme, berichtet Ramon Chen, Chief Marketing Officer beim Data-Management-Anbieter Reltio. So fehlten anfangs die Experten, um aus den Datenbergen nützliche Informationen zu generieren. Data Lakes mussten zudem mit Realtime-Updates aus operationalen Anwendungen versorgt werden und umgekehrt Daten in Echtzeit für solche Applikationen bereitstellen können - eine komplexe und aufwändige Aufgabe. Viele Organisationen taten sich laut Chen generell schwer, das Master Data Management, operationale Anwendungen sowie Data Warehouses und Data Lakes miteinander zu integrieren.

Die gute Nachricht aus seiner Sicht: In den großen Big-Data-Projekten werde die Bedeutung einer verlässlichen Datenbasis mittlerweile erkannt; neue Vorhaben würden zunehmend in eine ganzheitliche Data-Management-Strategie eingebunden. Der Manager ist sich sicher: "2017 werden Data Lakes ihre Versprechen einlösen."

Lesen Sie dazu auch:

Die wichtigsten Big-Data-Tools aus der Cloud

Big Data Tools aus der Cloud
Datenanalyse als Service
Analytics Tools aus der Cloud können den Einstieg in die Datenanalyse erleichtern. Sie erfordern keine Vorabinvestitionen im fünf- oder sechsstelligen Bereich und besitzen teilweise grafische Benutzeroberflächen, die es auch dem weniger versierten Anwender ermöglichen, Analyseprozeduren zu erstellen, die zu aussagefähigen Ergebnissen führen. Wir stellen fünf wichtige Big-Data-Tools vor, die Sie als Service aus der Cloud nutzen können.
AWS Elastic MapReduce
Seit der Version 4.1.0 von Amazon Elastic MapReduce lassen sich Cluster im laufenden Betrieb verkleinern.
Google Cloud Platform
Mit dem Google Cloud Launcher lässt sich ein Hadoop-Cluster mit wenigen Klicks einrichten.
Microsoft Azure
Ein Hadoop-Cluster ist in HDInsight von Microsoft in zirka 10 bis 15 Minuten verfügbar.
IBM Analytics
Beim Einrichten eines Hadoop-Clusters auf IBM Bluemix hat der Anwender die Wahl zwischen drei Cluster-Größen.
SAP HANA Cloud Platform
LubeInsights verknüpft Hadoop im SAP HANA und lädt nur aktuell benötigte Daten in die In-Memory-Datenbank.

Prognose 6: Fusionen und Übernahmen werden zunehmen

Schon immer gab es im Big-Data-Umfeld Firmenaufkäufe und Fusionen. Mit der wachsenden Bedeutung von Künstlicher Intelligenz, Maschine Learning und Deep Learning werden solche Deals massiv zunehmen, erwartet Chen. Den Käufern gehe es dabei nicht nur um die technologischen Assets einschlägiger Startups. Mindestens ebenso wichtig seien die damit übernommenen Experten für Artificial Intelligence (AI). Diese seien auf dem gerade entstehenden Markt noch rar und häufig sogar der ausschlaggebende Grund für eine Akquisition.

Prognose 7: Der Bedarf an IoT-Architekten schnellt in die Höhe

Bis 2020 wird der IoT-Markt (Internet of Things) ein Umsatzvolumen von 1,46 Billionen Dollar erreicht haben, prognostiziert IDC. Damit steigt auch die Nachfrage nach IoT-Experten. Der IoT Architect etwa werde für viele Personalabteilungen künftig noch attraktiver als der heute gesuchte Data Scientist, erwartet Dan Graham, IoT-Spezialist beim Softwarehaus Teradata. Mit dem IoT-Boom gehe ein Wachstum in den Bereichen Edge Computing und IoT Operational Design einher. Mit Blick auf Big-Data-Szenarien benötigten Unternehmen künftig Softwarearchitekten, die sowohl zentralisierte als auch verteilte Analytics-Systeme im IoT-Umfeld entwerfen könnten. Diese Kombination sei derzeit sehr schwer zu finden.

Prognose 8: Streaming Analytics erlebt eine Wiedergeburt

Die Analyse von Datenströmen ist an sich nichts Neues. Programme für das Event Processing gibt es seit 20 Jahren. Nach Einschätzung von Ovum tragen mehrere Faktoren dazu bei, dass Realtime-Streaming sich von einer Nischentechnik zu einem breiter nachgefragten Konzept entwickelt. Open-Source-Software beispielsweise mache Realtime Streaming für viele Nutzer leichter zugänglich; zudem ständen heute ausreichend skalierbare Infrastruktur-Ressourcen für solche Anwendungen zur Verfügung.

Auf der Nachfrageseite sorge vor allem der IoT-Boom für ein wachsendes Interesse an Streaming-Applikationen, die Informationen erheben, auswerten und weitergeben könnten. Streaming-Plattformen wie Spark Streaming oder Amazon Kinesis Analytics befänden sich allerdings noch in einer frühen Entwicklungsphase. Bis sie marktreif seien und IoT-Implementierungen eine kritische Masse erreicht haben, werde es voraussichtlich noch zwei bis drei Jahre dauern.

Lesen Sie dazu auch:

Vorausschauend agieren mit Streaming Analytics

Mit Material von IDG News Service