Big Data und BI

Von Business Intelligence zur Data Economy

27.07.2014
Dr. Carlo Velten schreibt als Experte zu den Themen Cloud-Platforms und -Developers, Enterprise Cloud Management und Digital Business. Dr. Carlo Velten ist CEO des IT-Research- und Beratungsunternehmens Crisp Research AG. Seit über 15 Jahren berät Carlo Velten als IT-Analyst namhafte Technologieunternehmen in Marketing- und Strategiefragen.
Für die meisten Unternehmen hat die Reise zu den neuen datenbasierten Geschäftsmodellen erst begonnen. Vielfach herrscht noch Unklarheit darüber, wo das klassische Business Intelligence (BI) aufhört und die schöne neue Big Data-Welt beginnt. Was bei der Evaluierung und dem Einsatz verschiedener Analytics-Technologien beachtet werden sollte.

Es sieht wohl so aus, als ob das schöne Cebit-Motto "Datability" es nicht als feststehender Begriff in den Sprachgebrauch der IT-Profis schafft. Zumindest wenn man Google Trends glauben darf. Hier zeigt sich, dass das Interesse - gemessen an den Suchanfragen - wieder schnell abgeflaut ist. Aber das gilt nur für den Begriff - und nicht für das Thema. Datability beschreibt recht trefflich die Herausforderung vieler Unternehmen mehr aus ihren Daten zu machen. Und diese Reise hat in den meisten Unternehmen erst begonnen, wie aktuelle Untersuchungen von Crisp Research zeigen.

Reise zu neuen datenbasierten Geschäftsmodellen hat erst begonnen

So stehen mehr als zwei Drittel der Unternehmen noch am Anfang, wenn es darum geht neue datenbasierte Dienste und Geschäftsmodelle zu entwickeln und bestehende Prozesse mittels der neuen Big Data-Technologien weiter zu optimieren. Um sich hier grob zu orientieren und die sich anschließenden Architektur- und Sourcing-Fragen (Wer ist der passende Technologie- und Integrationsanbieter?) klären zu können, sollten Entscheider sich folgende Fragen stellen beziehungsweise eine Einordnung anhand folgender Matrix vornehmen.

Foto: Crisp Research

So gilt es zu beantworten, ob im Unternehmen bestehende Prozesse oder Geschäftsmodelle unterstützt und optimiert oder neue entwickelt werden sollen. Zudem stellt sich die Frage, ob es dazu "nur" der Analyse bestehender interner Datenbestände (etwa Preis- oder Lagerbestandsdaten aus Business-Applikationen) bedarf oder ob neue Daten im Unternehmen erfasst (zum Beispiel Sensordaten) oder extern zugekauft werden sollen (zum Beispiel Wetterdaten, Social Media-Daten etc.).

Technologie- und Herstellerauswahl - Evolution der Analytics-Lösungen

Sobald Unternehmen für sich entschieden haben, um welche Business Cases und Datenbestände es geht und welche Daten, wie und in welcher Granularität und Aktualität analysiert werden müssen, kann die Vorbereitung der Technologieauswahl erfolgen. Denn diese ist maßgeblich von der Problemstellung und weniger von den begrifflichen Vorlieben des CIO abhängig.

So muss konstatiert werden, dass es für viele klassische Analyseaufgaben immer noch vollkommen ausreichend ist, auf klassische BI-Software zu setzen. Dies gilt vor allem in Szenarien, wenn Datenbestände wohl strukturiert sind, die Analyseaufgaben einem wiederkehrenden Muster erfolgen und nicht die Notwendigkeit zur Auswertung in Echtzeit vorliegt. Denn dies ist eine wesentliche Differenzierung von klassischen BI-Lösungen gegenüber den neuen In-Memory-Technologien wie zum Beispiel SAP HANA oder Oracle Exadata. Diese lassen sich auch als "High-Performance" BI bezeichnen und beziehen sich auf die Analyse strukturierter Daten in Größenordnungen von bis zu 1 Petabyte RAM.

Kommen neue Anforderungen auf die Unternehmen zu, wie etwa die Analyse und Visualisierung nicht genau spezifizierbarer Datenbestände (viele Quellen, unstrukturierte Daten) und deren Kombination mit externen Datenquellen, so bietet sich der Einsatz neuer Frameworks- und Technologie wie Hadoop an. Hier besteht - eine entsprechende Infrastruktur vorausgesetzt - eine nahezu unbegrenzte Skalierungsfähigkeit und Flexibilität bei den Analysen.

Foto: Crisp Research

In den letzten 24 Monaten hat sich für die Anwender eine recht komfortable Situation entwickelt, da IT-Dienstleister wie T-Systems, IBM oder Accenture in großem Stile in den Bereich "Big Data & Analytics" investiert haben. Dies gilt einerseits für den Aufbau entsprechender Skills und Beratungsprogramme. Vor allem aber für den Aufbau und den Betrieb entsprechender IT-Infrastrukturen. So stellt etwa T-Systems nicht nur eine breite Auswahl an Technologien zur Verfügung, sondern liefert diese in nahezu allen Betriebskonzepten - von On-Premise, über hybride Umgebungen bis hin zu reinrassigen Cloud-Plattformen.

Anwender sind erstmals in der Lage, die neuen Analytics-Möglichkeiten auszuprobieren und zu nutzen, ohne sich auf horrende Vorabinvestitionen einlassen zu müssen. Und dies ist elementar wichtig, da viele der heutigen Big Data- und Analytics-Projekte einen explorativen und innovativen Charakter haben. Meist kann zu Projektbeginn der ROI noch nicht genau bestimmt werden. Dieser ergibt sich erst nach mehreren Iterationsstufen und in Weiterentwicklung der Analysen mit den Fachkollegen.

Foto: Crisp Research

Aus einer Reihe von Fallstudien und Best Practices ist klar erkennbar, dass diejenigen Unternehmen, die eine offene und kreative Kultur im Umgang mit den Daten ("Data Culture") pflegen und innovative Projekte befürworten, deutlich erfolgreicher bei der Implementierung großer Analytics-Vorhaben sind.

Data Economy - Mehr als 6,1 Milliarden Euro Umsatz mit datenbasierten Diensten

Es existieren nicht nur viele Beispiele für die neuen Anwendungen und Services im Datenzeitalter. Auch erste Prognosen zur Marktentwicklung der neuen datenbasierten Dienste liegen nun vor. Im Auftrag des Bitkom hat Crisp Research eine Analyse zu den Big Data-IT-Infrastrukturen und den darauf aufbauenden "Datability"-Services und Geschäftsmodellen durchgeführt, deren Ergebnisse zur Cebit erstmalig vorgestellt wurden. Die Zusammenfassung der Ergebnisse finden Sie zudem in der folgender Bilderstrecke. Sie basiert auf einer Infografik des Bitkom. (jha)

»

Weitere Beiträge zum Thema Big Data

Big Data überrollt die Welt: Big Data ist eine der faszinierendsten Technologien, kann einem aber auch sehr suspekt vorkommen.

In-Memory-Konzepte im Vergleich: Die In-Memory Data Management-Systeme SAP Hana und Terracotta dienen unterschiedlichen Zwecken. Ein Vergleich.

Big Data läutet neue Analytics-Ära ein: Big Data verspricht jede Menge neuer Möglichkeiten für Unternehmen, stellt jedoch auch neue Anforderungen: an Techniken, Analyse und Menschen.

Woran Big-Data-Projekte scheitern: Was sind die Hauptursachen für Fehlschläge? Und was kann das Projektteam dagegen unternehmen?

9 Punkte für die Big-Data-Strategie: Big Data kann der Medizin helfen, Informationen auszuwerten. Eine neue Studie des US-Instituts iHT2 klärt über das Warum und das Wie auf.