Datenarchitekturen

Business Intelligence und Advanced Analytics passen zusammen

28.09.2017 von Sascha Alexander und Steffen Vierkorn
Was soll aus den bisherigen BI-Anwendungen werden, wo die IT-Welt doch nur noch über Advanced Analytics und Big Data spricht? Die Praxis zeigt, dass beide Welten nicht nur nebeneinander existieren, sondern auch voneinander profitieren können, um neue Use Cases zu ermöglichen. Hierfür muss die bisherige Datenmanagementinfrastruktur jedoch "agiler" werden und mehr Prozesse und Datenquellen integrieren können.

Das Interesse an Big Data ist enorm und wird durch die Digitalisierung von Prozessen und des Datenaustauschs zwischen Menschen, IT-Systemen und Geräten sowie zwischen Geräten untereinander weiter gesteigert (Stichwort "Internet of Things" IoT). Überall entstehen laufend Daten, die neue Informationen für neue Use Cases und Produkte bergen können. Kaum ein Tag, an dem nicht über neue Möglichkeiten und Herausforderungen im Zusammenhang mit der Erfassung, Speicherung und Analyse großer, polystrukturierter Datenmengen (Big Data) diskutiert wird.

Das Zusammenspiel von Big Data und sich verädernden Analysetechniken sollte gut geplant sein.
Foto: leungchopan - shutterstock.com

Weniger thematisiert wird dabei indes, wie sich die Nutzung von Big Data zur bisherigen Business Intelligence(BI) verhält. Doch gerade BI-Organisationen müssen angesichts der hohen Investitionen der vergangenen Jahre und des dabei aufgebauten BI-Know-hows wissen, was dieser Trend für ihre künftige Arbeit bedeutet. Sind beispielsweise massive organisatorische und technische Veränderungen nötig, um Big Data und neue Analysetechniken einzubeziehen? Läuft es auf eine Koexistenz von Big-Data-Umgebungen und klassischen BI-Systeme hinaus, können sich beide Welten befruchten oder ist das Ergebnis gar eine Verdrängung vorhandener Systeme?

Data Warehouse meets Advanced Analytics

Um es vorweg zu nehmen: aus der Beratungs-und Projektpraxis können wir sagen, dass Business Intelligence mit seinen typischen Disziplinen Reporting und Analyse heute wichtiger denn je ist, um Unternehmen zu steuern und das Geschäft vorausschauend zu planen. Die typische, allen vertraute BI-Architektur, in deren Mittelpunkt das Data Warehouse (mit seinen Schichten "Staging Area", Cleansing", "Core", "Data Mart") steht und auf das dann BI-Frontends zugreifen, wird uns noch lange begleiten.

Studie Analytics Readiness













Doch das Datenmanagement im Unternehmen muss sich weiterentwickeln beziehungsweise erweitert werden, um neben BI auch die Nutzung von Big Data und Advanced Analytics durchgängig zu unterstützen. So sind traditionell für Business Intelligence Szenarien üblich, für die tägliche oder mehrfach am Tag erfolgende Datenaktualisierungen genügen und in denen es vor allem um das Beladen vergleichsweise überschaubarer, historisierter Datenmengen und die Abfrage auf neuen (transaktionalen, strukturierten/modellierten) Daten geht. Typische Anwendungen fallen in den Bereich des bisherigen Reportings und der Analyse (OLAP) in Fachbereichen wie Finanzen, Vertrieb, Personal, Marketing, IT oder Einkauf sowie der Unternehmensplanung.

Typische Anforderungen an Big-Data-Analytics-Umgebungen sind hingegen eine Datenaktualisierung in Echtzeit/Near Realtime/Batch, verbunden mit der hochparallelen Datenverarbeitung auch großer Datenmengen gegebenenfalls per "Streaming" sowie die für Analytics typischen "fortgeschrittenen" Analysen (statistische Verfahren, Methoden des Data Mining, Textmining). Business-Intelligence-Umgebungen sind für derartige Anforderungen im Datenmanagement und die Analyse polystrukturierter Daten nicht geeignet, aber auch nie konzipiert worden.

Bislang spielen für Unternehmen Daten aus Transaktionssysteme wie zum Beispiel ERP die größte Rolle bei der Datenanalyse. Doch auch andere Datenquellen und -formate wie etwa Sensordaten werden zunehmend betrachtet. (Mehrfachnennungen möglich)
Foto: Qunis GmbH


Polystrukturierte Daten nutzen

Zugleich nimmt mit der Nutzung von Big Data nicht nur die Geschwindigkeit, sondern auch die Vielfalt der Datenquellen und -formate zu. So gewinnen künftig neben den bisherigen in der Business Intelligence vorwiegend genutzten Datenquellen (ERP,CRM etc.) beispielsweise Sensor- und Social-Media-Daten, Textdokumente, Statistisches Material, Geoinformationen oder Daten aus der Forschung künftig an Bedeutung (siehe Abbildung). Werden solche vielfältigen Daten gezielt analysiert, können sie nicht nur neue Use Cases ermöglichen, sondern auch die traditionelle BI-Domäne bereichern. Gerade im Finanzbereich besteht die Notwendigkeit, zusätzliche Geschäfts- und Marktinformationen in die Planung und Risikoanalyse einzubeziehen. Marketing und Vertrieb können durch die Anreicherung ihrer Kunden- und Auftragsdaten beispielsweise durch Churn-Analysen, eine Kundensegmentierung oder Analysen von Web-Logs um wichtige Informationen anreichern, um Portfolio und Preise zu optimieren.

Agiles Datenmanagement

Damit beide Welten nicht nur weiter existieren, sondern voneinander profitieren können, muss die bisherige Datenmanagementinfrastruktur "agiler" werden und mehr Prozesse und Datenquellen integrieren können. Beginnend beim Datenmanagement bis hin zu den BI-Frontends wird eine Architektur benötigt, die eine breite Nutzung und Bereitstellung unterschiedlichster Daten unterstützt. Hierbei wird es oftmals auch nötig sein, die bisherige Datenmanagementarchitektur um Bestandteile wie "Sandboxes", explorativeBig-Data-Umgebungen (35 Prozent) und Virtualisierungsschichten zu erweitern.

Nur durch die Integration klassischer BI-und Datenmanagementumgebungen mit neuen, explorativen und operationalisierten Big-Data-Anwendungen kann also letztlich der von vielen Marktakteuren prognostizierte Wandel hin zu einer datengetriebenen Organisation gelingen. Ebenso bedarf es einer zentralen Datenstrategie, die künftig alle Daten konsistent sowie Architekturen stabil und zugleich flexibel halten kann.

Künstliche Intelligenz aus der Cloud
Microsoft Machine Learning
Azure Machine Learning ist ein vollständig verwalteter Cloud-Dienst, mit dem Anwender Predictive Analytics-Lösungen generieren und bereitstellen können.
Microsoft Cognitive Services
Die Cognitive Services von Microsoft enthalten unter anderem Dienste für Bildanalyse und Gesichtserkennung.
Amazon ML
Amazon Machine Learning unterstützt den Anwender bei der Fehleranalyse von Vorhersagemodellen.
Amazon Bot
Mit Amazon Lex können Chatbots beispielsweise für Verbraucheranfragen erstellt werden.
Google API
Über APIs lassen sich Google AI-Services in eigene Anwendungen integrieren.
Google Tensorflow
Das von Google stammende Open-Source Framework Tensorflow ist die Basis von Cloud ML.
IBM Bluemix
IBM bietet auf der Cloud-Plattform Bluemix zahlreiche Watson-basierte AI-Anwendungen.
IBM ML
IBM Machine Learning ermöglicht die Entwicklung und den Einsatz selbstlernender Analysemodelle in der Private Cloud.
HPE Haven
Mithilfe der Gesichtserkennungs-API von HPE können Entwickler in Fotos gefundene Daten importieren, extrahieren und analysieren.
Salesforce Einstein
Salesforce Einstein: Predictive Content liefert Kunden auf Basis von maschinellem Lernen eine individuelle Empfehlung für das beste Produkt.


Lambda-Architektur für Big Data Analytics

Mit Blick auf Big-Data-Anwendungen empfiehlt es sich, bei der Umsetzung eine sogenannte Lambda-Architektur anzustreben. Eines ihrer wesentlichen Merkmal ist das Konzept "unveränderlicher Daten" (immutable data), das heißt, dass Veränderungen an Daten nur Kopien dieser Daten erzeugen und die ursprünglichen Daten niemals verändert werden.

In der Lambda-Architektur werden daher vorhandene Daten niemals aktualisiert. Jede Veränderung wird als eigenständiges Faktum angesehen, das zu einem bestimmten Zeitpunkt als wahr gilt. Eine Veränderung der Daten bedeutet also, dass nur ein neues Faktum für einen aktuelleren Zeitpunkt hinzukommt (append-only). Das zweite grundlegende Prinzip der Lambda-Architektur ist die Definition von Information als eine Funktion der Fakten. Informationen leiten sich also aus den Berechnungen der einzelnen Fakten her. Ziel ist eine Architektur aus skalierbaren Komponenten.

In einer Big-Data-Lambda-Architektur hält ein "Batch Layer" (beispielsweise HADOOP) sämtliche Fakten in redundanter Ausführung vor und übernimmt die Berechnungen. Da hierbei jedoch teilweise sehr hohe Latenzen entstehen, werden die Ergebnisse der Berechnungen im "Serving Layer" gespeichert, um Latenzen zu reduzieren. In dieser Schicht erfolgt zudem die Abfrage der gewünschten Informationen (externe Systeme). Im "Speed Layer", der komplexesten Komponente der Lambda-Architektur, finden sich ebenfalls alle relevanten neuen Daten, die dort aber nur temporär für Berechnungen liegen und gelöscht werden, sobald neue Daten im Batch Layer verfügbar sind. Ein externes System wird dann die Ergebnisse aus Serving Layer und Speed Layer kombinieren, um eine aktuelle Sicht auf die Daten zu gewähren. Die in der Lambda-Architektur vorgesehene Modularisierung spiegelt typische Anforderungen an Big-Data-Anwendungen wider und systematisiert sie. Häufiger sind nur aber Teilbereiche der Architektur in Projekten relevant und können auch in Kombination zu bestehenden Business-Intelligence-Systemen realisiert werden.

Die Nutzung von Big Data und Advanced Analytics ist einer der Erfolgsfaktoren der Digitalisierung. Entsprechend hoch ist das Interesse in Unternehmen.
Foto: Qunis GmbH

Mehr Transparenz durch Advanced Analytics

Angesichts der unterschiedlichen Anforderungen werden also Business-Intelligence-Systeme auch künftig in vielen bisherigen Anwendungsgebieten ihre Rolle behalten. Die Nutzung von Big Data mit Hilfe von Advanced Analytics kann aber dafür sorgen, dass Prozesse optimiert, Märkte transparenter und neue Geschäftsmodelle möglich werden, indem ein Unternehmen seine Produkte und Dienstleistungen individualisieren kann. Dass sich derzeit viele Unternehmen mit Big Data beschäftigen, bestätigte kürzlich die Studie "Big Data und Advanced Analytics in der Praxis". Gemeinsam mit der Controller Akademie und der Aquma GmbH hatte die QUNIS hierzu rund 100 Unternehmen (Mittelstand und Konzern) im deutschsprachigen Raum befragt (Die kostenfreie Studie finden Siehier).

Danach halten über 80 Prozent aller Teilnehmer das Thema Big Data für "sehr wichtig" bis "wichtig". Umgekehrt erklärte nur jedes fünfte Unternehmen, in den kommenden zwei Jahren bislang keine Pläne zu haben. Die allerorts gestarteten oder zumindest in naher Zukunft geplanten Initiativen bei der überwiegenden Mehrheit der Befragten belegen aber, dass man sich mehr Klarheit verschaffen will. Typisch sind dabei Pilotprojekte, mit denen man bei begrenztem Budget und Risiko den Umgang mit Big Data erprobt. Zugleich erkennen Organisationen, dass sie eine strategische, organisatorische und technische Antwort finden müssen, wie sie denn nun genau Big Data und Advanced Analytics einbinden und effektiv im Rahmen der Digitalisierung nutzen wollen. Eine sorgfältige fachliche Planung samt Anforderungsanalyse (Use Cases) ist dafür ebenso nötig wie der Aufbau eines agilen Datenmanagements, das BI und Big Data verbindet.