Business Intelligence - die nächste Runde

17.10.2002
Von 


Sascha Alexander ist seit vielen Jahren als Redakteur, Fachautor, Pressesprecher und Experte für Content-Strategien im Markt für Business Intelligence, Big Data und Advanced Analytics tätig. Stationen waren unter anderem das Marktforschungs- und Beratungshaus BARC, die "Computerwoche" sowie das von ihm gegründete Portal und Magazin für Finanzvorstände CFOWORLD. Seine Themenschwerpunkte sind: Business Intelligence, Data Warehousing, Datenmanagement, Big Data, Advanced Analytics und BI Organisation.

Doch bei der vollständigen Umsetzung einer leistungsfähigen BPM-Infrastruktur lauern viele alte Probleme auf den Kunden. So etwa die Extraktion, Transformation und Laden (ETL) der operativen Daten als eine Aufgabe, die bis heute 80 Prozent des Einführungsaufwands eines Data Warehouse ausmacht. Ebenso sind laut einer Untersuchung der CW-Schwesterpublikation „Infoworld“ im BI-Datenbank-Server technisch anspruchsvolle Arbeiten wie die Sicherung der Datenqualität, die einheitliche Metadaten-Verwaltung sowie das schnelle Bearbeiten von Client-Zugriffen nötig.

Heutige Systeme nutzen für die Datenintegration mit Quellsystemen in erster Linie Massenlader oder eine stückweise, speicherintensive Aktualisierung der Felder (Drip-feed). Anbieter wie Ascential Software und Informatica haben hier mittlerweile (kostspielige) Lösungen entwickelt, die den ETL-Prozess automatisieren und das Anbinden operativer Systeme über Standardadapter und XML erlauben.

BPM erhöht Komplexität

Weitere Herausforderungen an die IT sind die Entwicklung komplexer BPM-Prozessmodelle und die richtige Auswahl der Daten, mit denen sich eine Unternehmensleistung prüfen lassen kann, sowie vor allem die Integration der bestehenden Datenmodelle der bisherigen Abteilungslösungen. Nur wenn diese gelingt, sind Anwendungen wie Scorecards und Monitoring möglich. Außerdem sollten Unternehmen nicht übersehen, dass analytische Anwendungen bisher nur von Spezialisten erstellt und genutzt wurden. BPM sieht hingegen eine weit größere Benutzergruppe mit möglicherweise Tausenden von Clients vor.

Die BI-Plattform muss dementsprechend skalierbar sein und künftig relationale Ist-Daten im Terabyte-Bereich sowie multidimensionale (Plan-)Daten handhaben können. Zudem wird verlangt, dass sich Queries von der Server-Engine parallel abarbeiten lassen, ein ausgefeiltes Sicherheitskonzept implementiert ist sowie eine zeitgleiche Bearbeitung von Datenbeständen durch mehrere Benutzer möglich ist. Ebenso benötigt der Server eine Write-back-Funktion für die Planung, um ein Zurückschreiben gegen die Datenbank zu ermöglichen.

Angesichts des umfassenden Ansatzes gehen Marktbeobachter wie die Meta Group oder AMR Research davon aus, dass das BPM-Konzept in den kommenden Jahren stufenweise durch Zukauf einzelner Komponenten umgesetzt wird. Allerdings fangen viele Unternehmen laut Martin Cornelius, Director Solutions bei Hyperion, nicht auf der grünen Wiese an. Zwar sei der BPM-Begriff als solcher bei den Kunden noch nicht angekommen, erste Komponenten befänden sich aber schon im Einsatz.