Werkzeuge für den strategischen Durchblick

30.05.2005
COMPUTERWOCHE VERLEGERPUBLIKATION - Es klingt alles nach einer Erfolgsgeschichte: Ob als Lösung für das Berichtswesen, zur Analyse von Kunden und Marktzahlen oder im Controlling - Software für Business Intelligence ist aus vielen Unternehmen nicht mehr wegzudenken.

Gesetzliche Auflagen - SarbanesOxley, KontraG, Basel II - und neue Bilanzierungsstandards sowie der verschärfte Wettbewerb haben dem Thema Business Intelligence zu einem strategischen Status verholfen. Mit den technischen Möglichkeiten sind indes auch die Ansprüche gestiegen. Bei Reporting Tools ging - und geht - es lediglich darum, historische Daten sinnvoll zu aggregieren und zutreffend einzuschätzen. Beispiel: Welche Mengen eines Produkts wurden im letzten Jahr verkauft? Das Potenzial von Business Intelligence ist weitaus größer, weil Aussagen in die Zukunft weisen; die Frage lautet: Welche Produkte in welcher Menge werden Kunden im kommenden Jahr kaufen? Mit solchen Aussagen wird Business Intelligence zunehmend zu einem Werkzeug des strategischen Unternehmensmanagements.

BI im Hype Cycle Integrierte Lösungen werden heute produktiv eingesetzt, desgleichen Analysewerkzeuge (Olap). Auf dem Weg zur Reife befinden sich nach Gartner-Einschätzung Data-Mining-Werkzeuge als Teil von Komplettlösungen. Corporate Performance Management sehen die Analysten dagegen kurz vor dem Absturz vom Erwartungsgipfel; Lösungen für analytisches CRM seien bereits auf dem Weg nach unten. Zu den Zukunftsthemen gehören laut Gartner BI in Echtzeit oder Reporting-Möglichkeiten als Teil unternehmensweiter Lösungen.

Auch das Anwenderspektrum ändert sich mit den Ansprüchen: Ob die Tools nur von Experten bedient werden können - also eine spezialisierte Task Force für Business Intelligence erforderlich ist - , oder ob Manager selbst zeitnahe Analysen für ihren eigenen Informationsbedarf erzeugen können, hängt einerseits von der Komplexität der Quelldaten und der gewünschten Ergebnisse ab. Aber auch die Bedienungsfreundlichkeit der Werkzeuge ist ein Faktor - und hier geht der Trend eindeutig in Richtung "Selbstfahrer". Vielen Business IntelligenceTechniken kommt zudem laut dem Technologieund Marktforschungsunternehmen Gartner zugute, dass sie dank des jahrelangen Einsatzes als erprobt gelten und ihr Kauf meist als wenig riskante Investition eingeschätzt wird.

Pro und contra Abteilungslösungen
Doch der Schein trügt oftmals. Viele Initiativen und Produkteinführungen blieben hinter den Erwartungen zurück, kritisiert Howard Dresner, Vice President Research bei Gartner. Die meisten Anwendungen seien reine Abteilungslösungen, angeblich zentrale Data Warehouses oft nur lokale Data Marts. Der Wildwuchs solcher Insellösungen führe dazu, dass in Unternehmen durchschnittlich 30 Prozent der Business-Intelligence-Infrastruktur redundant aufgebaut würden. Zwar ließen sich Data Marts in drei bis 18 Monaten einrichten und seien damit im Vergleich zu einem zentralen Data Warehouse schneller einsatzbereit. Doch, gab der Gartner-Mann zu bedenken, steige der Pflegeaufwand, je mehr Einzellösungen entstünden; zudem fehle dann eine Architektur, um Systeme zur Entscheidungsunterstützung unternehmensweit und in die Geschäftsprozesse integriert nutzen zu können. Die Mehrheit der Anwender schrecke aber vor Investitionen in eine angemessene Infrastruktur zurück oder habe einfach keine Zeit dafür. Laut Dresner ist die Lage daher ernst: Die allermeisten Unternehmen arbeiteten bei ihren Business-Intelligence-Initiativen planlos und ohne interne Standards. "Viele müssen letztlich neu anfangen", wollen sie eine Gesamtlösung.

Das würde nichts bringen, behauptet Nigel Pendse, Herausgeber des "Olap Reports" und des jährlichen "OLAP Survey", der als ebenso streitbarer wie unabhängiger Kenner der am Markt verfügbaren BusinessIntelligenceWerkzeuge renommiert ist. Anwender, rät der Engländer, sollten keine unternehmensweiten Projekte aufsetzen, sondern kleine, abteilungsbezogene Projekte angehen, von denen die Benutzer unmittelbar bei ihrer täglichen Arbeit profitieren und die deshalb einen "schnellen Payback" brächten. Globale, langfristige Projekte laufen nach Pendses Ansicht Gefahr zu scheitern.

Das häufigste Argument gegen Teillösungen, dass diese nämlich zu Wildwuchs führten, lässt der "Olap-Report" -Herausgeber nicht gelten. Auch integrierte Gesamtlösungen von einem Hersteller seien aus zugekauften Tools zusammengesetzt und deshalb nur scheinbar integriert. Und wenn in mehreren Data Marts in einem Unternehmen dieselben Daten häufiger als einmal gespeichert würden, sei das auch keine wirkliche Verschlechterung, denn auch in den angeblich integrierten Modellen aus einer Hand werden Daten und Metadaten mehrfach gespeichert. In Wirklichkeit, ist Pendse überzeugt, könne ohnehin kein Anbieter einen kompletten Informationszyklus implementieren.

Mit Bezahlbarem beginnen
Anders als Pendse hängt Gartners Dresner dem Standard-Gedanken an. Gemeinsam mit dem OLAP-Reporter jedoch rät der Analyst zu einem pragmatischen Ansatz, mit dem eine Großlösung aus kleinen, handhabbaren und bezahlbaren Häppchen zusammengesetzt wird. Zunächst, empfiehlt Dresner, sei eine flexible "Topologie" für das Design eines Data Warehouse zu schaffen, die Änderungen und neue Anforderungen abbilden kann. Dabei seien Namenskonventionen ebenso zu klären wie Geschäftsregeln abzubilden. Dann sollten Anwender - an diesen Vorgaben orientiert - ein überschaubares, möglicherweise auch rein taktisch geprägtes Data Mart aufbauen. Im nächsten Schritt könne der Ausbau zum Data Warehouse starten, das wiederum die Grundlage für alle künftigen Data Marts bilde.

Um die Arbeiten zu organisieren, empfiehlt Dresner ein "Business Intelligence Competence Center" als strategische Planungsstelle, das alle Vorgaben überwacht und das Management einbezieht. Unabhängig von der IT könne dort zunächst eine konsistente Strategie formuliert und ausgearbeitet werden. "Allerdings darf es nicht Jahre dauern, bis sie Ergebnisse liefert."

Mangelnde Qualität der Quelldaten
Die Umsetzung von BI-Lösungen bleibt aber nicht nur organisatorisch, sondern auch technisch ein Problem. Vor allem die Datenintegration und die Datenqualität gelten unter Experten als Herausforderungen. Allein die Datenmenge, die laut Gartner bei manchen Unternehmen bereits im zwei-bis dreistelligen Terabyte-Bereich liegt, erfordert eine gesonderte Strategie. Hinzu kommen Aufgaben wie die Konsolidierung isolierter Data Marts, die Einbindung von immer mehr Quellsystemen sowie der zunehmende Wunsch nach (echt)zeitnahen Geschäftsinformationen.

Unternehmen müssen deshalb dringend prüfen, ob die zentralisierte Datenbewirtschaftung beim Data Warehousing noch ausreicht und ob selbstgeschriebene Skripte, mittels derer Daten aus den Operativsystemen ins Warehouse geholt werden, noch eine sinnvolle Alternative zu den immer leistungsfähigeren Tools zur Extraktion, Transformation und zum Laden (ETL) sind. Diese werden nämlich allmählich erschwinglich, da ETL-Anbieter durch Angebote von ERP-und Datenbankherstellern sowie BI-Frontend-Spezialisten unter Preisdruck stehen. Außerdem lässt sich ETL-Technik heute für neue Anwendungsgebiete einsetzen, etwa um die Datenkonsistenz zwischen verschiedenen Systemen herzustellen, Anwendungen zu migrieren oder taktische Warehouse-Lösungen für Testdaten aufzubauen.

Alternativ werden auch Integration Broker als ETL-Alternative beworben. Sie dienten ursprünglich zur Anwendungsintegration im Rahmen umfassender EAI-Projekte; mittlerweile können sie auch Massendaten verarbeiten und ermöglichen Datenübermittlung in naher Echtzeit. Integration Broker sind ETL-Servern unterlegen, wenn es um das automatisierte Laden großer Datenmengen geht; in puncto Messaging und Routing liegen die Broker-Technologien dagegen nach Expertenmeinung vorn. "In den nächsten Jahren werden die meisten Unternehmen daher noch beide Ansätze zur Datenintegration benötigen", prognostiziert Kevin Strange.

Irrig ist es laut seinem Gartner-Kollegen Dresner jedoch, Aufgaben wie das Duplizieren von Datensätzen, ETL und Datenqualität umgehen zu wollen, indem man auf Enterprise Information Integration (EII) setze oder mit "magischen" Datenkonnektoren direkt auf die Quellsysteme zugreife. EII zielt auf virtuelle Datenintegration ab, bei der Auswertungen über Metadaten und spezielle Abfrage-und Cacheing-Mechanismen nicht nur auf ein Data Warehouse, sondern auch auf operative Quellsysteme möglich sind. Dieser Ansatz wird, so Strange, alle paar Jahre diskutiert und machte schon unter den Schlagworten "Information at your Fingertips" oder "virtuelles Data Warehouse" die Runde. Doch bis heute, urteilt der Gartner-Mann, seien Einbindung und Leistungsfähigkeit solcher Systeme problematisch.

Das gilt auch für die Datenqualität in Business-Intelligence-Systemen generell. Das Thema wird in der Praxis kaum beachtet. Manager wollten davon nichts hören, weil es sie langweile, berichten Berater. Die Folgen seien fehlende Integritätsregeln für den Datenaustausch oder nicht synchronisierte Informationen.

Selbst die Unternehmen, die das Problem erkannt haben, müssen es oft mangels Ressourcen auf die lange Bank schieben. Gartner befürchtet deshalb, dass in den nächsten Jahren rund die Hälfte aller Data-Warehouse-Systeme entweder scheitert oder nur noch eingeschränkt von den Anwendern akzeptiert wird, weil IT und Business nicht einsehen, dass die Daten in ihrem Warehouse nicht analysierbar und damit wertlos sind.