Werkzeuge für den strategischen Durchblick

30.05.2005

Mangelnde Qualität der Quelldaten
Die Umsetzung von BI-Lösungen bleibt aber nicht nur organisatorisch, sondern auch technisch ein Problem. Vor allem die Datenintegration und die Datenqualität gelten unter Experten als Herausforderungen. Allein die Datenmenge, die laut Gartner bei manchen Unternehmen bereits im zwei-bis dreistelligen Terabyte-Bereich liegt, erfordert eine gesonderte Strategie. Hinzu kommen Aufgaben wie die Konsolidierung isolierter Data Marts, die Einbindung von immer mehr Quellsystemen sowie der zunehmende Wunsch nach (echt)zeitnahen Geschäftsinformationen.

Unternehmen müssen deshalb dringend prüfen, ob die zentralisierte Datenbewirtschaftung beim Data Warehousing noch ausreicht und ob selbstgeschriebene Skripte, mittels derer Daten aus den Operativsystemen ins Warehouse geholt werden, noch eine sinnvolle Alternative zu den immer leistungsfähigeren Tools zur Extraktion, Transformation und zum Laden (ETL) sind. Diese werden nämlich allmählich erschwinglich, da ETL-Anbieter durch Angebote von ERP-und Datenbankherstellern sowie BI-Frontend-Spezialisten unter Preisdruck stehen. Außerdem lässt sich ETL-Technik heute für neue Anwendungsgebiete einsetzen, etwa um die Datenkonsistenz zwischen verschiedenen Systemen herzustellen, Anwendungen zu migrieren oder taktische Warehouse-Lösungen für Testdaten aufzubauen.

Alternativ werden auch Integration Broker als ETL-Alternative beworben. Sie dienten ursprünglich zur Anwendungsintegration im Rahmen umfassender EAI-Projekte; mittlerweile können sie auch Massendaten verarbeiten und ermöglichen Datenübermittlung in naher Echtzeit. Integration Broker sind ETL-Servern unterlegen, wenn es um das automatisierte Laden großer Datenmengen geht; in puncto Messaging und Routing liegen die Broker-Technologien dagegen nach Expertenmeinung vorn. "In den nächsten Jahren werden die meisten Unternehmen daher noch beide Ansätze zur Datenintegration benötigen", prognostiziert Kevin Strange.

Irrig ist es laut seinem Gartner-Kollegen Dresner jedoch, Aufgaben wie das Duplizieren von Datensätzen, ETL und Datenqualität umgehen zu wollen, indem man auf Enterprise Information Integration (EII) setze oder mit "magischen" Datenkonnektoren direkt auf die Quellsysteme zugreife. EII zielt auf virtuelle Datenintegration ab, bei der Auswertungen über Metadaten und spezielle Abfrage-und Cacheing-Mechanismen nicht nur auf ein Data Warehouse, sondern auch auf operative Quellsysteme möglich sind. Dieser Ansatz wird, so Strange, alle paar Jahre diskutiert und machte schon unter den Schlagworten "Information at your Fingertips" oder "virtuelles Data Warehouse" die Runde. Doch bis heute, urteilt der Gartner-Mann, seien Einbindung und Leistungsfähigkeit solcher Systeme problematisch.

Das gilt auch für die Datenqualität in Business-Intelligence-Systemen generell. Das Thema wird in der Praxis kaum beachtet. Manager wollten davon nichts hören, weil es sie langweile, berichten Berater. Die Folgen seien fehlende Integritätsregeln für den Datenaustausch oder nicht synchronisierte Informationen.

Selbst die Unternehmen, die das Problem erkannt haben, müssen es oft mangels Ressourcen auf die lange Bank schieben. Gartner befürchtet deshalb, dass in den nächsten Jahren rund die Hälfte aller Data-Warehouse-Systeme entweder scheitert oder nur noch eingeschränkt von den Anwendern akzeptiert wird, weil IT und Business nicht einsehen, dass die Daten in ihrem Warehouse nicht analysierbar und damit wertlos sind.