Data-Warehouse

Ein Datenfriedhof ist keine Informationsquelle

02.04.1999
Viele der vollmundigen Versprechungen von Data-Warehouse-Promotoren haben sich nicht erfüllt. Datenfriedhöfe lassen sich nicht in sprudelnde Informationsquellen verwandeln. Nach Erkenntnis dürstende Entscheider müssen weiter auf die Killerapplikation warten. Der unternehmensweite Decision-Support steht vor einer Zäsur, wie Winfried Gertz* im Gespräch mit Marktforschern von Forrester Research erfahren hat.

Der Druck war kaum noch auszuhalten. Gnadenlos setzte der globale Wettbewerb den Unternehmen zu. Um marktfähige Produkte und erfolgversprechende Dienstleistungen anbieten zu können, mußten präzise Analy- sen und Prognosen auf den Tisch. Darauf war die Informations- technik aber nicht ausreichend vorbereitet. Tage, ja sogar Wochen verstrichen, bis der indivi- duell programmierte Report eintrudelte.

Ab in die Mottenkiste. Eine schwerfällige IT sollte den Entscheidern nicht mehr im Weg stehen. Mit diesem Versprechen eroberten Datenbanker und Tool-Anbieter die Herzen der Anwender im Sturm. "Information at your fingertips" - alles nur noch eine Frage von Mausklicks. Eingelullt von nebulösen Werbebotschaften einer Milliarden Dollar witternden Industrie begaben sich Mittelständler und Großkonzerne ins Ungewisse. Und nun? In den riesigen Ansammlungen der Data-Warehouses und Data-Marts fehlt der Durchblick. "Wir haben die Orientierung verloren", lautet die frappierende Bilanz eines IT-Managers aus der Raumfahrtindustrie.

"Die überwiegende Mehrheit der IT-Manager in Großunternehmen ist davon überzeugt", sagt Frank Gillett, Marktbeobachter von Forrester Research in Boston, "daß ihre Decision-Support-Strategie völlig unzureichend ist." Über 60 Prozent der von Forrester Research befragten Anwender räumen ein, daß ihre Systeme tiefgreifende Veränderungen verlangen oder sogar gänzlich ungeeignet sind. Zwar sind 70 Prozent zuversichtlich, innerhalb der nächsten Jahre entscheidende Verbesserungen herbeizuführen. Konkretisieren, wie sie das anstellen wollen, dazu sind indes nur die wenigsten in der Lage.

In den zügigen Ausbau umfassender Informationssysteme wurde in den vergangenen Jahren viel Geld gepumpt. Während IT-Abteilungen sich mit der Einrichtung grundlegender Architekturen befaßten, entwickelten die einzelnen Business-Bereiche ihre eigenen Data-Marts. Allen voran Vertrieb und Marketing fütterten dezentrale Server mit Daten aller Art, die bunte Grafiken auf die Mattscheiben der Strategen zauberten. Berauscht von illustrer "Business Intelligence", die Kunden, Geschäftspartner und das Top-Management im Handstreich für sich gewann, geriet die notwendige Konsistenz der Daten ins Hintertreffen. Oder anders formuliert: Äpfel wurden mit Birnen verglichen.

Ein Desaster. "Auf saubere und konsistente Daten hat man zuwenig geachtet", so Gillett. Nun hat man den Salat. Das Dilemma: Wer sich ans Großreinemachen wagen will, macht sich nirgendwo beliebt. Die undankbare Aufgabe bereitet absolut keinen Spaß. "Daß es so weit gekommen ist, überrascht uns alle", kritisiert ein IT-Verantwortlicher eines gro-ßen Verlagshauses. Den grassierenden Gemischtwarenhandel in die Schranken zu weisen ist ein Knochenjob. So holte sich der IT-Leiter eines Maschinenbauers alle Abteilungsleiter an einen Tisch, um sie von der Priorität eines einheitlichen Datenstandards zu überzeugen. Es dauerte geschlagene zwölf Stunden, bis alle begriffen hatten, daß die schönsten Grafiken ohne saubere Datenkonsistenz nur heiße Luft sind.

Ein fast auswegloses Tohuwabohu

Was Anwender erwarten, ist die eine Seite der Medaille; wie Daten aus operationalen Systemen und anderen Quellen in eine angemessene Terminologie gegossen werden, ist die andere. Daten aus verschiedensten Ressourcen werden über einen Kamm geschoren; selbst die ausgefeiltesten Auswertungswerkzeuge fördern Ergebnisse zutage, die nur Verwirrung stiften können.

Eine einheitliche und auf Standards basierende Datenbasis zu schaffen, das ist leichter gesagt als getan, ermittelte Gillett. Obwohl sie die Bedeutung von Standards verstehen, sind weniger als 25 Prozent der befragten Anwender in der Lage, die geforderte Konsistenz in ihrer Datenlandschaft voranzutreiben.

Sie befürchten, durch weitere Anpassungen der DV die Akzeptanz von Decision-Support bei Anwendern zu untergraben. Andere sind mit einem Tohuwabohu konfrontiert, das fast ausweglos erscheint.

Der IT-Manager eines Pharmaunternehmens: "Wir dachten, wir könnten den Standards vertrauen. In Wahrheit aber sind sie von unterschiedlichem Gewicht. Zwar ist Prism unsere wichtigste Lösung zur Datenextraktion, wir haben uns aber auch auf DB2-Utilities eingelassen. Dasselbe gilt für unsere Analysewerkzeuge: SAS, IBM, Cognos und Brio."

Der Status quo von Decision-Support in Fortune-1000-Unternehmen ist ernüchternd, zieht Forrester eine gnadenlose Bilanz. Die wichtigsten Ergebnisse:

- Decision-Support ist bestenfalls Mittelmaß. Angesichts komplexer Architekturen, permanenter Datenextraktion und unübersichtlicher Werkzeugkästen bleibt IT-Verantwortlichen nur, das Schlimmste zu verhüten.

- Unternehmen bekommen organisatorische Herausforderungen nicht in den Griff. IT-Manager gelingt es nur selten, sich in Fragen zur Datenkonsistenz oder realistischen Anwendererwartungen als erfolgreiche Moderatoren zu beweisen.

- Wachsende Herausforderungen durch Decision-Support-Technologie. Neuere Systeme enthalten zwei Layer aus Datenbanken und verlangen deshalb eine tägliche Datenbereinigung.

Die Zwickmühle, in der die meisten Anwender stecken, bringt Forrester-Analyst Gillett auf den Punkt. "Selbst wenn Daten aus einer Vielzahl von operationalen Systemen herangezogen werden können, sind sie inkonsistent und kommen viel zu spät. Anwender reagieren darauf, indem sie völlig unkontrolliert Data-Marts hochziehen und sie in minderer Datenqualität kreuz und quer distribuieren."

Um eine Schneise in diesen Dschungel zu schlagen und damit auch die Herausforderung isolierter Data-Marts zu bewältigen, sollten Unternehmen laut For- rester zunächst einen Vizepräsidenten für Analyse benennen. Dieser berichtet direkt an den Chief Information Officer, der auch für die Decision-Support-Strategie geradesteht. Im zweiten Schritt sollte man die implementierten Systeme unter die Lupe nehmen und rücksichtslos bewerten. Erhalten Entscheidungsträger tatsächlich die benötigten Informationen, oder werden sie durch komplexe Werkzeuge und archaische Datenmodelle an ihrer Arbeit gehindert?

Zur Bereinigung von Altlasten könnte laut Forrester eine neue Klasse von "Interactive-Analysis-Server" beitragen. Mit ihrer an Yahoo! erinnernden Schlichtheit sollten sie den tatsächlichen Bedürfnissen von Entscheidungsträgern weitaus näher kommen als bisher favorisierte Systeme. Eingebettet in eine neue Decision-Support-Architektur, die sich auf geschäftskritische Anwendungsbereiche beschränkt, geht es nun schlechter Datenqualität, vernachlässigter Datendefinition sowie unkontrolliert wuchernden Data-Marts an den Kragen.

Wie Gillett erläutert, sollte die unter der Ägide des VP Analysis rekrutierte Crew zunächst ein oder mehrere Datenverteilungsnetze, sogenannte Hubs, errichten, ferner den Zugang zu Data-Marts standardisieren sowie durch Implementierung von Interactive-Analysis-Servern die entscheidende Grundlage für ein funktionierendes Decision-Support-System legen. Einen Hub für die Datenbereitstellung im unternehmensweiten Netzwerk definiert Gillett als "klar definierten Speicher für saubere und konsistente Daten aus einem oder mehreren operationalen Systemen". Ein solcher etwa auf Oracle 8 oder DB2 basierender Hub soll auch dazu beitragen, operationale Systeme vor übermäßiger Datenextraktion und Analysezugriffen zu schützen.

Reden über dasselbe, aber was anderes meinen

Hubs sollen also die Konflikte, die sich aus verschiedenen Datenkonsolidierungen ergeben vergessen machen. Forrester empfiehlt hierzu Systeme von Constellar oder Data Junction, bei komplexen Transformationen und Zugriff auf Legacy-Anwendungen eher Reliant oder ETI.

Besonderes Augenmerk gilt einer klaren Definition von Daten. Konkrete Begriffe haben in verschiedenen Fachbereichen völlig unterschiedliche Bedeutungen, so zum Beispiel das Wort "Auftragsbestand" aus Sicht des Vertriebs oder der Arbeitsvorbereitung. Auch andere Fachtermini werden nicht einheitlich verwendet. Beispiel: "Lagerbestand" als mengenmäßige und "Hauptbuchkonto" als wertmäßige Bezifferung des Lagerbestands. Vieles bleibt vage: Gehören Bestellungen mit dem Status "offen" noch zu den bewertbaren Forderungen? In einen falschen Kontext geraten auch Fachausdrücke: Viele reden über das vermeintlich gleiche, jeder meint aber letztendlich etwas anderes. Dies schafft enorme Kommunikationsprobleme und läßt jedem CEO spätestens bei der Präsentation höchst disparater Ergebnisse die Haare zu Berge stehen.

Hubs haben allerdings noch weitere Aufgaben: Sie achten darauf, daß Daten an veränderte Geschäftsverhältnisse angepaßt werden können, etwa historische Daten im Kontext einer Reorganisation von Verkaufsregionen oder eines Mergers. Ferner enthalten Hubs Metadaten und Informationen über den Datenverkehr. Forrester empfiehlt hierzu Repository-Systeme von Microsoft oder Informatica.

Auch für die Standardisierung der Data-Marts rät Forrester-Analyst Gillett zu einer besonnenen Vorgehensweise. Bei der Entwicklung von Data-Marts sollten sich Anwender auf Microsoft SQL Server 7 oder Sybase Warehouse Studio beschränken und weniger den "strategischen" Lockrufen von OLAP-Anbietern (Online Analytical Processing) wie etwa Hyperion/Arbor oder Red Brick folgen, die nur einen kleinen Teil zur großen Lösung beitragen könnten. Ferner sollte der Hub zum "One-stop-shopping" einladen. Durch Zugriff auf einen einheitlichen Datenstandard ê la Microsofts Repository oder des aufstrebenden XML können Anwender die Daten erhalten, die sie auch tatsächlich benötigen. Sobald Data-Marts in der Praxis verwendet werden, sollte die Aufmerksamkeit nicht nachlassen. Ein gelungener Schachzug, so Gillett, sei die Einbindung von Datentransformation und Data-Mart-Performance ins System-Management. Hierzu böten sich vor allem Werkzeuge für Data-Warehouse-Monitoring von Oracle oder Platinum an.

Drittes Element einer funktionierenden Decision-Support-Architektur ist der Interactive-Analysis-Server. Er regelt die Komplexität der Datenanalyse und sorgt dafür, daß jeder Anwender jene Informationen erhält, die er benötigt. Forrester Research rechnet damit, daß diese Softwareklasse in den nächsten drei Jahren von sich reden machen wird. Schon heute wiesen sogenannte Datenflußwerkzeuge von Platinum oder Sagent in diese Richtung, so Gillett. Andere Systeme von Informatica oder One Meaning helfen vor allem bei der Identifizierung oder Anpassung von geschäftlichen und technischen Metadaten.

Kein Zweifel - unter diesen Vorzeichen könnten sich IT-Verantwortliche und Top-Manager aus den technischen Korsetts befreien. Unterstützt durch die beträchtlich gestiegene Qualität der Datenressourcen ließen sich geschäftliche Risiken einschränken und neue Wettbewerbsvorteile erzielen. Falls im Jahr 2002 der breite Durchbruch gelingt, so die Auguren, würden viele Anwender von Enterprise Resource Planning (ERP) Abschied nehmen und sich der neuen Analyseverfahren bedienen. "Die Hub-Architektur befreit Analyseanwendungen aus der Abhängigkeit von operationalen Systemen und macht große Unternehmen zugleich unabhängig von Standardsoftware", prognostiziert Gillett. Schon nächstes Jahr würden Hunderte von Anbietern sich auf dieses profitable Segment stürzen, während insbesondere unter Tool-Lieferanten das große Sterben beginnt.