Thema der Woche

Keine Geschäfte ohne Data-Warehouse

13.06.1997

Rund acht Millionen Franken investiert die Swissair derzeit in ein Data-Warehouse und zwei darauf aufsetzende Datenzentren (Data-Marts). Die Kosten für den Betrieb inklusive der Hardware-Abschreibungen schätzt Artur Haag, Consultant bei der Swissair-Tochter Atraxis AG, Zürich, auf 3,5 Millionen Franken jährlich. Trotzdem rechnet die Fluggesellschaft mit einem Return on Investment.

Als zu Beginn des vergangenen Jahres die Atraxis nahezu zeitgleich den Auftrag für ein neues Online-Transaktions-Programm sowie für zwei Auswertungsapplikationen erhielt, stellte sich schnell heraus, daß die Anwendungen auf dieselben Daten zugreifen könnten. "Das Data- Warehouse ist für uns ein teilimplementiertes Unternehmens- datenmodell und eine riesige, für den Endbenutzer unsichtbare relationale Datenbank, die alle geschäftsrelevanten Informationen enthält", definiert Haag. "Im Endausbau soll die Oracle-Datenbank etwa 1,5 Terabyte groß sein und Daten aus fünf Jahren beinhalten." Sie liegt auf einem eigens angeschafften massiv-parallelen SP/2-Rechner der IBM, der aus zehn Thin Nodes und zwei Wide Nodes besteht. Allerdings sei das Data-Warehouse "offen" für einen Ausbau.

Weiterwachsen gewünscht

Das Data-Warehouse, hier "General Data-Pool" genannt, wird aus dem "Operational Datastore", einer Read-write-Datenbank, gespeist, die hauptsächlich Daten aus Host-Applikationen zusammenführt. Dabei werden weder neue Daten generiert noch Historien, zum Beispiel Änderungen bezüglich eines Flugs, aufgenommen. Zwar gibt es an dieser Stelle noch eine "kleine Datenpflege", doch grundsätzlich sollten Korrekturen möglichst in den Originalquellen vorgenommen werden. Nach dem Laden in den General Data-Pool, eine Read-only-Datenbank, kommt es zu keinen Veränderungen mehr.

Im kommenden August sollen die zwei auf dem Data-Warehouse aufsetzenden Data-Marts in Betrieb genommen werden. Ein Datenauszug dient als Grundlage für ein "Route Information System", das online Auskunft über Flugzeugauslastung, operatio- nelle und Kosten pro Sitzplatz sowie weitere streckenrelevante Details gibt. Das andere System ist auf Vertriebsinformationen ausgerichtet. "Wir rechnen mit einem Volumen von jeweils 200 GB, wenn die Data-Marts im Endausbau einen Bestand von drei Jahren enthalten", erläutert Haag.

Anfang 1996 hatte die Atraxis das Data-Warehouse-Projekt begonnen, nach einem Jahr sollte es abgeschlossen sein. Doch im Herbst stellte das Team fest, daß einiges schieflief. Die Zusammenarbeit auf Abruf mit dem Datenbankhersteller und Berater Oracle habe sich nicht bewährt, räumt Haag ein: "Wir haben uns überschätzt." Zudem konnte Oracle nicht garantieren, daß sein Tool für multidimensionale Analysen "Oracle-Express" die in Augenschein genommenen Datenmengen bewältigen würde. "Im Oktober haben wir das Projekt ganz neu begonnen", so Haag. "Jetzt arbeiten wir mit der Platinum Technology Inc. zusammen und setzen deren Tools Info Beacon und Forrest & Trees ein."

Die Frage, ob sich die Investition in das Data-Warehouse und die Data-Marts für die Swissair auszahlen wird, ist zum Teil mit Zahlen zu beantworten. Der DV-Experte setzt in erster Linie auf schnellere Information. "Jetzt haben wir die Schlüsselinformationen in zehn Tagen zur Verfügung, zuvor benötigten wir zwei Monate. Außerdem passen unsere Daten, obwohl sie noch immer aus unterschiedlichen Systemen stammen, jetzt zusammen." Dazu komme eine Normierung der Begriffe, vereinheitlichte Architekturen und Interfaces, die Möglichkeit einer zentralen Wartung und eine bessere Auslastung der Ressourcen auf der DV-Seite. Auf der Seite der Unternehmensziele ergeben sich ebenfalls meßbare Resultate. So läßt sich nun wesentlich schneller ermitteln, welche Ursachen es für Auslastungsschwankungen der Flugzeuge gibt, und erkennen, ob Marketing-Aktionen greifen oder ob sie besser abzubrechen sind.

Projekte wie dieses werden in Großunternehmen häufig gestartet. Doch mehren sich inzwischen kritische Stimmen. Anfänglich übertrafen sich Hersteller und Analysten geradezu in ihrer Begeisterung für den freien Zugriff auf alle Daten für jeden und jederzeit. Wer auf Kundenfang gehen und dabei wettbewerbsfähig bleiben wolle, müsse in diese Technologie investieren, hieß es. Den Erfolgs- stories aus USA folgten alsbald Schreckensmeldungen über die Kosten und technischen Probleme.

Dem ersten Resümee der Analysten zufolge versprechen Hersteller viel und halten wenig. Proprietäre Produkte verhindern eine durchgängige Warehouse-Lösung. Außerdem erweisen sich viele Tools als ungeeignet für die Bewältigung der großen Datenbestände. Data-Warehouses sind oft zu komplex, zu leistungsschwach und zu teuer. Sie verschlingen zuviel Geld-, Rechner- und Personalkapazitäten. Darüber hinaus ist die Qualität der Datenbasis in der Regel fragwürdig. Kommen Personaldaten ins Spiel, macht das Gesetz den Warehouse-Freunden ohnehin einen Strich durch die Rechnung (siehe Kasten auf Seite 10). Und letztlich bleibt die Akzeptanz ein Problem: Viele Anwender schöpfen das Potential nur ungenügend aus.

Von einem "Overselling" spricht Uwe Böhm, Leiter Market Intelligence bei der Grundig AG, Fürth, wenn es um Data-Warehouse-Technik geht. "Da hören Vorstände, daß man auf Knopfdruck klüger wird", mokiert er sich. Das Gegenteil sei häufig der Fall. Die Chance, alles selbst auswerten zu können, werde zum "Fluch", da man auch alles selbst auswerten müsse.

Wenn Information zum Fluch wird

Grundig verfügt seit zwei Jahren über eine Data-Warehouse-Lösung, die für Marketing- und Vertriebsauswertungen benutzt wird. Etwa 100 Mitarbeiter greifen darauf zu. Die grundlegende Lektion für den Baumeister des Warehouse laute allerdings: "Der Mensch ist raffgierig." Bei ersten Befragungen hatten Anwender angegeben, jede Information zu benötigen.

Dabei erweist sich bei Grundig und anderen Unternehmen, daß das Gros der Abfragen mit Standard-Reports abgedeckt werden kann. So reichen etwa bei der Deutschen Bank vordefinierte Berichte auf das zentrale Data-Warehouse, das seit über fünf Jahren im Einsatz ist und etwa 150 GB umfaßt, für rund 40 Prozent der Endanwenderfragen, rund 47 Prozent werden durch Ad-hoc-Auswertungen beantwortet, und 13 Prozent erfordern eine zusätzliche Programmierung. Für den Zugriff sind derzeit rund 4200 Anwender berechtigt.

Der Warehouse-Pool der Deutschen Bank wird mit Reporting-relevanten Daten gespeist, die aus den operativen Systemen in eine DB/2/MVS-Datenbank selektiert werden. Bei dieser Übernahme aus den heterogenen Quellen erfahren die Daten eine Transformation, zum Beispiel werden identische Inhalte gleich benannt und verwandte Informationen zusammengeführt. Operative und dispositive Daten werden nicht vermischt.

Entscheidungen erzwingen

Auch um das Volumen des Datenpools und die Performance in den Griff zu bekommen, müssen die Anwender definieren, was sie tatsächlich benötigen. Grundig-Mann Böhm behalf sich mit dem aus der Marktforschung bekannten Instrument "Conjoint Measurement", das Entweder-oder-Entscheidungen erzwingt. Die Deutsche Bank hat einen mehrstufigen Feedback-Prozeß etabliert. Sigrid Kälberer, zuständig für zentrales Data-Warehousing bei dem Finanzhaus, schildert, daß je nach Zielrichtung und Datenbestand bis zu 100 Anwender in den Filialen oder "Power-User" in der Zentrale befragt werden.

"Technische Felder" beseitigt schon im Vorfeld die IT-Abteilung. Sie gibt außerdem Empfehlungen. So werden Felder, die aus Reporting-Sicht uninteressant sind, grau hinterlegt. Erachten etwa 30 Prozent der Befragten eine Information als relevant, wird sie im Data-Warehouse angeboten.

Sind die operativen Daten aus bankfachlicher Sicht analysiert und verstanden sowie die Reporting-relevanten Daten identifiziert, läßt sich die programmtechnische Übernahme automatisieren, führt Kälberer aus. "Wir setzen hierfür das Ablaufsteuerungsverfahren Operations Planning and Control/Advanced (OPC/A) der IBM ein." Für den laufenden Betrieb des zentralen Data-Warehouse sind bei der Deutschen Bank drei Mitarbeiter zuständig. Sie beschäftigen sich neben der Wartung und Pflege des Systems auch mit der Übernahme von neuen Datenbeständen.

Zusammengesetzte Ad-hoc-Abfragen können durchaus enorme Rechnerressourcen beanspruchen und für den Anwender sehr teuer werden. Die Deutsche Bank hat deshalb eine Kontrollfunktion in das Data-Warehouse-System integriert, die den Anwender frühzeitig warnt und die benötigte Rechnerzeit kontrolliert. Dezidierte, aufgabenorientierte Data-Marts setzen bei der größten deutschen Bank auf dem zentralen Data-Warehouse auf. "Die Data-Marts ermöglichen etwa hochkomplexe mehrdimensionale Fragestellungen, um Soll-Ist-Szenarien durchzuspielen", so Kälberer. Auch Data-Mining-Projekte zum Beispiel zur Ermittlung von potentiellen Bausparern oder für andere gezielte Marketing-Kampagnen hat die Deutsche Bank auf der Basis von Data-Marts und dem Data-Warehouse abgewickelt.

Anders als beispielsweise Kälberer, die für eine strikte Trennung der operativen Systeme und des Warehouse votiert, wünscht sich Jürgen Schröder, Leiter Controlling und Planung bei der Novartis GmbH, Nürnberg, einen "intelligenten Austausch von Daten" zwischen den Systemen. Für die Vermittlung könnten seiner Ansicht nach ein gemeinsames Data-Dictionary und der Einsatz von Standardsoftware sorgen. Beide Mittel würden helfen, den Datenbestand der operativen Systeme zu synchronisieren. Immerhin verursacht die Normierung der unterschiedlichen Schlüssel und Begriffe, die notwendig ist, um ein Datenmodell auf die Beine stellen zu können, seiner Ansicht nach rund 80 Prozent des Aufwandes, der für den Aufbau und den Betrieb des Data-Warehouse notwendig ist.

"Think big, start small", rät Michael Beckmannshagen, Bereichsleiter Engineering bei der Karstadt AG. Angefangen hat Data-Warehousing bei dem Kaufhauskonzern mit abteilungsbezogenen Data-Mart-Lösungen. Zur Zeit wird in einem Pilotprojekt die Infrastruktur für ein "Enterprise-Data-Warehouse" erarbeitet. Dabei ist auch für die Karstadt AG das Ziel eine unternehmensweite, konsistente Informationsbasis. Sie soll flexibel gegenüber inhaltlichen und strukturellen Änderungen sein und zugleich skalierbar bezüglich des erwarteten Wachstums. "Ein Datenvolumen in Terabyte-Dimensionen muß abgedeckt werden können", stellt Beckmannshagen heraus. Für den Nutzen des Data-Warehouse und damit für das Wachstum entscheidend sei eine Informationsbedarfsanalyse, bei der aus den Geschäftszielen die kritischen Erfolgsfaktoren abgeleitet und im Data-Warehouse unter Geschäftssichten und -begriffen angeboten werden müssen.

Die Dresdner Bank geht allerdings einen anderen Weg. Das Datenmodell ihrer Geschäftsdatenbank wird nicht wie in den bisher erwähnten Data-Warehouse-Lösungen aus den bestehenden Anwendungen generiert, sondern eingekauft.

Wolfgang Bender, Projektleiter zentrales Data-Warehouse Handel: "Wir haben uns verschiedene Datenmodelle angesehen, mit unseren Geschäftsprozessen verglichen und uns für das der kalifornischen Infinity Financial Technology Inc., Mountain View, entschieden. Bei 60 verschiedenen Geschäftsarten im Investment-Banking, die jeweils bis zu 50 verschiedene Attribute aufweisen, haben wir keine Chance gesehen, in einem angemessenen Zeitraum ein eigenes Datenmodell aufzubauen." Zudem verfüge die Infinity-Software über eine Objektbibliothek. Sie enthält unter anderem C++-Schnittstellen, die den Zugriff auf das Infinity-Warehouse mit Infinity-Applikationen und anderen Dresdner-Bank-Anwendungen standardisieren. Mit der Wahl von Infinity fiel auch die Entscheidung für die Datenbank und das Betriebssystem: Sybase und Solaris. "Bisher mußten wir die gewünschten Informationen aus mehr als zehn verschiedenen Front-Systemen zusammentragen", so Bender, "künftig befinden sich alle wesentlichen Daten im Infinity-Warehouse."

Nachdem die Testphase mit zwei Prototypen abgeschlossen ist, sollen in einem ersten Schritt ab Mitte Juli sukzessive die Daten aus dem Handelsgeschäft einfließen. Als zweite Phase plant die Bank, auch die Geschäftsdaten des kommerziellen Geschäfts in ein Data-Warehouse zu überführen.

Die Datenbereitstellung für das Infinity-System erfolgt täglich in zwei Stufen. Auf der ersten werden die relevanten Daten in ihrer ursprünglichen Struktur aus den operativen Systemen in eine DB/2-Datenbank geladen und in eine Unix-Umgebung repliziert. Derzeit fällt pro Tag dabei ein Volumen von 1 GB an. Zusätzlich gespeichert wird auch ein Teil der Historie, etwa Wochen-, Monats- und Jahresbestände.

Danach beginnt wie bei anderen Unternehmen auch ein Transformationsprozeß. Dabei werden lediglich die gegenüber dem Vortag geänderten Daten berücksichtigt.

Jedes Geschäft bekommt einen Infinity-Typus zugewiesen. Außerdem erhalten unterschiedliche Darstellungsformen gleichartiger Geschäftsarten eine einheitliche Form. Große Probleme verursacht hierbei die Identifikation von Geschäften, die von den Händlern parallel in unterschiedlichen Front-Systemen geführt werden. Da in den gewachsenen operativen Systemen häufig kei-ne eindeutigen Bezeichnungen verwendet werden, erweist sich auch die Vereinheitlichung der Schlüssel für Kontrahenten oder Wertpapier-Stammdaten als schwierig.

Ein weiteres Problem war die Einarbeitung der DV-Mitarbeiter in die Handelsthematik. Das Warehouse-Projekt wurde im Mai vergangenen Jahres gemeinsam mit den Anwendern begonnen. Neben Bender gibt es einen zweiten fachlichen Projektleiter.

Zur Zeit ist das Projekt aufgeteilt in sechs Teams. Neben demjenigen, das für die Datensammlung zuständig ist, sorgen drei Gruppen für die fachliche Transformation: Devisen, Aktien, Renten und Zinsen. Eine DV-Truppe kümmert sich um den laufenden Betrieb, um die Software-Entwicklungsumgebung und die Einführung des Warehouse in die Praxis. Das andere DV-Team hat die Hoheit über Standardisierungsbelange bei der Nutzung von Infinity.

Der Eigenhandel der Dresdner Bank gewinnt zunehmende Bedeutung. So betrage das Gesamtvolumen der ausstehenden Kontrakte zum Jahresultimo 1388 Milliarden Mark. Nicht zuletzt die Bankenskandale der vergangenen Jahre, wie der Niedergang der Barings-Bank durch die Aktionen von Nick Leeson, führten zu einer Verschärfung der aufsichtsrechtlichen Anforderungen in diesem Geschäft. Neben diesen Verpflichtungen gegenüber dem Bundesaufsichtsamt für das Kreditwesen habe die Dresdner Bank allerdings aus wohlverstandenem Eigeninteresse auch eine ertragsorientierte Geschäftssteuerung unter strenger Berücksichtigung des Risi- kos vor Augen, so Projektleiter Bender. "Das Data-Warehouse kann die notwendigen Informationen liefern, wenn's sein muß, jeden Morgen..