Vom Datensilo zur taktischen Anwendung

Auf dem Weg zum Active Data Warehouse

10.05.2002
EDINBURGH (as) - Wenn Zeit über Gewinn oder Verlust entscheidet und Strategien in operative Tagesabläufe eingebunden werden müssen, dann sollte der NCR-Tochter Teradata zufolge ein traditionell Batch-orientiertes Data Warehouse zu einem "Active Data Warehouse" weiterentwickelt werden.

Bisher nutzen viele Unternehmen ihr Data Warehouse für eine Art Monitoring der Geschäftsaktivitäten und zur Speicherung produktzentrierter historischer Informationen, die per Batch in das System gelangen. Seit einiger Zeit werden jedoch Forderungen laut, Unternehmensinformationen möglichst schnell und akkurat sowie in kurzen Zeitabständen an Kunden und die Beteiligten der Lieferkette zu übermitteln. Dies hat Folgen für den Betrieb und die bisherige Architektur des Data Warehouse: Statt das System einmal pro Woche beispielsweise per Batch zu aktualisieren, gehen nun erste Unternehmen wie Wal-Mart den Weg, auch tagesaktuelle oder gar minutenaktuelle Informationen in das System einzuspielen.

Massiv-parallele Systeme (MPP-Server), die über eine Vielzahl von Rechnerknoten skalieren, gelten für Marktforscher wie die Meta Group als die geeignetste Basis für ein solches datenintensives Warehouse. Dieses muss entweder in der klassischen Data-Warehouse-Architektur als zentraler Hub die wachsenden Datenmengen bewältigen und speichern oder die neuen Aufgaben zusammen mit einem zusätzlichen operativen Datenspeicher erledigen. Zu den Spezialisten in diesem Umfeld zählt neben Compaq mit seinem "Zero Latency Enterprise" (ZLE) vor allem die NCR-Tochter Teradata mit dem Active Data Warehouse. In einem Gespräch erläuterte Stephen Brobst, Chief Technology Officer bei Teradata, gegenüber der CW, was auf Unternehmen zukommt, die eine solche Data-Warehouse-Strategie verfolgen wollen.

Danach ist der Weg zum Active Warehouse in mehreren Schritten zu gehen. Zunächst gelte es, die Daten überhaupt aus den Quellsystemen zu integrieren und für Auswertungen über Balanced Scorecards oder Reporting-Tools aufzubereiten. Der nächste Evolutionsschritt sei die Unterstützung von Analysen wie Ad-hoc-Abfragen und Ähnlichem, in einem weiteren Schritt könne dann auch Data Mininig zum Einsatz kommen. Für die genannten Anwendungen genüge es, das Warehouse per Batch-Modus zu aktualisieren. Will der Anwender jedoch taktische Data Warehouses aufbauen und laufend Bestandsanalysen machen, erhalte die echtzeitnahe Datenversorgung eine immer größere Bedeutung.

Zugleich steige die Komplexität der Architektur. Anwender müssten nun die Kapazitäten genau planen und über Management-Funktionen zur Steuerung des Workloads nachdenken. Die Datenverarbeitung müsse in einer solchen Architektur mit dem Business Value verknüpft sein: "Wenn ich meine Verkaufsdaten erst abends erfassen kann, dann kann ich nicht mehr am selben Tag unmittelbar auf die Lieferkette einwirken", so Brobst.

Auch gerät der Umbau des bestehenden Data Warehouse zu einem eigenen, kostspieligen Projekt. Ist das bisherige Datenmodell solide definiert worden, sind zwar hier nach Ansicht des Managers keine größeren Eingriffe nötig. Der Prozess für die Extraktion, Transformation und das Laden (ETL) müsse jedoch von einer Batch- auf eine Stream-Orientierung umgestellt werden, wobei die Ressourcen künftig taktisch und nicht mehr wie bisher gleichberechtigt geladen werden. Zum Problem könnten in diesem Zusammenhang die Quellsysteme werden, da sie nicht unbedingt dafür konzipiert sind, ständig Daten zu liefern und diese eventuell nicht in der benötigten Qualität bieten können.

Ein Active Data Warehouse müsse zudem anders als ein weitgehend isoliertes operatives Data Warehouse über eine Middleware-Infrastruktur für Enterprise Application Integration (EAI) in die bestehende IT-Landschaft eingebunden werden.