Ein "Data-Warehouse-Baby" von 7 GB Thyssen Stahl AG schafft sich eine Auskunftsbasis fuer Chefs

24.11.1995

MUENCHEN (ua) - Mit einer neuen Generation ihres Fuehrungsinformationssystems will die Thyssen Stahl AG dem Management bessere Entscheidungsgrundlagen in die Hand geben. Der Konzern arbeitet an einem Data-Warehouse-Konzept, das auch die Beobachtung von Geschaeftsprozessen sowie die Anfertigung von Querschnittsanalysen erlaubt.

"Zu viele Daten - und nicht genuegend oder verspaetete Informationen", beschreiben Thomas Jahn und Ludger Ostrop- Lutterbeck von der Abteilung Informatik-Anwendungen bei der Thyssen Stahl AG die Ausgangslage. Das liege vor allem daran, dass historisch gewachsene operative und dispositive Systeme nebeneinander existierten und zudem auf verschiedene Hard- und Softwarebasis installiert seien. Ausgelegt fuer die funktional gepraegten Arbeitsprozesse einzelner Geschaeftsfelder, unterstuetzt die DV jedoch nicht die Verwertung von Daten in Querschnittsanalysen und Prozessketten.

Die erste Aufgabe bestand deshalb im Aufbau einer gemeinsamen Informationsbasis fuer das Auskunftssystem. Die Daten aus den Kundenstamm-, Auftragsabwicklungs-, Abrechnungs-, Lagerverwaltungs-, PPS- und Versandsystemen mussten zusammengefuehrt werden.

Dabei wurden folgende Ziele in ersten Schritten erreicht:

- Datenkonsistenz: Der Zugriff auf einen unternehmensweiten Datenpool mit klar definierten Berichtsattributen sichert dem Benutzer Konsistenz, Integritaet und Verfuegbarkeit von Daten.

- Tagesaktualitaet und Zeitreihenbetrachtung: Es stehen Daten von drei Geschaeftsjahren bereit, die aus den operativen und dispositiven Abwicklungssystemen extrahiert und nach logischen Kriterien verbunden werden.

- Prozessorientierung: Das Auskunftssystem reagiert flexibel auf Aenderungen in den Geschaeftsprozessen und stellt uebergreifende Informationen zur Verfuegung.

- Mehrdimensionalitaet: Die Aggregation von Daten erfolgt auf unterschiedlichen Niveaus je nach Management- und Analysebereich. Verschiedene Betrachtungsweisen werden kontextabhaengig, durch die Bildung unterschiedlicher Kennzahlen und durch ein Drill-down- Verfahren ermoeglicht.

- Multifunktionale Nutzung: Stichworte sind der multifunktionale Arbeitsplatz und der Online-Zugriff auf die Berichtswerte. Dabei sind die Integration in die MS-Office-Welt sowie der Datenaustausch via Microsoft-Schnittstelle Dynamic Data Exchange (DDE) fester Bestandteil bei der Informationsgewinnung und - praesentation. Das Projekt wurde im Oktober 1993 initiiert, ein Projektteam aus fuenf Mitarbeitern der Thyssen Stahl AG und zwei Oracle-Beratern entstand.

Es folgte die Fachinhalts- und Systemspezifikationsphase, die im Mai 1994 mit der Festlegung der zu realisierenden Prototypen endete. Einfuehrung und Konsolidierung sollen bis Dezember dieses Jahres abgeschlossen sein. Bis jetzt arbeiten 120 Endanwender mit der ersten Version des Systems. Dabei ist das Data-Warehouse erst auf 7 GB angewachsen.

Das Auskunfts- und Berichtswesen setzt auf einer Client-Server- Architektur auf. Dabei wandern Host-Daten auf das massiv-parallele Unix-System "IBM 9076-SP2". Zugleich bekommen die Daten eine relationale Struktur. Auswertung und Praesentation sind in einer eigenen Schicht angesiedelt. Diese ist von einer weiteren Schicht, dem "Data Storage" fuer die Dateipflege und Datenvorverdichtung, sowie von einer Ebene fuer das Datensammeln, "Data Capturing", getrennt.

Rund 100 MB sind taeglich von der Host- in die Unix-Welt zu transferieren. Um das zu bewerkstelligen, wird das Cobol- und Adabas-Wissen der IT-Abteilungen genutzt. Die relevanten tagesaktuellen Aenderungen aus den operativen Systemen stellt ein automatisierter Prozess in Form von sequentiellen Dateien bereit.

Daten wandern vom Host auf einen Unix-Rechner

Zur Zeit lassen sich acht operative und dispositive Systeme anzapfen. Der Dateitransfer geschieht satzweise, wobei das IBM- Produkt "MQ Series" Middleware-Funktionen uebernimmt. Zur Optimierung werden die Datenbestaende jeweils auf eine physische Laenge von 30030 Bytes geblockt. Zudem erhaelt der physische Uebertragungssatz einen Schluessel, der sich aus Kennzeichen seiner Herkunft, aus dem Transferdatum und der Transferzeit sowie aus der aktuellen Blockzahl und der Anzahl der logischen Saetze zusammensetzt.

Auf dem Unix-System angekommen, werden die Queues mit Hilfe eines C-Programms gelesen, die Daten mit Hilfe der Abfragesprache "Embedded-SQL" als Bestandteil von "Oracle Pro*C" extrahiert und in die Briefkastentabelle "Tmailbox" geschrieben. Hier erhaelt jeder Uebertragungsbereich ein eigenes Kontrollskript, mit dem das Lesen in dem Briefkasten und die Eingliederung in die relationale Welt der Oracle-Datenbank gesteuert wird.

Ueber Stored Procedures lassen sich die flachen Datenstrukturen aufbrechen und aus den Mailbox-Saetzen in relationale Tabellen verteilen. Dabei werden die Daten zugleich auf relevante Attribute gefiltert. Durch Schluesselbruecken, Harmonisierung von Grunddimensionsmerkmalen, Plausibilitaetspruefungen und Formatanpassungen ist es moeglich, die Daten nach Geschaeftslogiken zu verzahnen, zu konsolidieren und zu integrieren. Wie Jahn und Ostrop-Lutterbeck berichten, zeigen sich dabei zum Teil erhebliche Schwachstellen in den operativen Systemen. Allerdings werden die operativen Daten nicht einfach mit denen der Informationsbasis ueberschrieben. Die Fachabteilungen erhalten Kenntnis, so dass sie das Problem beseitigen und die Daten bereinigen koennen.

Was die Auswertung der Daten nach Anwendungskriterien betrifft, hat sich das Thyssen-Team dafuer entschieden, sie vorab nach Informationsklassen zu verdichten. Zur Zeit stehen dem Anwender etwa fuer den Bereich "Teilmarktbetrachtung" 13 Grunddimensionen zur Verfuegung.

Dabei sind die Auspraegungen der Dimensionen voneinander abhaengig. Ausserdem sind sie an Situationen gebunden, so dass aggregierte Informationen im Kontext der Problemformulierungen online per Drill-down bis auf die Basisdaten aufgeloest werden koennen. Bis zu 13 Evaluierungsstufen stellt das System seinen Benutzern zur Verfuegung, wobei das System im Mittel nur 15 Sekunden braucht, um die Anfragen zu bearbeiten.