Wie TUI sein Informationschaos beseitigte

11.03.2004
Von Christian Zillich

Nachdem das Data Warehouse für die deutschen Gesellschaften installiert war, wurden die österreichischen und Schweizer Töchter des Konzerns integriert, da diese auf die gleichen operativen Systeme zugreifen wie die deutschen Gesellschaften. Etwas aufwändiger gestaltete sich die Einbindung der skandinavischen und britischen Unternehmensteile. Das betriebswirtschaftliche Modell konnte zwar auch hier weitgehend übernommen werden, die Datenherkunftsanalyse und Qualitätssicherung sowie die Anbindung der in diesen Landesgesellschaften genutzten operativen Systeme stellten jedoch eine erneute Herausforderung dar.

Heute umfasst das Data Warehouse ein Datenvolumen von rund 700 Gigabyte. Der tägliche Datentransfer inklusive der Einspielung aktueller Stände liegt in der Größenordnung von 50 bis 120 MB. Für die Auswertung der dort hinterlegten Informationen setzt die TUI Business-Intelligence-Tools von Cognos ein. "Wir nutzen Cognos für die Erzeugung und Verwaltung von rund 200 Data Marts", so Kreuzer. Den Benutzern stehen die Module "Cognos Impromptu" für den Datenzugriff und das Reporting zur Verfügung. Multidimensionale Analysen (Olap) erfolgen über das Tool "Cognos Powerplay". Die generierten statischen Reports werden automatisiert in eine Knowledge-Management-Umgebung auf Basis von "Livelink" von Opentext integriert und stehen allen Anwendern auch über das Internet zur Verfügung.

TUI kann über sein Data Warehouse und das darauf aufsetzende Führungs- und Decision-Support-System "Tufis" nun auf alle für das Kerngeschäft wichtigen Informationen zugreifen. Dazu zählen Daten zu Hotelkontingenten und Flugkapazitäten, aktuelle Buchungsstände oder Berichte zur regionalen Auslastung. Außerdem dient das Data Warehouse als Basis für die Erstellung von Prognosen.

In die Berechnungen fließen sowohl aktuelle als auch historische Daten ein. Ideal ist hierfür laut Kreuzer ein Zeithorizont von drei Jahren. Derartige Auswertungen verlangten allerdings ein anderes Toolset. "Wir arbeiten hier mit der Lösung des Aachener Softwarehauses Thinking Networks, das sich intensiv mit mathematischen Modellen und neuronalen Netzen auseinander gesetzt hat", erläutert Kreuzer. Den so erstellten Prognosen dürfe man jedoch nicht sofort vertrauen. Vielmehr müsse über den Vergleich mit anderen Prognosedaten und Nachbetrachtungen erst die Qualität der Vorhersagen geprüft werden. Rund eineinhalb Jahre lang wurde das System verbessert und liefert mittlerweile gute Daten.

Insgesamt zieht Kreuzer eine positive Bilanz: "Mit dem Data Warehouse sind wir in der Lage, unsere Umsatzerträge und damit die Effizienz des Unternehmens zu steigern." In den ersten beiden Jahren hatte das Projekt fast 30 Prozent des IT-Investitionsbudgets beansprucht. Nachdem eine saubere Basis geschaffen war, lag der Aufwand für Erweiterungen und den Betrieb des Systems bei zirka fünf Prozent des gesamten IT-Budgets.