IT im Handel/Data-Warehousing und Business Intelligence im Handel

Effizienter Umgang mit Daten verlangt spezielle DV-Werkzeuge

19.09.1997

Laut einer Umfrage der Reuters Business Information schadet die ständig wachsende Datenflut Managern mehr, als daß sie ihnen unmittelbar nutzt. Von 1300 befragten Führungskräften fühlte sich die Hälfte "überversorgt", was Arbeitszeit raube und Entscheidungen verzögere.

Ein ebenso kritischer Faktor sind die nicht unerheblichen Kosten, die das Verwalten der eingehenden Daten verschlingt. Experten gehen außerdem davon aus, daß in Unternehmen nur 20 Prozent der Informationen auch tatsächlich Verwendung finden.

Letztlich befindet sich der Manager in einem Dilemma. Hat er zuwenig Informationen, fehlen ihm die vielleicht wichtigen Fakten, um eine richtige Entscheidung treffen zu können. Hat er aber zuviel davon, sind die notwendigen Daten herauszufiltern und dann noch zu verwalten. Eine Studie der Gartner Group gibt an, daß die Zahl der Endanwender von Business-Intelligence-Lösungen jährlich um 140 Prozent steigt. Das impliziert, daß das bisherige Informations-Management Defizite aufweist.

Wer etwa eine Auswertung vornehmen will und dabei auf verschiedene Informationskanäle zugreifen muß, wird schnell erfahren, wie wenig ihm seine DV dabei helfen kann. Ein Nebeneinander von Systemen und Datenbanken, die den gestiegenen Anforderungen an eine flexible Informationsverarbeitung nicht gewachsen sind, ist typisch für den Zustand der DV im Handel.

Dieses Dilemma aufzulösen ist das Grundanliegen des Data-Warehousing. Informationen aus internen und externen Datenbanken, Archiven und sonstigen Quellen werden so gesammelt und analysiert, daß sie jedem Mitarbeiter ad hoc bei Bedarf zur Verfügung stehen. Relevant dafür ist die einfache Bedienbarkeit der Software, die ohne komplizierte Programmbefehle und kryptische Abfrageroutine auskommt.

Traditionelle Zugriffskonzepte sind von diesen Aufgaben schlicht überfordert. Im Data-Warehouse sichert eine zentrale Datenbank den Zusammenhalt und die Transparenz aller Geschäftsdaten in ihrem Zeitzusammenhang. Aktuelle Zustände und Entwicklungen lassen sich über definierte Zeitspannen hinweg analysieren und nachvollziehen.

Das Konzept unterstützt die verteilte Datenverarbeitung in Client-Server-Architekturen und trägt zu einer deutlichen Entlastung der Netze bei. Spezielle Replikationsverfahren, der Abgleich zwischen Datenbeständen, senken den Umfang des verteilten Informationsvolumens und sichern die Konsistenz.

Anhand eigens formulierter Datenbankabfragen stehen auf PCs alle gewünschten Informationen in einer benutzergerechten und praxisnahen Terminologie zur Verfügung. Das wichtigste: Der Anwender braucht sich um SQL-Befehle nicht mehr zu scheren. Business-Intelligence-Lösungen ermöglichen es ihm, Ad-hoc-Analysen und Reports zu erarbeiten, unternehmenskritische Informationen dreidimensional darzustellen sowie unvorhersehbare Trends und Muster im Handel zu registrieren.

Im Bereich Materialwirtschaft, Material-Controlling, Werksteuerung und Produktionsplanung verwendet beispielweise die Schwarzkopf-Gruppe in Hamburg inzwischen Impromptu von Cognos. Die Reporting-Lösung wird zur Auswertung der R3-Daten genutzt, die den SAP-Modulen Controlling (CO) und Material-Management (MM) entstammen. Der Hersteller von Haarpflegeprodukten wollte Vertrieb und Marketing als Schaltstellen zum externen Kunden in den IT-Verbund integrieren.

Das Unternehmen wünschte eine schnelle und pragmatische Umsetzung von Analysen, etwa für den Inlandsvertrieb eine Auswertung der Produktabsätze nach Region, Zeit und Vertriebskanal. Trotz fachlicher Kompetenz von Controllern und DV-Mitarbeitern vergingen mehrere Stunden oder sogar einige Tage bis zur Vorlage der Ergebnisse.

Zusätzlich wurden die Berichtsdaten zwecks Integration mit Informationen aus weiteren Systemen oder zur Aufbereitung im Präsentationslayout auf die Arbeitsplatzrechner heruntergeladen. Hieran schloß sich eine weitere Datenaufbereitung mit Excel oder anderen PC-Werkzeugen an. Resultat der notwendigen Schnittstellen-Architektur waren mangelnde Datenaktualität und voneinander abweichende Ergebnisse der präsentierenden Unternehmensbereiche.

Das zeigt zugleich die unzureichende Qualität der früher verwendeten Auswertungswerkzeuge. Eine Nutzung des zentralen Tools Query Management Facility (QMF) durch den Anwender bildete die Ausnahme, zumal dessen Handhabung grundlegende Kenntnisse der SQL-Syntax voraussetzt. Auswertungen führte also ausschließlich die Anwendungsentwicklung über SQL-Abfragen und Prozeduren durch.

Daraus entstand die Anforderung, Informationsbedürfnisse von Entscheidungsträgern, Experten und Sachbearbeitern direkt zu adressieren. Im Idealfall sollte sich der Gesamtkostenapparat des Unternehmens auf Knopfdruck visualisieren lassen. Inzwischen ist ein solches System in Betrieb.

Was in den USA und Kanada bereits seit mehreren Jahren boomt, akzeptieren auch in Deutschland immer mehr Handelsfirmen. Marktbeobachter der Gartner Group und der Meta Group bestätigen, daß sich viele Unternehmen mit dem Aufbau eines Data-Warehouse für den Zeitraum des nächsten Jahrzehnts beschäftigen.

Daß vor allem Parallelrechner und relationale Datenbanksysteme ganz oben auf den Wunschzetteln der DV-Chefs stehen, ist nicht verwunderlich. Denn ohne ein zugleich solides und mächtiges Back end wird sich diese Informationsverarbeitung kaum realisieren lassen. Auf der anderen Seite sind leistungsstarke, anwenderfreundliche Software-Tools Basis des Erfolgs eines Data-Warehouse.

Vor allem Online Analytical Processing (Olap) konnte in diesem Bereich Fuß fassen, da diese Technologie das multidimensionale Management von Informationen ermöglicht. Vergleichbar mit dem "Rubic´s Cube" können Dimensionen beliebig verschoben oder neu angeordnet werden. So läßt sich der Würfel drehen (Dice) und von vielen Seiten betrachten oder in einzelne Schichten wie etwa zeitliche Perioden segmentieren (Slice).

Weit über die Funktionalität der herkömmlichen zweidimensionalen Kreuztabellendarstellung hinaus führt das sogenannte Drill-down. Dies erlaubt es, aggregierte Werte "aufzubohren", sie in einem feineren Detaillierungsgrad aufzuschlüsseln und abzubilden.

Olap ermöglicht es, transaktionsbasierte Rohdaten in Wissen über Unternehmensprozesse zu verwandeln. Das heißt, diese Technologie vermittelt ein Bild über das Zusammenspiel der Faktoren, die für das Abschneiden einer Firma ausschlaggebend sind. Diese übersichtlich präsentierten Informationen versetzen Entscheider in die Lage, Schwachstellen zu identifizieren, schneller auf Wettbewerbsveränderungen zu reagieren und qualifizierte Entscheidungen zu fällen.

Analysten und Manager gewinnen neue Einsichten, wenn sie Quer- oder Längsschnitte durch diese mehrdimensionalen Würfel legen oder diese drehen, um die Unternehmensinformationen in einer speziellen grafischen Form neu zu strukturieren. Olap-Systeme bieten unabhängig von der Größe oder Komplexität der Datenbank schnelle Antwortzeiten und können damit komplizierte relationale Datenbankabfragen ergänzen.

Aus einer rein funktionalen Sicht erlaubt Olap dem Benutzer die einfache Modifizierung seiner Sicht auf die Daten, um die Beziehungen zwischen den verschiedenen Aspekten der Firma zu erforschen. Für Manager im Handel bedeutet dies die Möglichkeit, sich alle Faktoren anzusehen, die von betriebswirtschaftlicher Bedeutung sind - und zwar in jeder Kombination und auf jeder Detailebene.

In Unternehmen wächst die Erkenntnis, daß große Mengen transaktionsbasierter Rohdaten in leicht zugängliche Business-Intelligence-Informationen umgewandelt werden müssen, wenn sie ihren Wettbewerbsvorsprung halten wollen. Sie können damit nämlich besser auf die Kunden eingehen, die Reaktionszeit auf das Marktgeschehen reduzieren, die Kosten kontrollieren sowie effizienter mit Zulieferbetrieben und anderen Geschäftspartnern zusammenarbeiten. Branchenkenner gehen davon aus, daß diese Technologie künftig, ähnlich wie heute Textverarbeitungs- und Tabellenkalkulationssoftware, auf dem Desktop jedes Managers zu finden sein wird.

Im Zahlenwust Trends und Zusammenhänge erkennen

Im Handel ist die Nachfrage nach diesen Werkzeugen bereits sehr groß, weiß Anatol Herold, Geschäftsführer des Beratungsunternehmens Herold Consulting. Vor allem Handelsfilialisten und Firmen mit einem großen Außenmitarbeiterstab schätzen die einfache Bedienbarkeit dieser Tools. "Im Handel zeichnet sich ein Trend nach schnellen Auswertungsmöglichkeiten ab", konstatiert Herold. "Die riesigen Datenmengen waren mit den bisherigen Mitteln nicht mehr zu handhaben."

Die Gartner Group definierte Data-Mining als den "Prozeß, der sinnvolle Zusammenhänge, Muster und Trends erkennt, indem große Datenmengen durchforstet werden. Dabei werden Technologien verwendet, die Muster wiedererkennen können, aber auch andere statistische und mathematische Techniken." Bisher war Data-Mining eine Mainframe-basierte und zeitraubende Software, die kostspielig und nur eigens ausgebildeten Analysten, Statistikern oder spezialisierten Beratern verständlich war.

Der Einsatz von Desktop-Data-Mining für Analysten, Marketing- und Vertriebsleiter sowie Entscheidungsträger in dezentralen Märkten ist die natürliche Folgetechnik von Reporting- und Olap-Analysen. Zudem eröffnet das Gebiet einen wachsenden Markt, allein wegen der transaktionellen Datenmengen, die in den Handelsdatenbanken verborgen sind.

Angeklickt

Bis dato besaßen ausschließlich DV-Spezialisten Zugang zu Kerninformationen ihres Unternehmens: welche Business-Trends das Geschäft demnächst beeinflussen, welcher Markt für neue Produkte oder Serviceleistungen am erfolgversprechendsten ist, was einige Abteilungen vom Rest der Firma unterscheidet oder welcher Kunde demnächst abspringen wird. Denn die Werkzeuge zur Analyse von Datenbanken verlangten SQL-Kenntnisse. Das ändert sich momentan. Die neuen Techniken heißen Data-Warehouse, Data-Mining, Olap und Business Intelligence, die das Informations-Management dezentralisieren.

*Alexandra Winterstein ist Marketing-Managerin bei der Cognos GmbH in München.