IT im Handel/Informationsgewinnung für Data-Warehousing

Neckermann prüft Kunden neuronal auf ihre Bonität

19.07.1996

Beim Versandhaus Neckermann gehen täglich etwa 50000 bis 130000 Bestellungen aus einem Potential von über acht Millionen Kunden ein. Für die schnelle dispositive Auswertung dieser Unmengen von Daten hat sich das Unternehmen für ein Data- Warehouse-Konzept entschieden. Damit lassen sich die unterschiedlichsten Daten plattformübergreifend integrieren und für entscheidungsrelevante Informationen aufbereiten. So nimmt das Versandhaus beispielsweise jeden Monat eine vollständige Analyse sämtlicher Kunden vor. Außerdem müssen täglich etwa 8000 Neukunden auf ihre Bonität bei Konsumkrediten hin überprüft werden.

Bisher werden diese Kundenanalysen produktiv unter 16 Scoring- Systemen auf Basis der Statistiksoftware "SAS/STAT" und bewährter Klassifikationsverfahren der multivariaten Statistik (logistische Regression und Diskriminanzanalyse) durchgeführt. Die Güte dieser automatischen Klassifikation liegt bei zirka 78 Prozent. Das Interesse der Unternehmensführung ist es natürlich, den Prozentsatz der korrekt klassifizierten Kunden ständig zu steigern. Aus diesem Grund beschloß das Versandhaus, in einem Pilotprojekt den Einsatz neuronaler Netze zur Kundenanalyse und Bonitätsprüfung zu testen.

Ziel des Pilotprojekts bei Neckermann war es herauszufinden, ob neuronale Netze bei der Bonitätsprüfung und Kundenanalyse gegenüber den klassischen statistischen Verfahren möglicherweise bessere Ergebnisse erzielen können und mit welchem Aufwand der Einsatz neuronaler Netze verbunden ist.

Um das mögliche Verhalten neuer Kunden berechnen zu können, analysiert das drittgrößte Versandhaus Deutschlands eine repräsentative Stichprobe "guter" und "schlechter" Kunden. Hierfür werden sowohl bei komplexen multivariaten statistischen Verfahren als auch bei neuronalen Netzen die "Input"-Variablen - zum Beispiel demografische Informationen, Informationen aus Buchungsvorgängen, Saldoinformationen etc. - in komplizierten Funktionen miteinander kombiniert. Bisher wurden für die Klassifikation und die Entwicklung von Application- beziehungsweise Behaviour-Scoring-Modellen als Verfahren der multivariaten mathematischen Statistik lineare und quadratische Diskriminanzanalyse, logistische Regression sowie nichtparametrische Diskriminanzanalyse mit verschiedenen Kernschätzern produktiv angewandt. Auf diese Weise konnten 78 Prozent der Kunden richtig klassifiziert werden.

Für die Durchführung des Projekts benötigte man Hardware mit hoher Rechenleistung. Deshalb wurden hauptsächlich Pentium-Rechner und Großrechner (IBM 3090 unter MVS-ESA) eingesetzt. Als Softwarelösung für die neuronalen Netze entschied man sich für die "SAS Neural Network Application", die nicht nur Backpropagation- und davon abgeleitete Verfahren verwendet, wie es bei Software für neuronale Netze oft der Fall ist, sondern mit numerischen Optimierungsalgorithmen arbeitet. Die Softwarelösung erlaubte auch den "einheitlichen Zugang" zu neuronalen Netzen, der mit Datenvisualisierung beginnt und die klassischen Verfahren des Data-Mining - Modellwahlverfahren der linearen und logistischen Regression, Diskriminanzanalyse, Cluster-Verfahren - einschließen sollte.

Die Neural Network Application ist ein Teil eines kompletten Toolsets für das Data-Mining. Die mit Hilfe der Software erzielten Resultate lassen sich für weitere Prozesse oder Analysen innerhalb des Data-Warehouse bei Neckermann weiterbearbeiten. Das Data- Warehouse ermöglicht es, Daten aus unzähligen operationalen und externen Quellen in ein einziges System zu integrieren, um alle unternehmenskritischen Funktionen, die Entscheidungshilfe, Data- Mining, multimediale Analyse etc. zu unterstützen. Auf diese Weise bildet die Neural Network Software also einen Teil des gesamten Data- Warehousing zur Bonitätsprüfung im Unternehmen.

Im Laufe des Projekts testete Neckermann zudem alternative neuronale Netze in verschiedenen Ausprägungen, um herauszufinden, ob sich bessere Klassifikationsergebnisse und Vereinfachungen in der Datenvorbereitung ergeben und ob die Nutzung der neuronalen Netze einfach und ohne mathematische Vorkenntnisse sinnvoll möglich ist.

Erste Ergebnisse des Projekts bei der Bewertung der Bonitätsprüfung ergaben, daß neuronale Netze die Analyse und Visualisierung von völlig neuen Zusammenhängen ermöglichen. Was die Datenvorbereitung betrifft, so ließen sich gegenüber den klassischen Verfahren keine Vereinfachungen feststellen, es mußten in jedem Fall eine Umwandlung in metrische Merkmale, eine Behandlung fehlender Werte, statistische Standardisierung etc. vorgenommen werden.

Auch eine optimale Netzwerktopologie konnte im ersten Teil des Projekts noch nicht bestimmt werden. Die Rechenzeit betrug bei neuronalen Netzen je nach Komplexität bis zu mehreren Stunden für einen Trainingslauf. Bei statistischen Verfahren lag die Rechenzeit hingegen im Minutenbereich. Beim Einsatz von neuronalen Netzen zur Bonitätsprüfung zeigten sich außerdem mathematische Vorkenntnisse als unbedingt erforderlich. Dennoch brachte der Einsatz des Mehrschichtnetzes eine stabile Steigerung an richtig klassifizierten Kunden um ein Prozent auf 79 bis 80 Prozent hervor.

An diesem Punkt stellt sich die Frage, ob die minimale Steigerung der Klassifikationsgüte von nur einem Prozent den Einsatz neuronaler Netze für die Bonitätsprüfung rechtfertigt. Aber auch diese scheinbar minimale Steigerung kann für die Neckermann Versand AG bereits einen erheblichen Gewinn bringen. Beim genannten Projekt entspricht die einprozentige Verbesserung immerhin 80 Kunden am Tag, die im Gegensatz zu vorher zusätzlich richtig klassifiziert werden.

Von diesen 80 Kunden wurden zuvor 76 eigentlich "gute" Kunden als schlecht klassifiziert, die eigentlich weggefallen wären und jetzt als Kunden erhalten bleiben. Die verbleibenden vier "schlechten" Kunden werden jetzt tatsächlich als "schlechte" Kunden klassifiziert. Früher wären diese Kredite dem Unternehmen verlorengegangen. Also bewirkt die jetzt richtige Klassifizierung nur dieser vier Kunden bei einem Bestellwert von 250 bis 2500 Mark - wenn man von 300 Bestelltagen im Jahr ausgeht - eine Verbesserung des Unternehmensprofits von mehreren hunderttausend bis mehreren Millionen Mark.

Außerdem muß berücksichtigt werden, daß die Aufwendungen für Tests und Entwicklung der neuronalen Netze letztendlich nur einmal zu leisten sind und sich aus der Anwendung neuronaler Netze Erfahrungen und wichtiges Know-how ziehen lassen. So ist es zum Beispiel ein weiterer Vorteil des Einsatzes dieser Technologie, daß die Neural-Network-Software den gleichzeitigen Zugriff auf Daten aus relationalen und hierarchischen Datenbanken sowie sequentiellen Dateien ermöglicht und unternehmensweiten Datenzugriff über die eingesetzte Data-Warehouse-Technologie der SAS-Software erlaubt. Neckermann setzt die Software oder bestimmte Module nicht nur für Kundenanalyse und Bonitätsprüfung ein, sondern auch zum Beispiel im Marketing zur Erstellung von Modellen zur Werbemittelselektion oder im Controlling, im Einkauf etc.

Aus diesen Gründen beschloß man in Frankfurt, den mit dem Projekt eingeschlagenen Weg weiterzugehen. Dafür wurden beträchtliche Investitionen in die Hard- und Software geleistet. Die Tests wurden fortan auf einer sehr leistungsfähigen Workstation durchgeführt, der Sun Ultrasparc 1 Creator 3D mit 64-Bit- Technologie mit Crossbar-Switch, getaktet mit 167 MHz und ausgestattet mit 64 MByte RAM. Als zweites Projektziel werden nun systematische Tests und statistische Testverfahren mit den Neural- Network-Makros und der Neural Network Application durchgeführt. In dieser zweiten Projektphase werden sämtliche Transfer- und Kombinationsfunktionen sowie alternative Schätzfunktionen getestet. Außerdem erprobt man verschiedene Cross-Validation- Verfahren.

Traditionelle Verfahren, wie sie bisher zum Beispiel für Kundenanalyse und Bonitätsprüfung verwendet werden, sind inzwischen oft überholt. Deshalb liegt es meist im Interesse der Unternehmensleitung, innovative und alternative Technologien zu erproben und die Ergebnisse denen der traditionellen Verfahren gegenüberzustellen. Das hier geschilderte Projekt bei der Neckermann Versand AG verdeutlichte, daß neuronale Netze (bisher) den üblichen statistischen Verfahren nicht in jeder Hinsicht überlegen sind. Sie bringen zudem hohe Investitionskosten mit sich, die allerdings nur einmal zu leisten sind. Es wird auch noch eine geraume Zeit dauern, bis künstliche neuronale Netze ähnlich komplexe Leistungen erbringen können wie natürliche. Man kann also keine Wunder erwarten, so wie manche Anbieter neuronaler Netzsoftware es die Entscheider gern glauben machen möchten. Dennoch kann der Einsatz neuronaler Netze bei speziellen Problemen, wie hier bei der Bonitätsprüfung der Kunden eines Versandhauses, durchaus auch jetzt schon lohnen .

Neuronen und Synapsen

Milliarden von Neuronen, die durch Synapsen miteinander verbunden sind, bilden das menschliche Gehirn. Die Neuronen mit den meisten synaptischen Verbindungen, die Golgi-Zellen, besitzen jeweils etwa 200000 Synapsen. Auch der schnellste Rechner der Welt kann die Komplexität solcher natürlicher Netze gegenüber künstlichen nicht ausgleichen. Trotzdem können künstliche neuronale Netze auf speziellen Gebieten große Vorteile gegenüber anderen Verfahren bieten.

Trainingsprozess

Neuronale Netze sind Modelle für spezielle Formen der Parallelverarbeitung, wobei die Systeme ihre künftigen Tätigkeiten in einem vorgeschalteten Prozeß trainieren. Während dieses Prozesses suchen neuronale Netze innerhalb komplexer Datensätze nach Mustern und lernen Zusammenhänge und Verbindungen innerhalb dieser Daten zu erkennen. Ziel ist es, das erlernte Wissen auf immer neue Datenquellen übertragen zu können, Hypothesen zu formulieren oder Ergebnisse vorherzusagen und damit die Entscheidungsfindung wesentlich zu erleichtern und zu unterstützen. Es gibt verschiedene Arten von neuronalen Netzen, die bezüglich ihrer Netzstruktur und ihrer Lernregeln unterschieden werden. Zu den bekanntesten Modellen zählen das lineare Modell, das Back-Propagation-Netzwerk oder das Hopfield- Modell. Bisher werden neuronale Netze vor allem im Maschinenbau, in der Medizin, bei Versicherungen, Banken, Versandhäusern, in der chemischen Forschung etc. eingesetzt.

Angeklickt

Herkömmliche multivariate statistische Verfahren haben bei Neckermann bisher dazu gedient, die "guten" von den "schlechten" Kunden zu trennen. Die Technologie der neuronalen Netze hat jetzt im Pilotversuch gezeigt, daß eine wenn auch gering höhere Treffergenauigkeit zu erzielen ist. Die Frankfurter belegen, daß es sich lohnt, auf neuronale Techniken umzusteigen. Weitere Schritte des Warehousing schließen sich an.

*Sabine Meinitz ist Mitarbeiterin der Page-Agentur, München Rolf- Jürgen Müller ist Abteilungsleiter Bonitätsprüfung der Neckermann Versand AG, Frankfurt.