Lassen sich Geschäftsprozesse messen?

Bernd Seidel ist freier Journalist und Coach in München.
Das Network-Performance-Management steckt noch in den Kinderschuhen.

Verbessern lässt sich nur, was auch messbar ist. Auf diesen einfachen Nenner lässt sich die Ausgangsthese des Workshops "Network Performance Management" (NPM) bringen, der heuer zum ersten Mal im Rahmen des "Value Chain Forums" stattfand. Die Arbeitstagung des Instituts für Wirtschaftsinformatik an der Universität St. Gallen (IWI-HSG) - wie schon im vergangenen Jahr unter Mitwirkung der Unternehmensberatung The Information Management Group (IMG) und der SAP AG - war bereits die dritte ihrer Art. Mehr als 100 IT-Experten aus Anwenderunternehmen fanden den Weg in die Kartause Ittingen zwischen St. Gallen und Zürich.

Im NPM-Workshop setzte sich ein gutes Dutzend IT- und Business-Verantwortliche zusammen. Sie wollten über die Möglichkeit sprechen, die Leistungsfähigkeit von Geschäftsprozessen zu messen und Verbesserungen umzusetzen. Heiß diskutiert wurde die Frage, wie die IT dem Management helfen kann, den Zustand des Unternehmens zu analysieren sowie Erkenntnisse und Handlungsanweisungen für die Zukunft zu liefern.

So viel vorweg: Von einer Architektur, die - ausgehend von der Geschäftsstrategie über die implementierten Prozesse bis zu den IT-Systemen - durchgängig messbare Ergebnisse liefert, waren alle beteiligten Unternehmen noch weit entfernt. Eine solche Strategie ist aber notwendig, wenn sich die NPM-Idee zur vollen Blüte entfalten soll, so die Forscher der HSG.

Das Grundverständnis

"NPM erweitert die bisherigen Ansätze des Business-Performance-Managements (BPM), indem es die Außenwelt des Unternehmens, also seine Partner, Kunden und Lieferanten, einbezieht", so führte Workshop-Leiterin Barbara Dinter in das Thema ein. Darüber hinaus sei NPM die Weiterentwicklung von klassischer Business Intelli- gence (BI), weil es operative Daten zwar nicht in Echtzeit, aber doch sehr zeitnah für die Analyse und Bewertung berücksichtige. Dinter leitet das Competence Center für Enterprise Information Warehousing am IWI-HSG. Eine Aufgabe der IT sieht sie darin, Unterstützungsprozesse und Systeme für das NPM bereitzustellen.

Ein ganzheitliches Network-Performance-Management berührt fachliche, organisatorische und technische Aspekte zugleich. Die Geschäftsstrategie sowie das Geschäftsmodell mit den Key-Performance-Indikatoren (KPIs) bilden das Fundament für den Bau der Geschäftsprozesse sowie der Applikations- und Datenbankebene. Das hat seinen Grund: Sollte sich das Geschäftsmodell ändern, so müssen die darunter liegenden Ausführungsebenen die Veränderungen so rasch wie möglich ("neartime") nachvollziehen können. Wenn zwischen dem Strategieprozess und der operativen Umsetzung eine Lücke klafft, lassen sich keine gültigen Daten für die Prozessanalyse gewinnen. So weit zumindest die Theorie.

In global agierenden Unternehmen und Supply-Netzen reicht es nicht aus, die Leistungsfähigkeit des eigenen Unternehmens zu analysieren. Darin waren sich die Workshop-Teilnehmer einig. Stefan Schacht, Supply-Chain-Fachmann bei Degussa, brachte die Sache auf den Punkt: "Heute konkurrieren Netzwerke miteinander, nicht mehr nur einzelne Unternehmen." An der Unterstützung der Unternehmensleitung bestehe deshalb kein Zweifel: "Wenn ich meinem Chef diese Ideen von NPM präsentiere, will er es sofort haben."

Hoffen auf die SAP

Das Problem stecke in dem Wörtchen "sofort", lenkte Schacht sogleich ein: Der Aufbau einer durchgängigen Architektur sei sehr aufwändig. Die installierten IT-Systeme - bei Degussa zum größten Teil SAP-Software - hätten die geforderte Anpassungsfähigkeit derzeit nicht zu bieten. Darüber hinaus lägen die Schwachstellen in den Übergabepunkte nzwischen Strategie, Prozess und IT-Systemen: "Hier entstehen Reibungsverluste etwa durch lange Wartezeiten, zusätzliche manuelle Eingaben und Dateninkonsistenzen."

Um dieses Manko zu beseitigen, hofft der Degussa-Manager auf die SAP, die mit dem Konzept der Enterprise Services Architecture (ESA) flexibel anpassbare Applikationen verspricht. Damit sollen sich Änderungen auf der Ebene der Unternehmensstrategie sehr schnell in softwaregestützte Fachprozesse und Applikationen umsetzen lassen. Können die Walldorfer mit ESA nicht den angekündigten Nutzen schaffen, hält Schacht einen Plan B bereit: In diesem Fall soll eine Enterprise-Application-Integration-(EAI)-Lösung für eine durchgängige und flexibel anpassbare Architektur mit Verzahnung über alle Ebenen sorgen.

Umsetzung zu aufwändig

Aus Sicht von Jürgen Wendt, zuständig für Operations & Services bei der DZ Bank in Frankfurt am Main, ist der NPM-Ansatz zu akademisch und die Umsetzung zu aufwändig. "Ich baue doch nicht eine solch komplexe Architektur, um dann deren Leistungsfähigkeit zu messen", konstatierte er. "Wenn wir den Einsatz dieses Konzepts für unser Unternehmen analysieren, sind wir bereits paralysiert." Er favorisiere kleinere Schritte. Es sei besser, eine durchgängige Struktur aufzubauen, die auf einzelne KPIs zugeschnitten sei und umso schneller auf Veränderungen reagieren könne.

Ähnlich äußerte sich René Louis, der für Business-Continuity-Management bei der Credit Suisse verantwortlich zeichnet: "Es wäre sehr schön, diese Durchgängigkeit zu haben, doch allein die Dokumentation des Ist-Zustands würde uns erschlagen." Auch Louis zieht ein pragmatisches Vorgehen vor. Einzelne Sparten oder Service-Level-Agreements, beispielsweise hinsichtlich der Antwortzeiten, sollten für Teilbereiche wie etwa Online-Banking festgelegt und überprüft werden: "Treten in diesen Sparten Abweichungen auf, können wir von der Strategieebene über die Prozesse bis hinunter zur IT schnell Veränderungen vornehmen."

Novartis-Manager Stanislaw Bukowiecki geht sogar noch einen Schritt weiter. Er stellte die Notwendigkeit in Frage, rasch und agil auf Veränderungen reagieren zu können. "Veränderungsfähigkeit ist nötig, ob allerdings in dem Tempo, wie es uns die Softwareindustrie derzeit weismachen will, ist fraglich." Es sei sicher schön, Störungen rasch zu erfassen und zu messen, räumte der Verantwortliche für Organisationsentwicklung und Change-Management ein, "doch wir als Pharma- und Chemiehersteller können oft gar nicht so schnell darauf reagieren." Angesichts von Produktionszyklen, die mehrere Monate dauern, seien eine Echtzeitanalyse sowie eine entsprechende Anpassung von Geschäftsprozessen und Informationstechnik überhaupt nicht nötig.

Bukowiecki plädierte daher für eine "Transparenz in Teilbereichen". Es müsse erst einmal untersucht werden, welche KPIs überhaupt Neartime-Entscheidungen benötigten. Novartis habe ein selbst entwickeltes System namens "E-SCM" im Einsatz, das via Portal unternehmensweit Business-Intelligence-Funktionen mit Informationen über das Geschäftsnetzwerk bereitstellt. "Diese Informationen sind zum Teil tagesaktuell - und das reicht völlig aus", so der Novartis-Manager.

Das Kreuz mit den KPIs

Wenn es darum geht, die Leistungsfähigkeit von Unternehmen und ihrer Wertschöpfungsnetze zu messen, gibt es eine grundlegende Schwierigkeit: die Definition der KPIs. "Messen kann man viel", sagte DZ-Manager Wendt, "die Kunst besteht darin, die richtigen Messpunkte zu finden." Bukowiecki konfrontierte die Runde mit der Frage: "Welche Informationen werden überhaupt gebraucht, um strategische Aussagen treffen zu können? Oder andersherum: Was macht man mit den gemessenen Daten?" Er warnte davor, Unternehmen nur anhand von KPIs zu steuern: "Oft herrscht keine Einigkeit über die Güte der Indikatoren und über den Level im Unternehmen, auf dem sie ansetzen."

Problematisch sind aus der Perspektive des Novartis-Managers bereits die zum Teil sehr unterschiedlichen Definitionen von Produktdaten innerhalb des Unternehmens. Hier bestehe die große Gefahr, Äpfel mit Birnen zu vergleichen. Ein Master-Data-Management könne helfen, doch auch das sei auch nur in Teilbereichen konsistent zu halten. Bukowiecki verweist hier auf die Erfahrungen, die viele Unternehmen in den 90er Jahren machten, als sie versuchten, ein unternehmensweites Datenmodell (UDM) zu schaffen: "Das hat damals leider nicht funktioniert." Ein Streitpunkt in den Chefetagen sei zudem die Festlegung, in welcher Frequenz die KPIs ermittelt werden sollen: "Es macht einen sehr großen Unterschied, ob man Messwerte täglich, wöchentlich oder einmal im Monat braucht, darüber muss man sich einigen."

Dass die KPIs, die eigentlich als Frühwarnsystem und Instrument zur Selbstkontrolle gedacht seien, leicht missbraucht werden könnten - auch darin sahen die Workshop-Teilnehmer eine Gefahr. "Wenn über das Kennzahlensystem keine Einigkeit besteht und das Topmanagement den Zweck solcher Messgrößen nicht sorgsam erklärt, geht bei den Verantwortlichen die Angst vor dem Versagen um", führte DZ-Banker Wendt ins Feld. Deshalb dürfe die menschliche Dimension nicht vernachlässigt werden.

Das Fazit

"Die Komplexität und Fallstricke bei der Implementierung von NPM bilden einen Dschungel", lautete das Fazit der Workshop-Teilnehmer. Am besten sei es, sich dem Thema in kleinen Schritten zu nähern. Dazu Urban Laupper, Manager bei ABB: "Am besten fängt man innerhalb des eigenen Betriebs an, greift sich Unternehmensteile heraus und überträgt die Erfahrungen dann auf das Supply-Netzwerk." (qua)