Predictive Analytics & Co.

Controlling mit dem Blick nach vorn

14.09.2012
Von Ralph Treitz und Prof. Dr. Andreas Seufert

Re-Integration der Prozesswelten

Die aktuelle Praxis des Controlling kann dieses Versprechen aber in vielen Unternehmen noch nicht einlösen. Auslöser dieser widersprüchlichen Entwicklung ist ein schleichendes Auseinanderdriften der Informationswelten von Fachabteilungen und Controlling. Unter dem Einfluss des Business-Reengineering hat sich in vielen Unternehmen ein Denken in Prozessketten durchgesetzt, und diese Ketten unterliegen einer immer weiter gehenden Automatisierung mit Hilfe der IT.

Um dem entgegenzuwirken, wäre eine Steuerungsfunktion auf der Ebene der operativen Prozesse notwendig. Ihre Aufgabe ist es, die korrekte Ausführung, die Wirtschaftlichkeit und den Qualitätsgrad der Prozesse zu prüfen. Das Controlling ist damit aufgefordert, nicht nur finale Ergebnisse von Prozessketten, sondern direkt die Abläufe und Verzahnung der Prozesse auf ihre Qualität hin zu analysieren.

Das ist allerdings leichter gesagt als getan. In der Praxis steuern Finanzspezialisten die Geldströme, Logistiker die Materialflüsse, Fertiger die Produktionsläufe etc. Diese hohe Spezialisierung führt bisweilen zu einer Fragmentierung der erforderlichen Informationen über Prozesse. Hinzu kommt, dass die verfügbaren Informationen technisch häufig in den BI-Silos der Data Warehouses einzementiert werden.

Prof. Dr. Andreas Seufert ist Jurymitglied beim Big-Data-Award, der am 26. und 27. Septebmer in Offenbach verliehen wird.
Prof. Dr. Andreas Seufert ist Jurymitglied beim Big-Data-Award, der am 26. und 27. Septebmer in Offenbach verliehen wird.
Foto: Andreas Seufert

Nicht ganz unschuldig daran ist die Art und Weise, wie der Data Warehouse-Ansatz umgesetzt wird. Häufig wird dabei mit verdichteten Daten gearbeitet, deren Perspektive bereits auf Ergebnisse hin ausgerichtet ist, zum Beispiel Deckungsbeitrag je Kunde, je Region oder je Produkt. Erscheint eine Kennzahl auffällig, arbeitet sich der Anwender über die Drill-Down-Funktionen der traditionellen BI-Werkzeuge durch die hierarchischen Daten auf die Detailebene vor.

Dieser Aufbau birgt zwei große Schwächen: Erstens bedeutet die Aggregation der Prozessrohdaten stets auch einen Informationsverlust, zweitens legt man sich bereits im Vorfeld auf Größen fest, die vermeintlich interessant sind. Die Aufmerksamkeit zur Untersuchung weiterer, vielleicht unbekannter Zusammenhänge ist damit weitgehend ausgeblendet.

Neue Potentiale für das Controlling

Fairerweise muss angemerkt werden, dass sich für dieses Defizit letztlich keiner verantwortlich machen lässt – am wenigsten der Controller. Es ist einfach den Möglichkeiten heutiger BI-Tools geschuldet, die mit den anfallenden Datenmengen schlechterdings überfordert sind. Auf Seiten der Technik sind in den vergangenen Monaten jedoch erhebliche Fortschritte zu beobachten. Konzepte wie In-Memory- und spaltenorientierte Datenbanken versprechen, ohne Probleme mit großen Datenvolumina und mit großer Geschwindigkeit zu arbeiten.

Zur Umsetzung bedarf es aber nicht allein neuer Werkzeuge. Auch die Controller selbst sind gefordert. Insbesondere das methodische Wissen muss weiterentwickelt werde. Zum Beispiel wie sich Korrelationen, kausale Abhängigkeiten und daraus abgeleitet valide Prognosen ableiten und in die Entscheidungsprozesse eines Unternehmens einbringen lassen.

Die Herausforderung lautet, sich nicht mit den Möglichkeiten traditioneller BI-Systeme zu begnügen, sondern die nächste Hürde in Angriff zu nehmen: die Auswertung der "Big Data" mit Hilfe neuer, Vorhersagen generierender Analyse-Tools. Anstelle von Vergangenheitswerten lassen sich so reale Lösungsansätze aufzuzeigen. (qua)