Wil van der Aalst im Interview

Kurzer Prozess mit schlechten Prozessen

22.10.2021
Von 
Heinrich Vaske ist Editorial Director a.D. von COMPUTERWOCHE, CIO und CSO.
Professor Wil van der Aalst ist ein Pionier in Sachen Geschäftsprozess-Management und -Automatisierung. Im CW-Interview erklärt er die Process-Mining-Technologie und sagt, was heute möglich ist – und was nicht.
Process-Mining-Pionier Wil van der Aalst erklärt im CW-Interview, worauf es beim Process Mining ankommt und gibt Aufschluss über den Status Quo der Technologie im Unternehmensumfeld.
Process-Mining-Pionier Wil van der Aalst erklärt im CW-Interview, worauf es beim Process Mining ankommt und gibt Aufschluss über den Status Quo der Technologie im Unternehmensumfeld.
Foto: Celonis

Prof. Dr. Wil van der Aalst ist ein renommierter Informatiker und Forscher aus den Niederlanden, der sich seit vielen Jahren mit Themen wie Workflow- und Geschäftsprozess-Management, Process Mining und Petri-Netzen beschäftigt. Seit dem 1. Januar 2018 ist er Inhaber einer Alexander-von-Humboldt-Professur an der RWTH Aachen und Leiter der Process-Mining-Abteilung am Fraunhofer-Institut für Angewandte Informationstechnik FIT.

Van der Aalst ist außerdem seit ein paar Monaten Forschungschef beim Münchner Process-Mining-Spezialisten Celonis, dem derzeit erfolgreichsten deutschen Startup, dessen Bewertung sich langsam der Zehn-Milliarden-Euro-Grenze annähert. Die Celonis-Gründer Bastian Nominacher, Alexander Rinke und Martin Klenk betrachten sich als Schüler des Niederländers. Sie sind stolz darauf, dass van der Aalst seine Process-Mining-Ideen für Celonis in Produkte umsetzen möchte.

Im COMPUTERWOCHE-Interview sprechen wir mit Prof. Dr. Wil van der Aalst - unter anderem - über die Vorteile des Process Mining, welche Technologien dabei eine tragende Rolle spielen und wie unerfahrenen Anwendern der Einstieg in die Geschäftsprozessautomatisierung gelingt.

"Viele glauben, da sei nicht mehr viel herauszuholen"

Geschäftsprozesse modellieren, optimieren und automatisieren - das ist kein neues Thema. Täuscht der Eindruck, dass die Fortschritte, die Unternehmen hier erzielt haben, bislang eher überschaubar sind?

Wil van der Aalst: Nein, ich sehe das genauso. Ich habe in den 1990ern angefangen, schon damals habe ich Workflow-Systeme entwickelt und Firmen bei der Einführung beraten. Aber das hat nie so richtig funktioniert. Das Problem war immer, dass man irgendein theoretisches Bild malte, das dann aber viel zu weit von der Wirklichkeit entfernt war, um brauchbar zu sein. Deshalb habe ich mich Ende der 90er Jahre entschieden, einen anderen Ansatz zu verfolgen, das Process Mining.

Der große Unterschied zu den üblichen Ansätzen der Prozessmodellierung ist, dass man sich nachweislich an der unternehmerischen Realität orientiert. Ein BPMN-Modell sagt wenig, es ist meist weit von den realen Prozessen im Unternehmen entfernt. Oft ist die Wirklichkeit schon nach ein paar Monaten eine andere als das, was modelliert wurde. Mit Process Mining ändert sich das. Die Unternehmen sind hochinteressiert, weil die Modelle jetzt die Realität abbilden und Veränderungen nahezu in Echtzeit berücksichtigen. Man bildet ab, was die tatsächlichen Probleme sind, wo Engpässe entstehen und wo Abweichungen stattfinden. Damit kommen wir von abstrakten zu konkreten Modellen, die einen hohen Wert haben.

Process Mining basiert auf der Analyse von Event-Logs. Was sind das für Daten und wo kommen sie her?

Van der Aalst: Diese Daten gibt es überall. Nehmen Sie zum Beispiel SAP mit seinen Tabellen. Wenn man alles eingeschaltet hat, kommt man auf Hunderttausende Tabellen. Fast alle haben eine Spalte, in der ein Zeitstempel verfügbar ist - ein Datum oder etwas Ähnliches. Und das gilt für alle Anwendungen: Jedes Unternehmen hat Informationssysteme zu denen Tabellen mit Event-Daten vorhanden sind. In jedem System, das Geschäftsprozesse unterstützt, ob in der Produktion, der Logistik oder der Finanzwelt, steckt diese Eigenschaft.

Das gilt auch für Individualanwendungen. In Eindhoven habe ich früher viel mit Vanderlande zusammengearbeitet, einem Unternehmen, dessen Geschäftsmodell darin besteht, Materialflüsse zu optimieren. Es baut zum Beispiel Systeme für das Gepäck-Handling in Flughäfen. Wenn man am Flughafen einen Koffer eincheckt, dann nimmt der seinen Weg. Er wird gescannt und es gibt viele Sensoren, die sehen, wann der Koffer wo vorbeikommt. Man kann das Gepäck immer tracken und weiß genau, wo es ist. Zeitstempel sind also an den verschiedensten Stellen immer da.

Wie lässt sich nun feststellen, ob es prozessuale Abweichungen oder Störungen gibt?

Van der Aalst: Das kommt ganz darauf an, mit welcher Anwendung man zu tun hat. Manchmal sind die Probleme direkt spürbar. Kommt es bei der Kofferabfertigung ähnlich wie auf der Autobahn an bestimmten Stellen zu Stauungen, wissen die Mitarbeiter zunächst nicht warum. Das lässt sich mit Process Mining herausfinden. Wenn man sich Standardprozesse wie Purchase to Pay oder Order to Cash ansieht, dann lässt sich der Ablauf heute gut nachvollziehen. Oft entspricht er aber nicht der Idealvorstellung von dem, wie Unternehmen diesen Prozess gerne hätten. Das nennen wir Execution Gaps. Viele Firmen nutzen ERP-Systeme und haben die beiden genannten Standardprozesse Einkauf und Verkauf. Mit Process Mining können sie entdecken, was falsch läuft.

Viele Unternehmen glauben, das seien einfache Standardprozesse, da sei nicht mehr viel herauszuholen. Aber wer sich einmal mit Process Mining beschäftigt, versteht plötzlich, dass diese Abläufe hochkomplex sind und viel mehr Variabilität haben als gedacht. Mit der einfachen Discovery-Funktion lässt sich entdecken: Was passiert da genau? Dabei kommt oft etwas ganz anderes heraus als man erwartet hat. Eine Firma wie Celonis hat das schon Tausende Male gemacht für verschiedene Firmen. Und weil sie wissen, wo es häufig zu Problemen kommt, kennen sie diese Execution Gaps genau. Dann lassen sich mit Process Mining automatisch Dashboards generieren, über die Mitarbeiter diese bekannten Execution Gaps ständig im Auge behalten können.

Mit anderen Worten: Die Standardprozesse der Kunden werden auf ein einheitliches Best-Practice-Niveau gebracht?

Van der Aalst: Gewissermaßen ja. Eine Firma, die jetzt neu anfängt mit Process Mining, kann die Erkenntnisse nutzen, die aus der Prozessoptimierung in Hunderten anderer Firmen gewonnen wurden. Wenn fünf verschiedene Betriebe ein ähnliches Problem haben, dann wird das als Execution Gap kategorisiert. So lässt sich dieses Problem später sehr schnell auch bei anderen identifizieren. Das ist wie ein Röntgenbild von Prozessen: Weil wir das so oft gemacht haben, können wir bestimmte Krankheiten erkennen.

Das ist auch der Grund, warum Process Mining, das es ja schon lange gibt, nun für Firmen interessanter wird. Am Anfang war es zu abstrakt, jetzt sind aber die Execution Gaps für viele Prozesse bekannt und definiert. Die Lösungsansätze liegen vor.

"ERP-Systeme unterstützen im Prinzip keine Prozesse"

Prozesse wie Einkauf und Verkauf werden schon seit Jahrzehnten von ERP-Software abgebildet. Firmen wie SAP, Microsoft oder Oracle nehmen auch für sich in Anspruch, dass sie diese Prozesse optimal unterstützen und die korrekte Ausführung sicherstellen.

Van der Aalst: Diese ERP-Anwendungen sind aber letztendlich nicht prozessorientiert. Man hatte früher die Referenzmodelle von IDS Scheer und Co. die ein Idealbild davon gezeigt haben, wie die Prozesse ablaufen sollten. Dabei wurden aber die vielen individuellen Probleme und Details nicht berücksichtigt. ERP-Systeme unterstützen im Prinzip keine Prozesse, sondern arbeiten eher wie eine riesige Datenbank, auf der Kunden verschiedene Transaktionen ablaufen lassen können.

Um einen Geschäftsprozess ideal abzubilden, funktioniert das aber nicht, genauso wenig wie der alte Workflow-Gedanke funktioniert. Wenn ich zum Beispiel als Firma einen Lieferanten habe, der ständig seine Preise ändert, dann wird das ERP-System dies nicht blockieren, da es keine Kontrolle über das Verhalten des Lieferanten hat. Aber mit Process Mining kann ich erkennen: dieser Lieferant schafft mir mit seiner Preispolitik unglaublich viel zusätzliche Arbeit. ERP-Systeme können und sollten Kunden, Lieferanten, Subunternehmer und Mitarbeiter nicht vollständig steuern.

Es gibt diese Pareto-Verteilung, die besagt, dass 80 Prozent aller Fälle mit 20 Prozent aller Varianten beschrieben werden können. Es ist also relativ einfach, 80 Prozent aller Purchase-to-Pay-Bestellungen zu beschreiben. Aber dann gibt es die 20 Prozent, die anders sind. Die generieren alle Probleme und alle Arbeit. Für den Prozess ist es besonders wichtig, diese Fälle zu erkennen und darauf einzugehen. Process Mining macht genau das.

Sie haben über die Standardprozesse für Einkauf und Verkauf gesprochen. Konzentriert sich Celonis darauf? Wie Sie sagen, sind die Execution Gaps hier ja schon gut bekannt.

Van der Aalst: Zurzeit sind es tatsächlich meistens diese Prozesse, aber die Technologie ist komplett generisch und lässt sich überall einsetzen. Wir benutzen sie zum Beispiel auch, um Produktionsprozesse zu analysieren. Und die sind eigentlich immer individuell. Hier in Aachen gibt es den kleinen, experimentellen Autobauer e.Go, da haben wir von Anfang an Process Mining benutzt, um zu beobachten, wie die Produktion läuft. Da gibt es keine Referenz, man guckt einfach, ob es Unstimmigkeiten gibt.

Dazu muss man wissen: Wenn wir mit einem Process-Mining-Projekt anfangen, brauchen wir 80 Prozent der Zeit, um die Daten zu extrahieren. Für Purchase to Pay auf der Grundlage der ERP-Systeme von SAP, Oracle oder Microsoft ist das relativ einfach, weil es schon 1000 Mal gemacht wurde. Man weiß, worauf man achten muss. Bei neuartigen Anwendungen braucht man aber mehr Zeit. Deshalb ist es logisch, dass Unternehmen mit solchen Prozessen anfangen, die bei anderen schon oft analysiert wurden. Allerdings sind das für die Unternehmen meistens nicht die Kernprozesse. Bei einem Automobilhersteller sind Verkauf und Einkauf wichtig, aber das eigentliche Thema ist die Produktion. Dort die Prozesse zu monitoren ist aufwendiger, aber die Technologie funktioniert dort genauso gut wie in den anderen Bereichen.

Mit Process Mining lassen sich Ihren Ausführungen zufolge durchgängige Prozesse auch über heterogene Anwendungslandschaften optimieren. Heißt das, Best of Breed wird einfacher?

Van der Aalst: Theoretisch ja, allerdings geht es ja erst einmal nicht um das Automatisieren, sondern um das Analysieren von Abläufen. Wenn der Prozess über mehrere Systeme hinweg läuft, kann man die Daten extrahieren und bekommt ein Gesamtbild. Es wird sichtbar, wo es hakt. Erst danach kann man gezielt nachsehen, wo sind Sachen automatisierbar und wo macht es Sinn.

Wie tasten sich unerfahrene Anwender am besten an das Thema Process Mining heran?

Van der Aalst: Am Anfang wird wohl ein erfahrener Hersteller oder Berater in das Unternehmen hineingehen und sich ansehen, welche Prozesse analysiert werden sollen und wie man an die Event-Daten herankommen kann. Das geht ganz flott, vor allem wenn die Process-Mining-Lösung in der Cloud bereitsteht. Sie wird dann über Standardkonnektoren an die verschiedenen Systeme von SAP, Microsoft, Oracle und so weiter angedockt. Das funktioniert so, dass diese Schnittstelle einmal definiert wird und dann darüber ständig aktuelle Daten eingesammelt werden. Man kann das via Streaming gleich in Celonis sichtbar machen oder man lässt nachts einen Batch-Prozess laufen und fährt ein tägliches Update.

Ein Online-Händler etwa, bei dem Kunden bestellen, Waren zurückschicken, reklamieren etc., generiert ganz viele Ereignisse, die im Celonis-System ausgewertet werden. Das lässt sich bei Standardanwendungen in ein paar Wochen umsetzen.

Wer im Unternehmen beobachtet dann die Prozesse in einem Dashboard?

Van der Aalst: In der Regel gibt es rollenbasiert zugeschnittene Dashboards auf verschiedenen Ebenen. Zum Teil sind sie sehr detailliert, da lässt sich wirklich die rohe Prozessfolge beobachten, das ist mehr für Datenwissenschaftler gedacht. Aber es gibt auch Dashboards für Manager, die nur ganz bestimmte Zahlen sehen oder bestimmte Zeitabschnitte nachvollziehen wollen.

Auf der oberen Ebene sieht man: Es gibt bestimmte Execution Gaps. Auf den unteren Ebenen wird das Problem genau beschrieben und man kann zum Beispiel automatische Aktionen festlegen für den Fall, dass etwas schiefläuft. Tritt ein unbekanntes Problem auf, das man nicht versteht, muss man tiefer gehen und es braucht einen Data-Science-Hintergrund um es gut zu interpretieren.

"Vorhersagen sind erst sinnvoll, wenn Prozesse stabil laufen"

Welche Rolle spielt maschinelles Lernen (ML) bei der Problemerkennung und -lösung?

Van der Aalst: Process-Mining-Systeme unterstützen generell maschinelles Lernen, aber in der Praxis bedeutet das noch gar nichts. Im Prinzip ließen sich künstliche Intelligenz und ML anwenden, um Sachen herauszufinden. Aber in Wirklichkeit wird da gerade viel geredet und die Firmen sind noch nicht so weit. Process Mining ist eher ein praxisorientiertes Tool, die meisten Probleme sieht man sofort, wenn man sich mit den Daten beschäftigt.

Wann werden prozessuale Probleme nicht nur analysiert, sondern auch automatisch behoben werden können?

Van der Aalst: Heute ist es so, dass Process Mining die oft schon bekannten Execution Gaps findet. Nun muss sich die Firma überlegen, was sie tun will. Manchmal reicht es aus, jemanden via E-Mail zu informieren, manchmal kommen auch schon Lösungen zum Einsatz, wo ein Prozess automatisiert, anders konfiguriert oder geroutet wird, wenn ein Engpass auftritt. Oder es fällt bei einer Überlastung automatisch die Entscheidung, Aufträge für den Moment nicht mehr anzunehmen.

Das alles ist keine Rocket Science, diese Probleme lassen sich konventionell beheben. Ein neuronales Netz brauche ich dafür nicht. Was anderes ist es, wenn ich Simulationen vorantreiben und mehr über die Zukunft aussagen möchte. Heute beschäftigt sich das Execution Management mit Problemen der Gegenwart. In Zukunft erwarte ich, dass wir besser vorhersehen werden, was sich anbahnt, und dann schon vorher eingreifen können. Realistischerweise ist das für die meisten Firmen aber noch keine Option. Die haben meistens noch generelle Probleme mit dem Datenmanagement. Dann hat es keinen Sinn, über solche Zukunftsthemen zu reden.

Die Technologie für Vorhersagen wäre da, aber wenn die Prozesse überhaupt nicht unter Kontrolle sind, dann geht es erstmal darum, die Hausaufgaben zu machen. Vorhersagen sind erst dann sinnvoll, wenn Prozesse sehr stabil laufen und ausreichend Daten verfügbar sind.

Wir haben eben über die Automobilbranche gesprochen, wo Zulieferer auf verschiedenen Ebenen in die Prozesse eingebunden ist. Wäre das nicht die perfekte Spielwiese für ein firmenübergreifendes Process Mining?

Van der Aalst: Theoretisch ja, aber das passiert kaum. Ich glaube, dass es dort spannende Möglichkeiten gäbe, aber heute haben Firmen noch zu viel Angst, Daten zu teilen. Wir arbeiten in der Forschung gerade an Technologien, mit denen sich Prozesse übergreifend darstellen lassen, ohne dass Daten geteilt werden müssen.

Sie haben vorhin beschrieben, dass Unternehmen, die ihre Standardprozesse optimieren, eigentlich voneinander lernen, indem sie sich an den gleichen Best Practices orientieren. Wäre es da nicht vernünftig Branchen-Cluster zu bilden, so dass Unternehmen ihre Standardprozesse auf ein einheitliches Benchmark-Niveau heben können?

Van der Aalst: Momentan passiert das noch nicht. Aber es gibt die Entwicklung, dass fast alle Kunden Cloud-Lösungen nutzen. Das würde ein solches Vorgehen erleichtern. In der Forschung haben wir so etwas in den Niederlanden gemacht, und zwar mit zehn Städten. Jede Stadt muss ja irgendwie das gleiche machen: Kfz-Anmeldungen, Geburtsurkunden und Ausweise ausstellen.

Wir haben Process Mining in all diesen Städten eingesetzt und ihnen so gezeigt: Eure Stadt macht manche Dinge ganz anders als die anderen. So sind die ins Gespräch gekommen und haben voneinander gelernt. Das war superinteressant, aber eben auch ein spezielles Beispiel, weil Städte nicht in Konkurrenz zueinanderstehen. Wenn das Autobauer wären, wäre das sicher schwieriger.