Analysieren und sofort umsetzen

Intelligent Business Operations

11.10.2013 von Jürgen Krämer
Intelligent Business Operations heißt das neue Zauberwort. Die Methode kombiniert Analytics mit Workflow-Komponenten, um Analyseverfahren direkt in den Prozessen zu verankern und Ergebnisse sofort in Aktionen umzusetzen.
Foto: Tonis Pan, Shutterstock.com

Daten sind das Erdöl des 21. Jahrhunderts, lautet das Credo der Analys-ten, und das virtuelle Datenöl sprudelt ungebremst. So üppig, dass es Unternehmen immer schwerer fällt, angestammte Analysewerkzeuge wie Data Mining sowie traditionelle Business-Intelligence- (BI) oder Offline-Analyse-Methoden effizient einzusetzen. Dabei rückt das Potenzial ungenutzter Informationen zunehmend in den Fokus der Geschäftswelt. Entscheider müssen eine Antwort finden auf die wichtige Frage: Wie entstehen intelligente Geschäftsoperationen aus dem Wust der Datenströme?

Gartner zufolge ist Intelligent Business Operations (IBO) ein Arbeitsstil, der durch operationale Intelligenz in Echtzeit geprägt ist und schnelle Business-Analysen mit den traditionellen Aktivitäten des täglichen Geschäft im Unternehmen verbindet. Klassische Business-Analytics-Tools liefern Analysen zeitverzögert, während IBO aktuelle Daten aus dem laufenden Betrieb abgreift und zeitnah bereitstellt. Nachgelagerte Auswertungen sind damit zwar nicht überflüssig, werden aber ergänzt durch kontinuierliche Geschäftsanalysen in Echtzeit, die intelligente Entscheidungen zeitnah ermöglichen.

IBO-Lösungen sollen Unternehmen also Möglichkeiten bieten, Daten zu analysieren und so Live-Einblicke in das laufende Geschäft zu gewinnen, um

Grundsätzlich gilt, bei den zur Verfügung stehenden Analyseplattformen die richtige Balance zwischen Skalierbarkeit und Flexibilität zu finden.

Die Entscheidung für eine eher skalierbare oder eher flexible und erweiterbare Lösung sollte auf Basis von drei Faktoren getroffen werden:

  1. in Abhängigkeit davon, was analysiert werden soll,

  2. unter Berücksichtigung der wirtschaftlichen Umgebung, in der das Unternehmen tätig ist, und

  3. nach dem Automatisierungsgrad der Prozesse.

Flexibles IBO

Agiert ein Unternehmen in einer dynamischen Umwelt und besitzt einen hohen Automatisierungsgrad, sollten die IT-Fachverantwortlichen eher auf Flexibilität als auf Skalierbarkeit setzen. Ideal für solche Unternehmen ist eine Plattform, die visualisierte Echtzeit-Einblicke in die Geschäftsprozesse erlaubt. Dabei liegt der Schlüssel zum Erfolg in der Verbindung der Analysen mit den operativen Abläufen.

Gelingt dies, werden Unternehmen in die Lage versetzt, die Informationen aus den analysierten Geschäfts- und Prozessdaten zum richtigen Zeitpunkt mit den richtigen Maßnahmen zu verknüpfen. Dadurch erhalten sie Einblicke in das operative Geschäft und die zugehörigen Prozesse entlang der gesamten Wertschöpfungskette.

Kontinuierliche Analysen

Denn flexible IBO-Lösungen sind in der Lage, durch kontinuierliche Analysen anhand von stets aktuellen Kennzahlen ein verbessertes Situationsbewusstsein herzustellen und diese Einblicke je nach Kontext und Situation zur Entscheidungsfindung heranzuziehen, um daraus dynamisch die bestmögliche Aktion einzuleiten. Dies gilt gleichermaßen auch für automatisierte Geschäftsprozesse.

Business-Anwendern soll dabei sogar die Möglichkeit gegeben werden, Entscheidungen zu treffen und so Änderungen im Geschäftsablauf dynamisch vorzunehmen, ohne dass hierbei ein direkte Mitwirkung der IT erforderlich ist. Historische Datenanalysen ergänzen die IBO-Vorgehensweise und liefern zusätzliche Informationen, zum Beispiel für die Ursachenanalyse und taktische Prozessoptimierungen.

Warenausgang prüfen

Ein Manager in einem Handelsunternehmen möchte herausfinden, ob Waren rechtzeitig ausgeliefert wurden. Bisher mussten dazu unterschiedliche Systeme manuell geprüft werden, die den Warenausgang dokumentieren. Pünktliche Warenauslieferung ist ein Leis-tungsmerkmal - ein Key Performance Indicator -, das IBO-Systeme erfassen. Sie liefern nicht nur den Mechanismus, um KPIs nachgelagert zu messen, sondern erfassen diese auch in Echtzeit, so dass Ursachen für fehlerhafte Auslieferungen frühzeitig erkannt werden können. Operationale Intelligenz liefert also die Grundlage, Fehler flexibel und je nach Situation angepasst zu beheben, noch bevor deren Folgen eintreten und für den Kunden sichtbar werden.

IBO verknüpft unterschiedliche Datenquellen in einer heterogenen IT-Landschaft, liefert Live-Einblicke und erlaubt, diese mit Maßnahmen zu verknüpfen, wie etwa dem Anstoßen eines Prozesses, dem Aufrufen eines Dienstes oder dem Versenden einer Nachricht. Dabei werden verschiedene Techniken miteinander verknüpft:

Das übergeordnete Paradigma dieser drei Elemente lässt sich unter dem Begriff "Next Best Action" zusammenfassen: Auf Basis der dynamischen Analyse aktueller Prozesse werden Entscheidungen getroffen und Aktionen angestoßen, um den Geschäftserfolg zu verbessern.

Die drei Ebenen von IBO

Um die "Next Best Action" zu identifizieren, verknüpfen IBO-Plattformen mehrere Analyseebenen miteinander:

IBO fasst in diesem Sinne verschiedene Technologien zusammen, die zwar seit Längerem zur Verfügung stehen, in dieser Kombination bisher aber so nicht genutzt wurden. Unternehmen profitieren davon, dass sie eine ganzheitliche Lösung aus einer Hand erhalten und mit einer einheitlichen Visualisierungsebene und einer Schnittstelle arbeiten können, die auf beliebigen Endgeräten, auch mobil, darstellbar ist.

Flexibilität ist in diesem Umfeld für die beschriebenen Unternehmen besonders wichtig, weil sie in hohem Maß darauf angewiesen sind, ihre Analytics-Plattform auf sich verändernde IT-Anforderungen, wie neue Cloud-Dienste, Marktveränderungen und Wettbewerbssituationen, anpassen zu können. Die Anforderungen hinsichtlich der Datenvolumina und Geschwindigkeit der Datenanalyse nehmen eine eher untergeordnete Rolle ein und sind mit den heutigen Technologien gut umsetzbar.

Skalierbares IBO

Unternehmen, die in Echtzeit enorme Datenvolumina analysieren und auf dieser Basis extrem schnelle Entscheidungen vollautomatisch, das heißt ohne menschliche Interaktion, treffen müssen, sollten bei der Auswahl einer IBO-Plattform dagegen skalierbare Big-Fast-Data-Lösungen priorisieren. Beispiele hierfür sind im Umfeld der Betrugserkennung, des elektronischen Handels oder der Sensordatenanalyse zu finden.

Hierbei geht es zwar ebenfalls um die "next best action", allerdings sind die Rahmenbedingungen andere. Die Datenvolumina und die Geschwindigkeit, in der die Daten eintreffen, sind erheblich höher. Des Weiteren wird in diesen Anwendungen versucht, die Zeitspanne, die zwischen der Datenanalyse und der eingeleiteten Maßnahme vergeht, zu minimieren. Diese liegt oftmals im Subsekundenbereich. Von daher ist ein menschliches Eingreifen zumeist weder möglich noch vorgesehen - außer für den Notfall.

Turbo für Analysen

In-Memory-Technologien befeuern die Entwicklung und Umsetzung solcher Analyseplattformen zusätzlich. Sowohl die Datenverwaltung als auch die Datenanalyse erfolgen primär im Hauptspeicher. Verteilte Cache-Infrastrukturen erlauben es, riesige Datenmengen skalierbar im Hauptspeicher vorzuhalten. Produktive Installationen erstrecken sich schon heute bis in den dreistelligen Terabyte-Bereich.

Lese- und Schreiboperationen im Hauptspeicher sind zirka um den Faktor 1000 schneller als der Zugriff auf eine herkömmliche Festplatte. Da Zugriffe auf die transaktionalen Systeme durch das Caching der relevanten Daten minimiert werden und stattdessen Hauptspeicherzugriffe erfolgen, lassen sich die Antwortzeiten enorm verbessern.

Entscheidungen im Analysekreislauf: Mit Intelligent Business Operations lassen sich laufend aktuelle Analyseergebnisse für Geschäftsentscheidungen heranziehen.
Foto: Software AG

Doch die skalierbare Datenhaltung im Hauptspeicher und der schnelle Zugriff auf die Daten sind nur der erste Schritt. In-Memory-Analysen erlauben es, die Rohdaten im Hauptspeicher ad hoc als auch kontinuierlich zu analysieren. Die gewonnenen und somit veredelten Daten und Informationen können wiederum im Hauptspeicher abgelegt werden und stehen so Anwendungen sofort zur Verfügung. Im Gegensatz zu Ad-hoc-Analysen, die Daten erst bei Bedarf verarbeiten, lässt sich mit der Technik "Complex Event Processing" (CEP) eine kontinuierliche Datenverarbeitung mit minimaler Auswertungslatenz umsetzen.

Hierbei lösen Änderungen der Daten im Hauptspeicher, wie etwa das Einfügen, Löschen oder Aktualisieren von Datensätzen, Ereignisse aus, die unmittelbar eine Aktualisierung der Analysen anstoßen. Die Analyse wird dabei nicht erneut vollständig über die Datengesamtheit ausgeführt, sondern nur eine Art "Delta" berechnet. Man spricht von sogenannten inkrementellen Berechnungen. Folglich stehen die Analyseresultate sofort und stets aktuell zur Verfügung.

Beispiele für "Big Fast Data"

Ein renommiertes Kreditkartenunternehmen konnte die Prüfung riesiger Mengen von Transaktionen auf Betrugsversuche von 45 Minuten auf 650 Millisekunden für 99 Prozent der Transaktionen reduzieren. Dank dieser Beschleunigung bewahrt es seine Kunden nun vor Vermögensverlusten in zweistelliger Millionenhöhe pro Jahr. Im Millisekunden-Takt prüft der Finanzdienstleister jede Transaktion auf das Risiko einer betrügerischen Handlung. Es geht um ausgefeilte Datenanalysen und die schnelle Erkennung von Mustern. Auch die Kunden eines australischen Telekommunikationsanbieters profitieren von mehr Geschwindigkeit in der Datenverarbeitung. Binnen 200 Millisekunden - tausend Mal schneller als bislang - stehen ihnen nun die Rechnungsdaten zur Verfügung, und sie können erkennen, wie viel ihr Telefongespräch, ihre Datenübertragung oder das Versenden der Fotos gerade kostet. Für den Kunden ist das gefühlte Echtzeit. Auch für das Unternehmen eröffnet dies neue Potenziale, beispielsweise einen verbesserten Support in den Callcentern oder neue Vertriebsmöglichkeiten im Mobilfunkbereich zur Steigerung der Kundenbindung.

Skalierbar oder flexibel?

Schließen sich also flexible und skalierbare Analysen aus? Nein, denn die Übergänge sind fließend und hängen vom jeweiligen Szenario ab. Business Analytics wird oft in seinen extremen Ausprägungen diskutiert, ohne darauf hinzuweisen, dass es Varianten zwischen den Extremen gibt.

Die eine Seite der Geschäftsanalysen mittels IBO betont den Gesamtblick auf die ablaufenden Geschäftsprozesse in einem heterogenen IT-Umfeld und deren flexible Steuerung, wobei menschliche Interaktionen oft notwendig und gewünscht sind. Die andere Seite der Anwendungsfälle von IBO befasst sich mit Big Fast Data und der Hochgeschwindigkeitsauswertung als wichtigem Teil vollautomatisierter Abläufe, für die Menschen viel zu langsam sind. Letzteres ist die Formel 1 der Datenanalyse, während der erstgenannte Ansatz viel mehr einem komfortablen Pkw gleicht, der zwar auch schnell ist, aber mehr Zeit für Entscheidungen lässt. Dazwischen gibt es beliebig viele Spielarten.

IBO-Extreme kombinieren

Es gibt sogar Anwendungsszenarien, die beide Extreme kombinieren. Mittels Big-Fast-Data-Lösungen lassen sich Sensordaten von Tausenden intelligenter Geräte in Echtzeit auswerten und so Einblicke gewinnen, um Steuerungen vorzunehmen. Falls ein Gerät defekt ist, kann dies unmittelbar erkannt werden. Zum Austausch eines Gerätes kann man aber wieder einen Prozess anstoßen und dessen Abarbeitung kontinuierlich mitverfolgen und gegebenenfalls eingreifen. In diesem Fall werden beide Formen von IBO elegant miteinander verknüpft.

Fazit

Mit IBO präsentiert sich Anwendern ein neues Feld der Business-Analyse, das sich vorrangig der Analyse und Optimierung des operativen Geschäftsbetriebs widmet. Traditionelle nachgelagerte Analyse ergänzt das Ganze. Doch IBO ist mehr als nur eine moderne Form der Datenanalyse. Das Interessante und Wertschöpfende liegt in der Verknüpfung von Live-Einblicken mit Handlungsmaßnahmen. Durch das verbesserte Situationsbewusstsein lassen sich zum richtigen Zeitpunkt die die angemessenen Aktionen gezielt einleiten.(ba)