Big Data, Advanced Data Analytics und Algorithm Engineering

FAQ Algorithmen und Algorithm Engineering

02.11.2017 von Sebastian Leder und David Köpfer
Wie funktioniert eigentlich ein Algorithmus und was ist das? Was haben Daten(-haltung) und Design Thinking damit zu tun? Wie geben Antworten.
Stärker als je zuvor wird unser Leben durch die Entscheidungen von Algorithmen bestimmt.
Foto: agsandrew - shutterstock.com

Ob wir nach einer Webseite suchen, das Werk von Terroristen vereitelt wird oder bei der Partnersuche zumindest die Vorauswahl getroffen wird; Algorithmen sind inzwischen tief in unserem Alltag verwurzelt. Aber was ist eigentlich ein Algorithmus?

Ein Algorithmus hat zunächst erstmal nichts mit Computern zu tun; es ist nur eine fest definierte Abfolge von (Handlungs-)Schritten, die ein bestimmtes Ziel verfolgt. "Alle roten Briefe aus dem Posteingang zur Fakturierung und alle blauen an den Einkauf" ist somit ein sehr typischer Algorithmus der in fast jedem Betrieb so oder so ähnlich implementiert ist. In der Unternehmenswelt meint man mit Algorithmen in der Regel Computer-Algorithmen und, genauer, solche, die helfen, Entscheidungen zu treffen oder diese gar schon autonom treffen.

Schon lange wird die Börse vom "Algorithmic Trading" - also dem Computerhandel bestimmt, bei dem der Computer nach mehr oder weniger komplexen Handlungsanweisungen in Millisekunden Wertpapiere kauft und verkauft. Im Auto drücken wir immer seltener auf das Hydrauliksystem der Bremse sondern verschiedene Algorithmen stellen fest ob die Bremse wieder gelöst werden sollte, weil sonst die Räder Blockieren (ABS) oder ob der Mensch die Gefahrensituation unterschätzt und eigentlich viel stärker gebremst werden müsste. Bei Paketdiensten entscheiden oft nicht mehr die Zusteller, sondern Optimierungsalgorithmen in welcher Reihenfolge die Pakete ausgetragen werden.

Woher kommt nun der Trend immer mehr Entscheidungen von Algorithmen treffen zu lassen?

Die Antwort darauf ist vielschichtig:
1. Besonders offensichtlich sind die Situationen in denen der (Computer-)Algorithmus die Fähigkeiten von Menschen übersteigt und schneller, ermüdungsfrei und zuverlässig Aktionen durchführt. Gerade der Bereich der Sicherheitstechnik hat in der jüngeren Vergangenheit immens davon profitiert.

2. Algorithmen sind oft günstiger als Experten. Auch wenn ein gut geschulter und erfahrener Ingenieur kaum durch einen Algorithmus ersetzt werden kann, so lässt sich der Algorithmus - so eingeschränkt er auch sein mag - beliebig oft kopieren und weltweit einsetzen.

3. Algorithmen sind besser darin, viele Informationen ausgewogen zu integrieren. Es hat sich gezeigt, dass Menschen mit ihrem Bachgefühl und Ihrer Erfahrung gute Entscheidungen treffen, wenn nur wenige oder schlecht quantifizierbare Daten zur Verfügung stehen. In einer Welt, in der immer mehr und immer diversere Daten zur Verfügung stehen, neigen Menschen zur Überinterpretation einiger weniger und Vernachlässigung vieler anderer Daten.

4. Unternehmen, die bei ihre strategischen Entscheidungen auf datengetriebene Unterstützung von Algorithmen setzen, haben einen kompetitiven Vorteil und setzen sich langfristig durch.

Es ist aber auch wichtig die Grenzen von Algorithmen zu kennen:
1. Sie werden meist nur für eine ganz bestimmte Aufgabe konzipiert und kalibriert.

2. Sie erzielen nur gute Ergebnisse auf der Datengrundlage auf der sie trainiert oder konzipiert wurden.

3. Sie sind nicht kreativ und können - im Gegensatz zu Menschen - keine Lösungen außerhalb ihres Designs finden.

4. Sie stoßen bei einigen Mitarbeitern auf Ablehnung die ihre Arbeit oder zumindest ihre gewohnte Arbeitsweise in Gefahr sehen.

Wie und an welcher Stelle ist es nun sinnvoll, über datengetriebene Algorithmen nachzudenken? Häufig fallen einem Bereiche ein, die traditionell stark durch Algorithmen geprägt sind, wie beispielsweise Regelungsstände in großen Anlagen oder Bereiche die mittels Reporting und KPIs bereits seit Jahren im Fokus von Business Intelligence stehen. Der große Vorteil ist dabei, dass dort bereits Daten gesammelt wurden und somit häufig historische Daten zur Verfügung stehen; außerdem gibt es dann viel Erfahrung im Betrieb wie diese Daten zu interpretieren sind.

Der Nachteil dieser Bereiche ist, dass diese oft nicht so sehr von neuen Algorithmen profitieren wie Bereiche, die bisher manuell bearbeitet wurden. Letztlich entstammen viele Innovationen der vergangenen Jahre genau dieser Kategorie - Anwendung von Algorithmen auf neue Bereiche: Autonomes Fahren, Heimautomatisierung, Predictive Maintenance, Algorithmic Recruiting.

Wie geht man nun vor, um in einemr traditionellen Unternehmen Algorithmen zu etablieren? Es bedarf dazu mehr als nur einiger Computer und einer vagen Idee. Es ist vor allem eine Einstellung, sich auf neue Technologien einzulassen und ein Lernprozess, diese in die Arbeit zu integrieren, die nicht nur von einigen Technikenthusiasten, sondern von der Geschäftsleitung bis zu den Anwendenden geteilt werden sollte.

Sind diese Voraussetzungen geschaffen, geht es an die Auswahl geeigneter Startpunkte. Hier haben sich Design Thinking Workshops etabliert, die sich absichtlich nicht mit der Technik und deren Details auseinander setzen, sondern den Fokus auf den Nutzen für Anwender und Business setzen. Durch eine moderierte Kombination aus Beispielpräsentationen, Brainstorming Sessions und Design Sessions werden alte Denkmuster aufgebrochen und die neu entstandenen Ideen werden von einer breiten Gruppe getragen.

Data Scientists, Data Engineers und Designer erarbeiten Proof of Concept

Die so entstandenen Ansätze können dann in einem nächsten Schritt von einem kleinen Team aus Data Scientists, Data Engineers und Designern zu einem schnellen, oft noch groben, Proof of Concept umgesetzt werden. Diese schnellen "Durchstiche" statt großer allumfassenden Implementationen erlauben zu lernen.

Einerseits geben sie den Anwendern schnell etwas in die Hand, mit dem sie bereits erste Erfahrung sammeln können, andererseits erlauben sie auch, den Algorithmus zu testen und anzupassen. Aber auch die Entwicklung des Algorithmus' profitiert enorm von einem agilen Vorgehen in mehreren Phasen.

Begreift man Algorithmen als Hochöfen, so wären die Daten Erz und Kohle und die Informationen der Stahl. Um besonders viel hochwertigen Stahl zu produzieren, muss man also zunächst reichhaltiges Erz und Kohle fördern. Angesichts von Data-Mining ist diese Bild nicht so weit hergeholt, denn Daten zu finden ist nicht sehr schwer, aber solche Daten zu finden, die für das zu lösende Problem genügend Informationsgehalt haben, ist tatsächlich keine einfache Aufgabe.

Auch wenn es viele öffentliche Datenquellen wie Twitter oder das Statistische Bundesamt gibt, beutet das nicht, dass aus diesen Daten viel Relevantes für ein hochspezialisiertes Produkt steckt. Häufig stellt man fest, dass ausgerechnet die Daten, die man gesammelt hat, wenig Information enthalten, aber die, die man leider seit Jahren regelmäßig löscht, eigentlich wertvoll gewesen wären. Das sind typische Lernprozesse, die man besser früh als spät durchläuft, damit man seine Entscheidungen künftig auf die richtige Datenbasis stellen kann.

Der Algorithmus - oder Hochofen in unserem Bild - besitzt außerdem großes Potential für Optimierung. Zunächst hängt die Qualität der Ergebnisse von den Rohstoffen - also von den Daten - ab. Diese müssen zu den richtigen Zeiten in verlässlicher Qualität angeliefert werden. Wie es auch Hochöfen verschieden Bauarten gibt, kommen Algorithmen in verschiedenen Ansätzen und Komplexitätsgraden.

CRISP-DM als Standard

Es lässt sich häufig nicht vorhersagen, welcher Ansatz für ein gegebenes Problem am besten funktioniert. Einfachere Algorithmen sind robuster und besser zu verstehen und zu warten; komplexere Algorithmen können hingegen Feinheiten der Prozesse besser abbilden. Ein geeigneter Algorithmus zu finden ist somit ein iterativer Prozess der viel Ausprobieren und Testen erfordert. In diesem kreativen Teil des Modellierens - also Anpassens und Maßschneiderns des Algorithmus - haben sich Standards etabliert wie CRISP-DM, die den Prozess effizient und transparent gestalten.

Ein wichtiges Nebenprodukt dieses Prozesses sind quantitative Verständnisse der Business Prozesse. Viele Fachbereiche haben eine gute Intuition über ihre Prozesse. Das Problem bei Intuition ist allerdings, dass sie an einigen Stellen schlicht falsch ist. Gerüchte wie "Montags treten die meisten Fehler auf" kursieren häufig über Jahre und werden regelrecht vererbt, ohne dass sie überprüft oder quantifiziert werden - dennoch werden beispielsweise Dienstpläne danach ausgerichtet.

Ist ein geeigneter Algorithmus gefunden, der Vorhersagen macht, Fehler detektiert oder wichtige Kennzahlen ermittelt, ist erst ein Teil der Arbeit getan. Fast genauso wichtig wie der Algorithmus selbst ist die Kommunikation und Verwendung der Ergebnisse. Dabei kommt Design ins Spiel, das weit mehr ist als eine anschauliche Präsentation der Zahlen, sondern ein durchdachtes Konzept die Ergebnisse für die Anwender nutzbar zu machen.

Der Trend fundierte, faktengetriebene Entscheidungen zu treffen, ist somit nicht nur großen Konzernen zugänglich. Mit der richtigen Einstellung und dem Willen zur Veränderung können gerade kleine Unternehmen mit weniger komplexen Unternehmenslandschaften diese Transformation deutlich einfacher bewältigen.