Big Data, Advanced Data Analytics und Algorithm Engineering

FAQ Algorithmen und Algorithm Engineering

02.11.2017
Von  und David Köpfer
Dr. Sebastian Leder ist am Deloitte Analytics Institut zuständig für "Liaison and Ideation", i. e. Networking und Partnering. Seine Arbeit besteht aus der Vernetzung und der Zusammenarbeit mit dem Quintett Politik, Wissenschaft/Forschung, Technologie und Wirtschaft, sowie StartUps.

Wie geht man nun vor, um in einemr traditionellen Unternehmen Algorithmen zu etablieren? Es bedarf dazu mehr als nur einiger Computer und einer vagen Idee. Es ist vor allem eine Einstellung, sich auf neue Technologien einzulassen und ein Lernprozess, diese in die Arbeit zu integrieren, die nicht nur von einigen Technikenthusiasten, sondern von der Geschäftsleitung bis zu den Anwendenden geteilt werden sollte.

Sind diese Voraussetzungen geschaffen, geht es an die Auswahl geeigneter Startpunkte. Hier haben sich Design Thinking Workshops etabliert, die sich absichtlich nicht mit der Technik und deren Details auseinander setzen, sondern den Fokus auf den Nutzen für Anwender und Business setzen. Durch eine moderierte Kombination aus Beispielpräsentationen, Brainstorming Sessions und Design Sessions werden alte Denkmuster aufgebrochen und die neu entstandenen Ideen werden von einer breiten Gruppe getragen.

Data Scientists, Data Engineers und Designer erarbeiten Proof of Concept

Die so entstandenen Ansätze können dann in einem nächsten Schritt von einem kleinen Team aus Data Scientists, Data Engineers und Designern zu einem schnellen, oft noch groben, Proof of Concept umgesetzt werden. Diese schnellen "Durchstiche" statt großer allumfassenden Implementationen erlauben zu lernen.

Einerseits geben sie den Anwendern schnell etwas in die Hand, mit dem sie bereits erste Erfahrung sammeln können, andererseits erlauben sie auch, den Algorithmus zu testen und anzupassen. Aber auch die Entwicklung des Algorithmus' profitiert enorm von einem agilen Vorgehen in mehreren Phasen.

Begreift man Algorithmen als Hochöfen, so wären die Daten Erz und Kohle und die Informationen der Stahl. Um besonders viel hochwertigen Stahl zu produzieren, muss man also zunächst reichhaltiges Erz und Kohle fördern. Angesichts von Data-Mining ist diese Bild nicht so weit hergeholt, denn Daten zu finden ist nicht sehr schwer, aber solche Daten zu finden, die für das zu lösende Problem genügend Informationsgehalt haben, ist tatsächlich keine einfache Aufgabe.

Auch wenn es viele öffentliche Datenquellen wie Twitter oder das Statistische Bundesamt gibt, beutet das nicht, dass aus diesen Daten viel Relevantes für ein hochspezialisiertes Produkt steckt. Häufig stellt man fest, dass ausgerechnet die Daten, die man gesammelt hat, wenig Information enthalten, aber die, die man leider seit Jahren regelmäßig löscht, eigentlich wertvoll gewesen wären. Das sind typische Lernprozesse, die man besser früh als spät durchläuft, damit man seine Entscheidungen künftig auf die richtige Datenbasis stellen kann.

Der Algorithmus - oder Hochofen in unserem Bild - besitzt außerdem großes Potential für Optimierung. Zunächst hängt die Qualität der Ergebnisse von den Rohstoffen - also von den Daten - ab. Diese müssen zu den richtigen Zeiten in verlässlicher Qualität angeliefert werden. Wie es auch Hochöfen verschieden Bauarten gibt, kommen Algorithmen in verschiedenen Ansätzen und Komplexitätsgraden.

CRISP-DM als Standard

Es lässt sich häufig nicht vorhersagen, welcher Ansatz für ein gegebenes Problem am besten funktioniert. Einfachere Algorithmen sind robuster und besser zu verstehen und zu warten; komplexere Algorithmen können hingegen Feinheiten der Prozesse besser abbilden. Ein geeigneter Algorithmus zu finden ist somit ein iterativer Prozess der viel Ausprobieren und Testen erfordert. In diesem kreativen Teil des Modellierens - also Anpassens und Maßschneiderns des Algorithmus - haben sich Standards etabliert wie CRISP-DM, die den Prozess effizient und transparent gestalten.

Ein wichtiges Nebenprodukt dieses Prozesses sind quantitative Verständnisse der Business Prozesse. Viele Fachbereiche haben eine gute Intuition über ihre Prozesse. Das Problem bei Intuition ist allerdings, dass sie an einigen Stellen schlicht falsch ist. Gerüchte wie "Montags treten die meisten Fehler auf" kursieren häufig über Jahre und werden regelrecht vererbt, ohne dass sie überprüft oder quantifiziert werden - dennoch werden beispielsweise Dienstpläne danach ausgerichtet.

Ist ein geeigneter Algorithmus gefunden, der Vorhersagen macht, Fehler detektiert oder wichtige Kennzahlen ermittelt, ist erst ein Teil der Arbeit getan. Fast genauso wichtig wie der Algorithmus selbst ist die Kommunikation und Verwendung der Ergebnisse. Dabei kommt Design ins Spiel, das weit mehr ist als eine anschauliche Präsentation der Zahlen, sondern ein durchdachtes Konzept die Ergebnisse für die Anwender nutzbar zu machen.

Der Trend fundierte, faktengetriebene Entscheidungen zu treffen, ist somit nicht nur großen Konzernen zugänglich. Mit der richtigen Einstellung und dem Willen zur Veränderung können gerade kleine Unternehmen mit weniger komplexen Unternehmenslandschaften diese Transformation deutlich einfacher bewältigen.