Weniger Technik - mehr Lösung

Kein Mensch braucht Big Data,…

10.03.2014 von Wolfram Jost
… aber alle benötigen eine bessere Sicht auf die Geschehnisse in ihren Unternehmen, und damit im Grunde die Essenz aus riesigen Datenmassen, die zudem kontinuierlich anwachsen. Informationen bilden damit das Gold der digitalen Gesellschaft - und sie werden ähnlich "abgebaut".

Bei der Förderung von Edelmetallen müssen erst tonnenweise Gestein aus dem Fels geschlagen werden, um dann die Goldpartikel aussieben zu können. Ähnlich geht es heute beim Schürfen nach den richtigen Informationen zu - und die Funktionalität des "Siebs" wird dabei immer entscheidender. Aus der nahezu unendlichen Vielzahl an Daten die für die Entscheidungsfindung relevanten schnellstmöglich herauszufiltern, ist die Herausforderung für die digitale Zukunft. Die klassischen Verfahren der Datenspeicherung und -analyse reichen an dieser Stelle jedoch bei weitem nicht mehr aus.

Foto: phipatbig, Shutterstock.com

Für die meisten Unternehmen war 2013 das Jahr, um in Bezug auf das Big-Data-Phänomen die Trends zu beobachten und anschließend eine entsprechende Strategie zu entwickeln. Grundlegende Fragen waren für die Verantwortlichen: Wie will man sich den neuen Anforderungen stellen, welche Geschäftsvorteile sind möglich, wie kann man sich vom Wettbewerb abheben?

Die Hersteller auf der anderen Seite sind dabei, sich zu konsolidieren. Übernahmen und Marktbereinigungen prägen das derzeitige Bild, und das wird sich auch im kommenden Jahr fortsetzen. Die Unternehmen tun gut daran, sich mit all diesen Entwicklungen auseinanderzusetzen, denn Big Data ist bereits ein reales Phänomen. Allerdings lag der Schwerpunkt von Big Data-Technologien bisher vor allem auf der Dimension "Volume" (Datenumfang) und weniger auf "Variety" (Datenvielfalt) und "Velocity" (Datenschnelligkeit). Das Verwalten und die Analyse großer Datenmengen im Hauptspeicher setzte unter dem Schlagwort "In-Memory Computing" den ersten technologischen Big-Data-Meilenstein.

Big-Data-Fokus verlagert sich

Gegenwärtig verlagert sich der Fokus auf die Aspekte Daten-Vielfalt und -Schnelligkeit. Neue Anwendungen sollen Datenströme in Echtzeit überwachen, Ereignismuster erkennen und analysieren sowie - falls erforderlich - Maßnahmen sofort und automatisch einleiten. "Complex Event Processing" (CEP) ist eine dieser Technologien, die den bisherigen Big-Data-Ansatz vervollständigen. Im Gegensatz zu traditionellen Ansätzen für die Datenanalyse befinden sich die Daten zum Zeitpunkt der Analyse nicht im "Ruhezustand" (at rest), sondern sind in "Bewegung" (in motion).

Somit lassen sich Ereignisströme in Echtzeit identifizieren und analysieren, um daraus Muster zu erkennen, die nicht der Norm entsprechen. Event-basierte Anwendungen eignen sich für die Echtzeitverarbeitung komplexer Highspeed-Datenströme, wie sie zum Beispiel am Finanzmarkt existieren. Damit lassen sich Betrugsfälle real time erkennen oder Anomalitäten an den Börsen diagnostizieren. Man stelle sich nur vor, der Ausbruch der Finanzkrise 2008 hätte mit dem richtigen Alarmsystem verhindert werden können. Ein weiteres Einsatzgebiet ist der Bereich Operational Intelligence.

Hier geht es darum, kritische Geschäftsprozesse in Echtzeit kontinuierlich zu überwachen, um notwendige Entscheidungen schneller treffen und entsprechende Konsequenzen zielgenauer umsetzen zu können. In Zukunft müssen der Umfang, die Vielfalt und Schnelligkeit von Daten für Unternehmen keine Herausforderung mehr darstellen. Denn die Weiterentwicklung von Big Data umfasst die Gesamtheit der Daten-Dimensionen Volume, Variety und Velocity.

Das sogenannte Complex Event Processing bildet dafür eine wesentliche Basis. Solche Anwendungen sind vielseitig einsetzbar: ob im Finanzwesen, in der Produktion oder in der Logistik. CEP verarbeitet unter anderem Daten im Hochfrequenzhandel, in Telekommunikationssystemen sowie Sensordaten in Transport- und Logistiksystemen. Latenzen wie bei traditionellen Systemen, die Ereignisdaten vor der Analyse erst speichern und indexieren, treten aufgrund der Architektur nicht auf. Mithilfe des Ereignisverarbeitungsmodells erkennt die CEP-Plattform nicht nur sehr schnell zeitliche und räumliche Zusammenhänge sowie gemeinsame Eigenschaften, sondern auch das Ausbleiben von erwarteten Ereignissen.

CEP bedient vier wesentliche Anforderungen von Unternehmen:

  1. Extraktion wertvoller Daten aus riesigen Datenbergen im Echtzeit, wobei es auf Milli- oder gar Mikrosekunden ankommt,

  2. proaktives Handeln anstelle von bloßen Reaktionen auf Geschäftsvorfälle,

  3. Skalierbarkeit von Echtzeit-Anwendungen und

  4. die Anforderung, dass Anwendungen kontextsensitive und standortbezogene Daten aus den unterschiedlichsten Quellen verarbeiten können müssen.

Moderne Plattformen können das, denn sie verfügen über skalierbare Performance im Hinblick auf Ereignisse pro Sekunde, auf die Anzahl der an diesen Ereignissen vorgenommenen Operationen und auf die Komplexität dieser Operationen - Ereignisse pro Sekunde sind nicht alles. Außerdem bieten sie alle nötigen Tools für die schnelle Erst- und Weiterentwicklung von IT-Lösungen, besonders im Umfeld von sich ständig ändernden Geschäftsanforderungen, und können die Gesamtkosten niedrig halten, indem eine einheitliche Technologie für unterschiedliche Fachbereiche und Operationen angewendet wird.

Richtig interessant wird es dann, wenn man die CEP-Engine mit einem In-Memory-Data-Grid integriert. Hierdurch lassen sich live Daten mit historischen Datenbankinformationen anreichern, ohne dass die Performanz leidet oder die Latenz steigt. So lassen sich zum Beispiel Trading-Daten mit historischen Trends unterfüttern, was Anwendern eine Risikobewertung erleichtert. Ein Beispiel: Transaktionen am Geldautomaten werden mit Daten zum Standort des Kunden verknüpft, wodurch ein möglicher Betrug auffallen kann, noch bevor der Geldautomat den Betrag auszahlt.

Weniger Technik - mehr Lösung

Im besten Fall ist eine CEP-Lösung jedoch kein Technologie-Toolkit für IT-Experten, sondern die Lösung für ein Problem. Eine Branche, die als Anwendungsszenario dafür in den letzten Monaten immer mehr in den Vordergrund gerückt ist, ist der Kapitalmarkt. Das Thema Risiko und Compliance - und die Forderung nach einer adäquaten Kontrolle der Finanzmärkte - steht seit einer gefühlten Ewigkeit auf der Tagesordnung der Marktteilnehmer, Regulatoren und Politiker.

Zwar gibt es seit 2008 regulatorische Leitlinien in der Finanzbranche, aber die wiederholten Verstöße - sei es die Umgehung von Risikorichtlinien, Geldwäsche, Marktmanipulation, Handelsbetrug oder manipulierte Algorithmen selbst - machen deutlich, dass es noch ein weiter Weg ist, bevor die Allgemeinheit wieder darauf vertrauen kann, dass diese Branche unter Kontrolle ist.

Das Risk and Compliance Monitoring erfordert daher einen neuen Denkansatz im Hinblick auf die Architektur. Nur so lässt sich eine Überwachungsplattform einrichten, die diese Anforderungen unternehmensweit abdeckt. Folgende Fragen und Faktoren spielen dabei eine Rolle:

  1. Anwenderunternehmen stehen indes vor der Grundsatzfrage, ein entsprechendes System zu kaufen beziehungsweise selbst zu entwickeln. Die Funktionen und Möglichkeiten, die eine Risiko- und Compliance-Überwachung bieten muss, werden durch das Unternehmen definiert, in das sie eingepasst wird. Ein solches System muss flexibel, individuell anpassbar und im Zuge rechtlicher Neuerungen und Marktveränderungen schnell ausbaufähig sein - in aller Regel kann man es nicht als Standard kaufen. Andererseits ist es aufgrund der Größenordnung der Architektur auch nicht machbar, jede einzelne Komponente von Grund auf neu zu entwickeln - das ist unter dem Kostenaspekt meist kaum u rechtfertigen. Die Lösung kann eine Kombination beider Konzepte sein - kaufen und selbst entwickeln - in der Technologieplattformen die Grundlage für teilweise maßgeschneiderte und fein abgestimmte Lösungen bilden.

  2. Durch die Vielzahl von Datenquellen und Datentypen, die Struktur der Daten und andere Faktoren ist es außerdem erforderlich, dass sich jede beliebige Art von Daten über ein gemeinsames Messaging Backbone von einer Plattform auf eine andere Plattform übertragen lässt - eine Many-to-One-Übertragung, bei der Daten an die Überwachungsplattform übertragen und dort für die weitere Verwendung normiert werden, so dass sich Datensilos zu aussagekräftigen Informationen zusammenführen lassen.

  3. Unerwünschte Verhaltensweisen, die erkannt werden müssen und denen man in Echtzeit mit entsprechenden Maßnahmen begegnen muss, werfen oft ein weiteres Problem auf: die Anreicherung mit zusätzlichen Daten. Wenn der Hinweis auf ein solches Verhalten nicht vollständig in den operativen Daten - oder Ereignissen - enthalten ist, müssen die Ereignisse mit historischen Daten, Referenzdaten, On-the-Fly-Analytik oder anderen Daten angereichert werden. Dieses Heranziehen externer Datenquellen kann, wenn sie auf herkömmlichen Festplatten basieren, zu inakzeptablen Verzögerungen führen. Um große Mengen an Zusatzdaten zu speichern und abzurufen, ohne eine Nahezu-Echtzeit-Umgebung zu gefährden, bedarf es einer Lösung, um das Management dieser Daten im schnelleren Arbeitsspeicher abzuwickeln.

Big Data hilft beim Umweltschutz

Neben dem Finanzsektor bietet die Logistikbranche ein weiteres Anwendungsfeld für Big Data-Anwendungen. Verlässt ein Container-Schiff seinen Ursprungshafen, kann ein solches System eine Prognose liefern, wann es bei einer bestimmten Geschwindigkeit den Zielhafen erreichen wird. Im Zielhafen lassen sich damit entsprechende Vorbereitungen für das Löschen der Ladung zum voraussichtlichen Ankunftszeitpunkt treffen. Ein Ankerplatz wird reserviert und die, Verfügbarkeit von Kränen, LKW und Platz auf Güterzügen geprüft.

Während das Schiff unterwegs ist, werden nun ständig Daten abgefragt - dazu gehören Wetterdaten, Meeresbewegungen, Daten anderer Schiffe, Hafendaten. Zeigt die Analyse all dieser Daten, dass das Schiff erst eine Stunde später als geplant entladen werden kann, geht diese Information direkt an die Kapitänsbrücke, und der Kapitän reduziert die Fahrgeschwindigkeit so, dass die Fahrt eine Stunde länger dauert. Das spart enorme Mengen an Diesel, und auch die nachfolgenden Prozessschritte lassen sich so anpassen, dass ein weiterhin ein reibungsloser Ablauf garantiert ist. Fährt ein Schiff dieser Dimension nur mit halber Kraft, ist eine Einsparung von 150 Tonnen Diesel pro Stunde möglich.

Im Schnitt könnte jedes Schiff so viel Diesel einsparen, wie 50 deutsche Haushalte im Jahr verbrauchen. Durch das Monitoring aller relevanten Daten des Schiffsverkehrs in Echtzeit und dem Abgleich dieser Daten mit denen des Zielhafens erfolgt eine Echtzeit-Regulierung der Schiffsgeschwindigkeit, der CO2-Ausstoß wird erheblich reduziert, weniger Energie verbraucht - das kommt alles der Umwelt zugute.

Egal ob in der Finanzbranche oder in der Logistik: Als Frühwarnsystem kann Big Data alternative Handlungsoptionen aufzeigen. Diese reduzieren die globalen Risiken, denn sie machen das Wirtschaftssystem stabiler, und sie bremsen zumindest ein Stück weit den Klimawandel.