Weniger Technik - mehr Lösung

Kein Mensch braucht Big Data,…

Wolfram Jost ist Technologievorstand der Software AG
… aber alle benötigen eine bessere Sicht auf die Geschehnisse in ihren Unternehmen, und damit im Grunde die Essenz aus riesigen Datenmassen, die zudem kontinuierlich anwachsen. Informationen bilden damit das Gold der digitalen Gesellschaft - und sie werden ähnlich "abgebaut".

Bei der Förderung von Edelmetallen müssen erst tonnenweise Gestein aus dem Fels geschlagen werden, um dann die Goldpartikel aussieben zu können. Ähnlich geht es heute beim Schürfen nach den richtigen Informationen zu - und die Funktionalität des "Siebs" wird dabei immer entscheidender. Aus der nahezu unendlichen Vielzahl an Daten die für die Entscheidungsfindung relevanten schnellstmöglich herauszufiltern, ist die Herausforderung für die digitale Zukunft. Die klassischen Verfahren der Datenspeicherung und -analyse reichen an dieser Stelle jedoch bei weitem nicht mehr aus.

Foto: phipatbig, Shutterstock.com

Für die meisten Unternehmen war 2013 das Jahr, um in Bezug auf das Big-Data-Phänomen die Trends zu beobachten und anschließend eine entsprechende Strategie zu entwickeln. Grundlegende Fragen waren für die Verantwortlichen: Wie will man sich den neuen Anforderungen stellen, welche Geschäftsvorteile sind möglich, wie kann man sich vom Wettbewerb abheben?

Die Hersteller auf der anderen Seite sind dabei, sich zu konsolidieren. Übernahmen und Marktbereinigungen prägen das derzeitige Bild, und das wird sich auch im kommenden Jahr fortsetzen. Die Unternehmen tun gut daran, sich mit all diesen Entwicklungen auseinanderzusetzen, denn Big Data ist bereits ein reales Phänomen. Allerdings lag der Schwerpunkt von Big Data-Technologien bisher vor allem auf der Dimension "Volume" (Datenumfang) und weniger auf "Variety" (Datenvielfalt) und "Velocity" (Datenschnelligkeit). Das Verwalten und die Analyse großer Datenmengen im Hauptspeicher setzte unter dem Schlagwort "In-Memory Computing" den ersten technologischen Big-Data-Meilenstein.

Big-Data-Fokus verlagert sich

Gegenwärtig verlagert sich der Fokus auf die Aspekte Daten-Vielfalt und -Schnelligkeit. Neue Anwendungen sollen Datenströme in Echtzeit überwachen, Ereignismuster erkennen und analysieren sowie - falls erforderlich - Maßnahmen sofort und automatisch einleiten. "Complex Event Processing" (CEP) ist eine dieser Technologien, die den bisherigen Big-Data-Ansatz vervollständigen. Im Gegensatz zu traditionellen Ansätzen für die Datenanalyse befinden sich die Daten zum Zeitpunkt der Analyse nicht im "Ruhezustand" (at rest), sondern sind in "Bewegung" (in motion).

Somit lassen sich Ereignisströme in Echtzeit identifizieren und analysieren, um daraus Muster zu erkennen, die nicht der Norm entsprechen. Event-basierte Anwendungen eignen sich für die Echtzeitverarbeitung komplexer Highspeed-Datenströme, wie sie zum Beispiel am Finanzmarkt existieren. Damit lassen sich Betrugsfälle real time erkennen oder Anomalitäten an den Börsen diagnostizieren. Man stelle sich nur vor, der Ausbruch der Finanzkrise 2008 hätte mit dem richtigen Alarmsystem verhindert werden können. Ein weiteres Einsatzgebiet ist der Bereich Operational Intelligence.

Hier geht es darum, kritische Geschäftsprozesse in Echtzeit kontinuierlich zu überwachen, um notwendige Entscheidungen schneller treffen und entsprechende Konsequenzen zielgenauer umsetzen zu können. In Zukunft müssen der Umfang, die Vielfalt und Schnelligkeit von Daten für Unternehmen keine Herausforderung mehr darstellen. Denn die Weiterentwicklung von Big Data umfasst die Gesamtheit der Daten-Dimensionen Volume, Variety und Velocity.

Das sogenannte Complex Event Processing bildet dafür eine wesentliche Basis. Solche Anwendungen sind vielseitig einsetzbar: ob im Finanzwesen, in der Produktion oder in der Logistik. CEP verarbeitet unter anderem Daten im Hochfrequenzhandel, in Telekommunikationssystemen sowie Sensordaten in Transport- und Logistiksystemen. Latenzen wie bei traditionellen Systemen, die Ereignisdaten vor der Analyse erst speichern und indexieren, treten aufgrund der Architektur nicht auf. Mithilfe des Ereignisverarbeitungsmodells erkennt die CEP-Plattform nicht nur sehr schnell zeitliche und räumliche Zusammenhänge sowie gemeinsame Eigenschaften, sondern auch das Ausbleiben von erwarteten Ereignissen.

CEP bedient vier wesentliche Anforderungen von Unternehmen:

  1. Extraktion wertvoller Daten aus riesigen Datenbergen im Echtzeit, wobei es auf Milli- oder gar Mikrosekunden ankommt,

  2. proaktives Handeln anstelle von bloßen Reaktionen auf Geschäftsvorfälle,

  3. Skalierbarkeit von Echtzeit-Anwendungen und

  4. die Anforderung, dass Anwendungen kontextsensitive und standortbezogene Daten aus den unterschiedlichsten Quellen verarbeiten können müssen.

Moderne Plattformen können das, denn sie verfügen über skalierbare Performance im Hinblick auf Ereignisse pro Sekunde, auf die Anzahl der an diesen Ereignissen vorgenommenen Operationen und auf die Komplexität dieser Operationen - Ereignisse pro Sekunde sind nicht alles. Außerdem bieten sie alle nötigen Tools für die schnelle Erst- und Weiterentwicklung von IT-Lösungen, besonders im Umfeld von sich ständig ändernden Geschäftsanforderungen, und können die Gesamtkosten niedrig halten, indem eine einheitliche Technologie für unterschiedliche Fachbereiche und Operationen angewendet wird.

Richtig interessant wird es dann, wenn man die CEP-Engine mit einem In-Memory-Data-Grid integriert. Hierdurch lassen sich live Daten mit historischen Datenbankinformationen anreichern, ohne dass die Performanz leidet oder die Latenz steigt. So lassen sich zum Beispiel Trading-Daten mit historischen Trends unterfüttern, was Anwendern eine Risikobewertung erleichtert. Ein Beispiel: Transaktionen am Geldautomaten werden mit Daten zum Standort des Kunden verknüpft, wodurch ein möglicher Betrug auffallen kann, noch bevor der Geldautomat den Betrag auszahlt.