Die besten B2B-Werkzeuge

Neue Generation an Analyse-Tools stellt sich vor

Dr. Carlo Velten schreibt als Experte zu den Themen Cloud-Platforms und -Developers, Enterprise Cloud Management und Digital Business. Dr. Carlo Velten ist CEO des IT-Research- und Beratungsunternehmens Crisp Research AG. Seit über 15 Jahren berät Carlo Velten als IT-Analyst namhafte Technologieunternehmen in Marketing- und Strategiefragen.
Daten sind das neue Gold - wird gerne proklamiert. Doch große Datenmengen stellen nicht nur IT-Infrastrukturen, sondern vor allem den Mensch als Entscheider vor große Probleme. Hier stellen wir einige Analyse-Tools vor.

Seeing is Believing - Nur was man mit den eigenen Augen sieht, lässt sich verstehen und verarbeiten. Nur wenn sich Daten in Form von anschaulichen Grafiken manifestieren, lassen sich Anomalien und Muster von Menschen erkennen, Aktionen ableiten und intelligente Schlussfolgerungen ziehen.

Nur wenn sich die Datenlawine aus Sensoren, Applikationen und IT-Systemen ohne große Probleme analysieren und visualisieren lässt, können Daten Mehrwert generieren und für bessere Entscheidungen sorgen. Eine neue Generation von Tools und Services steht dafür bereit.
Nur wenn sich die Datenlawine aus Sensoren, Applikationen und IT-Systemen ohne große Probleme analysieren und visualisieren lässt, können Daten Mehrwert generieren und für bessere Entscheidungen sorgen. Eine neue Generation von Tools und Services steht dafür bereit.
Foto: Rawpixel, Fotolia.de

Zwar leben wir in einer Welt, in der Algorithmen in vielen Bereichen die Entscheidungen darüber treffen, was beim Eintreten eines bestimmten Ergebnisses oder dem Überschreiten einer Datengrenze zu passieren hat. Aber in ganz vielen Anwendungsszenarien ist und bleibt der Mensch die letzte Instanz. So ist bei der Überwachung von IT-Sicherheitssystemen letztendlich der IT-Admin oder Chief Security Officer derjenige, der die Entscheidungen trifft. Aus der Vielzahl der Informationen und Daten muss der Marketingleiter die finale Schlussfolgerung ziehen, wo das millionenschwere Werbebudget anzulegen ist. Derlei Beispiele gibt es viele. Und in immer mehr Unternehmen müssen Manager, Ingenieure, Produktentwickler oder IT-Administratoren immer mehr Datenquellen in einer immer kürzeren Frequenz beobachten und verarbeiten.

Eine neue Tool-Generation

So wird es in den Unternehmen immer erfolgskritischer verschiedene Datenquellen integrieren, auswerten und vor allem auch visualisieren zu können. Dies gilt vor allem dort, wo das Verhalten von Systemen quasi in Echtzeit gemessen und entsprechend optimiert werden muss, zum Beispiel bei der Überwachung von Log Files, der User Experience von Webapplikationen oder Sensordaten. Diese weisen die typischen Big Data-Charakteristika von "Volume, Variety, Velocity, Variability" auf und benötigen eine neue Generation von Monitoring-, Analytics- und Visualisierungswerkzeugen.

Diese neue Generation an Tools zeichnet sich vor allem durch folgende Eigenschaften und Funktionen aus:

  • Leichte Integration unterschiedlichster Datenquellen und -Typen

  • APIs zur Integration von Echtzeitdaten aus Cloud-Anwendungen

  • Vielfältige Visualisierungsmöglichkeiten und übersichtliche Dashboards

  • Herausragende User Experience für einfache Handhabung -nicht jeder ist ein "Data Scientist"

  • Cloud-basiertes Processing für große Datenvolumina

  • Machine-Learning und KI für vorausschauende Prognosen (Predictive Analytics)

Eine neue Generation von Analytics-Anbietern wächst heran

Neben den etablierten BI-Anbietern wie z.B. SAS, SAP, Microsoft oder IBM, die ihr Portfolio in den letzten Jahren um entsprechende Lösungen und Tools erweitert haben, ist es vor allem eine neue Generation von Anbietern, die hinsichtlich moderner Analytics Services die Marschrichtung vorgibt. Diese haben meist sehr unterschiedliche Schwerpunkte und Hintergründe, bringen aber jeweils sehr wichtige Innovationsimpulse. An dieser Stelle sollen exemplarisch einige der "New Kids on the Block" kurz vorgestellt werden, um die Veränderungen in der BI-Landschaft und den Mehrwert der neuen Lösungen zu illustrieren.

Splunk und Sumologic - Log File-Analyse 2.0

Das in 2003 gegründete Unternehmen Splunk ist einer der Wegbereiter für die statistische Analyse und Überwachung von Maschinen- und Logdaten. Die Technologie wird derzeit hauptsächlich von IT-Administratoren zur Überwachung von IT-Infrastruktur eingesetzt, eignet sich aber auch für Application Performance Management und Web Analytics. Mit 1.500 Mitarbeitern und rund 450 Millionen USD Umsatz zählt das börsennotierte Unternehmen mittlerweile zu den Platzhirschen in diesem Marktsegment.

Der wachsende Bedarf an ebenjenen Lösungen bringt immer wieder neue und innovative Player auf den Markt. So stellte in 2012 Sumologic seine komplett Cloud-basierte Log-Analytics-Plattform vor. Diese bietet eine besonders hohe Skalierbarkeit und Flexibilität, da alle Log-Daten auf einer verteilten Cloud-Infrastruktur verarbeitet werden. Machine-Learning-Verfahren ermöglichen die intelligente Reduzierung und Gruppierung des Logdaten-Volumens und ermöglichen verschiedene Prognose-Funktionen. Interessant für Anwender ist vor allem das Business-Modell. So berechnet Sumologic (als auch Splunk) seinen Kunden eine Gebühr pro GB Datenvolumen. Zum Einstieg können bei Sumologic bis 500MB kostenfrei analysiert werden. In der Professional Version kann ein Anwender bis zu 1GB Datenvolumen pro Tag für 90 USD im Monat verarbeiten. Mit einem sehr erfahrenen Managementteam und rund 80 Millionen Venture Funding von Sequoia, Accel und Greylock & Co zählt Sumologic sicherlich zu den "hot bets" im Markt für Log Analytics und Application Performance Management.