Big Data Analytics

Gebrannte BI-Kinder

14.03.2013
Von 
Werner Kurzlechner lebt als freier Journalist in Berlin und beschäftigt sich mit Rechtsurteilen, die Einfluss auf die tägliche Arbeit von Finanzentscheidern nehmen. Als Wirtschaftshistoriker ist er auch für Fachmagazine und Tageszeitungen jenseits der IT-Welt tätig.
IDC-Analyst Matthias Zacher: Standardtechnologie und Open Source ermöglichen günstige Beschaffung.
IDC-Analyst Matthias Zacher: Standardtechnologie und Open Source ermöglichen günstige Beschaffung.
Foto: IDC

Das junge Konzept Big Data Analytics definiert IDC so: „Big Data Analytics umfasst Lösungen, Verfahren und Technologien zum Management, zur Analyse und zur Interpretation von sehr großen Datenmengen, die mit herkömmlichen Methoden nicht oder nur unzureichend bearbeitet werden können.“ 56 Prozent der Befragten sehen darin einen interessanten Ansatz, der sich aber noch in einem sehr frühen Stadium befinde. Neu seien Art und Weise des Zugriffs auf große Datenmengen aus einer Vielzahl unterschiedlicher Quellen und die Verarbeitung und Analyse dieser Datensets, erläutert Zacher.

Hoher Open-Source-Anteil

38 Prozent der Firmen äußern indes die Sorge, dass Big Data Analytics mit hohen Investitionen in Hardware und Software verbunden sei. Zacher führt dies auf die bisherigen Erfahrungen der Anwender im BI-Umfeld zurück. Nach Einschätzung des Analysten sind diese Bedenken nicht per se begründet. „Dieser kritischen Betrachtung kann entgegengestellt werden, dass Big Data Analytics gerade durch den Einsatz von Standardtechnologie oder auch Open-Source-Komponenten günstigere und bessere Beschaffungs-, Nutzungs- und Integrationsansätze bietet“, heißt es in der Studie.

31 Prozent halten Cloud Computing für einen geeigneten Ansatz, in Big Data Analytics einzusteigen. Daten aus Social-Media-Anwendungen gelten als typische Anwendungsfälle. Mehr als ein Viertel der Befragten gehen indes davon aus, zur Bewältigung der Datenflut keine neuen Tools zu benötigen. „Das ist in vielen Fällen sicher richtig“, kommentiert IDC. „Diese Unternehmen sollten jedoch rechtzeitig prüfen, wie gut die Lösungen auch künftig mit den sich wandelnden Datenvolumina und Datenströmen zurechtkommen.“ Ein Viertel der Unternehmen erkennt hier aktuell Handlungsbedarf.

Jeweils die Hälfte der Befragten analysiert große Datenmengen bisher entweder mit Standardsoftware oder einer individuellen Lösung. „Während beispielsweise für die Auswertung von Finanzzahlen ober Kundeninformationen häufig standardisierte Lösungen genutzt werden, erfordern andere Fälle wie Produktdaten häufig individuelle Lösungen“, so IDC. Vergleichsweise hoch ist der Anteil von 47 Prozent, die Open-Source-Lösungen nutzen. 37 Prozent arbeiten mit externen Dienstleistern zusammen.

Die aktuell wichtigsten Einsatzfelder sind laut Studie Finance, Verbesserung des Kundenservices und Logistik-Optimierung, hinzu sollten künftig IT-Analyse und Unternehmenssteuerung treten. IDC sieht künftig eine ganze Reihe von Anwendungsszenarien. „Eine Möglichkeit sind iterative Vorgehensweisen, in denen die Fachbereiche mehr oder weniger erkunden, welche Informationen in den Daten stecken und daraus neue Erkenntnisse ableiten“, empfiehlt IDC. „Die derzeit noch frühe Phase der Anbieterpositionierung und der Anwendersondierung des Themas wird zügig weitere Resultate zeigen.“