Forrester zu Business Intelligence

Der neue Hype um Big Data

31.05.2012
Von 
Thomas Pelkmann ist freier Journalist in München.

Und was noch besser ist: BI-Anwender müssen sich für ihre Analysen nicht mehr spezielle, eng gefasste Fragen an die Daten ausdenken. Heutzutage reiche es, so Hopkins, eine grobe Idee zu haben und zu versuchen, daraus seine Schlüsse abzuleiten. Bei der neuen BI gewinnen die Fachbereiche ihre Informationen aus rohen, unstrukturierten und ungefilterten Daten - und das weitgehend sogar in Echtzeit.

Zu verabeiten: Daten in Terabyte-Größe

Diese Datensammlungen und -auswertungen sind dabei nicht trivial, meint Hopkins. In sozialen Netzwerken fielen im Handumdrehen Daten in Terabyte-Größe an. Von denen sei überdies nur ein kleiner Bruchteil überhaupt nützlich, weil er das eigene Unternehmen oder die eigenen Produkte betrifft. Allein beim Kurznachrichtendienst Twitter entstehen laut Hopkins pro Monat 24 Milliarden Einträge. Um daraus Kundenwünsche und -bedürfnisse ermitteln zu können, bedarf es leistungsfähiger BI-Tools.

Ähnlich sieht das beim Verfolgen des eigenen Geschäftsgebarens aus: Das Tracken von Transaktionen jedes Produktes in Echtzeit ist ebenfalls sehr aufwändig. Schließlich gibt es auch bei der Wartung von Anlagen und Maschinen Bedarf für den Umgang mit Big Data: Ein moderner Flugzeugmotor etwa produziert rund 20 Terabyte Daten pro Stunde. Wenn Ingenieure diese Daten in Echtzeit auswerten können, ist das für die Sicherheit von Flugzeugen sicher eine ziemlich gute Sache.

Aber so toll moderne BI auch ist: In einen Abgesang auf traditionelles BI möchte Brian Hopkins dennoch nicht einstimmen. Noch immer gebe es im normalen Geschäftsleben genügend Anwendungsfälle für strukturierte Abfragen aus strukturierten Daten. Zudem befindet er, dass die neuen Tools für die Echtzeitanalysen von Big Data noch nicht den gewünschten Reifegrad hätten, der für den Praxiseinsatz nötig sei.

So seien zwar virtuelle Infrastrukturen in verteilten Umgebungen weitgehend verfügbar, die man für die Arbeit mit wechselnden Datenmengen brauche. Dafür fehle es bisher an Tools für intelligentes Workload-Management, also für den Umgang mit wechselnden Anforderungen. Allerdings bessere sich sich die Situation durch Angebote wie Infrastructure-as-a-Service und Cloud Computing.