Erfolgsfaktor Expertenwissen

Big Data ist kein Autopilot für das Business

14.05.2013 von Jan-Bernd Meyer
Ist Big Data wegen hoher Hard- und Softwareanforderungen nur etwas für große Unternehmen? Weit gefehlt, sagt Joseph Reger, Chief Technology Officer bei Fujitsu, im Gespräch mit CW-Redakteur Jan-Bernd Meyer.

CW: Big Data wird gerne mit Business Intelligence in einen Topf geworfen. Worin unterscheidet sich Big Data elementar von BI?

"Mit Open-Source-Tools können auch KMU Analytics nutzen." Joseph Reger, Fujitsu Siemens.
Foto: Fujitsu Siemens

Reger: Business Intelligence beruht auf teilweise sehr unterschiedlichen Datenarten und großen Datensätzen. Diese konnte man bisher nicht mit herkömmlichen Werkzeugen wie Datenbanken oder einem Business Warehouse Accelerator bearbeiten - zumindest nicht wirtschaftlich. Zudem ergeben Auswertungen sehr großer Datensätze sicherere Aussagen als Statistiken, die auf kleinen Datenmengen basieren. Big Data macht diese neue Art von Business Intelligence nun auch für kleinere Budgets zugänglich.

CW: Big Data wird bisweilen mit den vier Schlüsselbegriffen Volume, Velocity, Variety und Veracity charakterisiert. Umfang, Schnelligkeit und Vielfalt sind selbsterklärend, der vierte Begriff, Wahrhaftigkeit, erstaunt jedoch. Umfragen zufolge traut jeder dritte Manager nicht den Informationen, auf deren Basis er Entscheidungen trifft. Heißt das, alle bislang - auch via BI - vorliegenden Daten sind unzuverlässig? Und wenn das so ist, wieso sollte Big Data an diesem Zustand etwas ändern?

Reger: Interessant - diese Aussage war mir so noch nicht bekannt. Der Unterschied zwischen BI und Big Data liegt im Endeffekt darin, dass die heutigen BI-Statistiken meist auf kleinen Datensätzen aus der Vergangenheit beruhen. Das kann zu unsicheren Vorhersagen über zukünftige Ereignisse führen. Big Data kann die Treffsicherheit durch einen Blick auf sehr viele, in manchen Fällen sogar auf alle Daten deutlich erhöhen. Weiter können mit effizienten Big-Data-Tools Datensätze vorab auf ihre Qualität untersucht werden. Dieses Data Cleaning, Data De-Dubbing, Data Pre-Processing war bisher sehr zeitaufwendig und damit auch teuer. Big Data liefert also nicht einfach genauere Aussagen anhand von größeren Datenmengen, sondern in vielen Fällen auch andere Aussagen. Damit erhöht sich die Treffsicherheit für zukünftige Ereignisse.

CW: Der Begriff Big Data bedeutet, mit riesigen Datenvolumen zu hantieren und sie zu analysieren.Dazu ist aber ein hoher Hard- und insbesondere Softwareaufwand zu treiben. Mit anderen Worten: Big Data ist eine schöne Vision, aber für kleine und mittelständische Unternehmen nicht zu nutzen, oder?

Reger: Das muss nicht so sein. Für Big Data wurden in den vergangenen Jahren sehr viele neue Werkzeuge entwickelt. Beispielsweise eine große Vielfalt an Open-Source-Tools, die auf standardisierter, einfach skalierbarer Hardware sehr performante und effektive Systeme entstehen lassen. Das versetzt nun auch kleine und mittelständische Unternehmen (KMU) in die Lage, diese Generation von BI und Analytics zu nutzen. So kann die Wirkung von Big Data im Mittelstand noch größer ausfallen als bei Großunternehmen, die schon immer BI betrieben haben.

Mit Big Data bekommt der Mittelstand jetzt völlig neue Möglichkeiten. Denn die neuen Methoden und Optionen von Big Data erlauben auch Mittelständlern einen ersten Versuch.

Was Data Scientists leisten

CW: Natürlich kann man anstelle von kostspieligen Lösungen wie etwa HANA auch Open-Source-Produkte wie Hadoop nutzen. Wer im Unternehmen auf diese Karte setzt, braucht aber Spezialisten als Entwickler. Was muss ein Big-Data-Spezialist an Rüstzeug mitbringen, um ein Unternehmen in die Lage zu versetzen, die Versprechen von Big Data zu nutzen?

Reger: Ein guter Technologiepartner ist wichtig - im BI-Umfeld sehen wir schon lange Expertenwissen als sehr wichtigen Erfolgsfaktor. Diese Data Scientists sollten gleichzeitig Technik- und Business-Kenntnisse haben - zumindest im Team. Statistik- und Marketing-Know-how sind zusätzlich von Vorteil. Zum Glück wurden die Werkzeuge - auch im Open-Source-Bereich - inzwischen mit sehr bekannten Interfaces und Abfragemechanismen versehen, die eine herkömmliche beziehungsweise bekannte Bedienung wie etwa SQL auch ohne zwingende Techniktiefe ermöglichen. IT-Unternehmen wie Fujitsu haben Pools von Experten, um Kunden bei Big-Data-Projekten zu unterstützen.

CW: Welche Chancen bieten sich mit Big Data realistisch, und was für einen Zeitrahmen sollte sich ein Unternehmen setzen, um Big Data sinnvoll nutzen zu können?

Reger: Mit Big Data kann man Datenmengen sammeln und analysieren, die bisher nicht in Betracht gezogen wurden, da es schlichtweg unwirtschaftlich war. Dies schließt die Einbeziehung von externen Datenquellen ein.

Je nach Problemstellung kann der Zeitaufwand bis zur erfolgreichen Nutzung von Big Data stark variieren. Ansätze wie Big-Data-Appliances mit fertigen Templates und auch Visualisierung führen in vielen Fällen sehr schnell zu ersten Ergebnissen. Unterschiedliche Zeitrahmen sind also möglich, werden aber nicht in Wochen gemessen.

CW: Von welchen Versprechen der Big-Data-Vertreter sollte man sich lieber verabschieden und warum?

Reger: Big Data ist kein Autopilot für ein Business. Die Ergebnisse müssen mit dem Wissen der Geschäfts- und Branchenkenner und natürlich mit gesundem Menschenverstand weiterverarbeitet werden. Und: Big ist gut, aber besser ist besser. Denn wie immer geht es nicht nur um die Menge, sondern auch um die Qualität der Daten.

Impressionen vom Big Data Award 2012
Impressionen vom Big Data Award 2012
Professor Andreas Seufert, Direktor am Institut für Business Intelligence an der Steinbeis Hochschule Berlin, eröffnete das Vortragsprogramm mit einem umfassenden Überblick zum Thema Big Data.
Impressionen vom Big Data Award 2012
Der Kampf gegen die Uhr: Zehn beziehungsweise sechs Minuten hatten die Vortragenden Zeit, ihre Projekte beziehungsweise Tools vorzustellen.
COMPUTERWOCHE-Redakteur Martin Bayer ...
... führte durch den Big Data Award 2012.
Impressionen vom Big Data Award 2012
Cafer Tosun (re.), Senior Vice President und Managing Director im SAP Innovation Center, erläuterte wie SAPs neue In-Memory-Technik funktioniert.
Impressionen vom Big Data Award 2012
Zahlreiche Besucher konnten sich an den Ausstellungsständen über neue Techniken und Lösungen rund um Big Data informieren.
Impressionen vom Big Data Award 2012
Eine hochkarätige Jury (v.r.n.l.: Andreas Zilch, Experton Group, Norbert Deuschle, Storage Consortium, Prof. Andreas Seufert, Alexander Neff, Universität St. Gallen, und Carsten Bange, BARC) bewertete die Projekte und Tools.
Impressionen vom Big Data Award 2012
Der zweitägige Big-Data-Kongress der COMPUTERWOCHE fand 2012 im K39 in Offenbach statt.
Impressionen vom Big Data Award 2012
Viele Teilnehmer machten mit und beteiligten sich an der Wahl der Publikumsfavoriten.
Impressionen vom Big Data Award 2012
Auch das Publikum war aufgerufen, ihre Favoriten für die beiden Publikumspreise zu wählen: Es gewannen die The unbelievable Machine Company GmbH und die Talend GmbH.
Michael Beilfuss, IDG, ...
... läutete die Preisverleihung auf dem Gala-Abend am ersten Tag ein.
Impressionen vom Big Data Award 2012
Melanie Krüp vom Veranstalter HG-Editors spielte die Glücksfee für die Verlosung eines Lenovo-Ultrabooks, das Sponsor Intel zur Verfügung gestellt hatte.
Impressionen vom Big Data Award 2012
v.l.n.r. Martin Bayer, Redakteur Computerwoche; Jörg Bienert, CTO und Mit-Gründer von Parstream; Andreas Zilch, Vorstand und Lead Advisor der Experton Group AG.
Impressionen vom Big Data Award 2012
v.l.n.r. Martin Bayer, Redakteur Computerwoche; Martin Lange, Business Development Manager der Talend GmbH; Andreas Zilch, Vorstand und Lead Advisor der Experton Group AG.