Datenlawinen richtig managen

Big Data verbessert Marktchancen

Dr. Ferri Abolhassan ist promovierter Informatiker, langjähriges Mitglied der Geschäftsführung und Leiter der IT Division der T-Systems International GmbH. Als Autor und Herausgeber einschlägiger Fachliteratur befasst er sich mit den aktuellsten Trends innerhalb der Branche und berichtet aus der Praxis – so u. a. in Hinblick auf die Einsatzmöglichkeiten digitaler Technologien in der Industrie.
Die Herausforderung von Big Data besteht darin, relevante Daten für eine effiziente Geschäftsstrategie zu erkennen. Allerdings ist es komplex, die richtigen Informationen aus einer unübersichtlichen Datensammlung zu filtern. Diese Anforderung zu meistern wird für Unternehmen wettbewerbskritisch.

Welche Produkte kauft der Konsument von morgen? Über welche Dienstleistungen und Services diskutiert die Zielgruppe? Und wie sehen die Trends der Zukunft aus? Die Antworten auf diese geschäftskritischen Fragen liefern Datensammlungen, die jeder Mensch in seinem Online-Alltag produziert. Fast unvorstellbar große Datenlawinen entstehen so weltweit. Die große Herausforderung für Unternehmen besteht darin, die Spreu vom Weizen zu trennen und relevante Daten für eine effiziente Geschäftsstrategie zu erkennen.

Weltweit generieren Personen und Prozesse neue Daten und stellen damit Rekorde auf: 350 Billionen Meter Dokumente, 5 Millionen abgeschlossene Transaktionen pro Sekunde, 500 Millionen Online-Verbindungen und mehr noch. Hinter der Datenflut stecken Massen von strukturierten und unstrukturierten Daten aus Simulationen und Modellberechnungen, Sensoren und Social Media. Dazu gehören beispielsweise Facebook-User, die mit ihren Kommentaren und "Likes" auch Markttrends diktieren, oder Konsumenten, die ihren Verbrauch über intelligente Stromsysteme regulieren. Viele IT-Systeme sind aber mit der Erfassung der schieren Menge an Informationen beziehungsweise mit der Verwertung der Daten überfordert.

Kein Buch mit sieben Siegeln

Aus diesen Gründen steht bei vielen Entscheidern und IT-Verantwortlichen, die ihre Prozesse und Angebote optimieren möchten, eine Big-Data-Lösung auf der Agenda. Laut einer TNS-Infratest-Studie im Auftrag von T-Systems, bei der mehr als 1.000 IT- und Fachentscheider befragt wurden, hat Big Data sogar Themen wie Outsourcing oder Collaboration in ihrer Relevanz überholt. Die Befragung wurde in Unternehmen mit mehr als 5.000 Mitarbeitern in insgesamt neun Ländern erhoben, darunter in Branchen wie Manufacturing, Automotive, Versorger, Handel, Telekommunikation/IT, Banken sowie Versicherungen und unternehmensbezogene Dienstleistungen wie dem öffentlichen Sektor.

Wichtig: Die Bedeutung von In-Memory-Technologien ist hoch.
Wichtig: Die Bedeutung von In-Memory-Technologien ist hoch.
Foto: TNS Infratest

Um ihre Geschäftsprozesse optimal zu unterstützen und zu steuern, müssen Unternehmen sämtliche anfallenden Informationen schnell und spontan verarbeiten können, selbst wenn diese aus verschiedenen Datenquellen stammen. Wer aus seinen Daten aber die richtigen Schlüsse zieht, gewinnt lukrative Erkenntnisse: Beispielsweise ist durch eine umfangreiche Analyse die globale Sicht auf sämtliche Vertriebsinformationen eines Unternehmens möglich. Daraus resultierend sind niedrigere Lagerhaltungskosten, schnellere Prozesse sowie eine effizientere Absatzplanung möglich.

Damit ist das Potenzial von Big Data aber noch lange nicht ausgeschöpft. Gerade mit Blick auf künftige Markttrends, Absatzmärkte oder die eigene Außenwahrnehmung sind gewaltige Steigerungspotenziale möglich. Dabei spielen vor allem Informationen, die das Web 2.0 generiert, eine bedeutende Rolle. Anbieter und Kunden begegnen sich auf Augenhöhe, und dies stellt Unternehmen ungeschönte und wertvolle Informationen ihrer Kunden zur Verfügung. Richtig extrahiert und analysiert, sind die gewonnenen Informationen aus den sozialen Medien äußerst wertvoll. So erkennen Unternehmen künftige Entwicklungen, aber auch Krisenherde frühzeitig und können entsprechende Maßnahmen vorbereiten. Wer hier vor den Wettbewerbern agiert, ist klar im Vorteil.

Licht ins Dunkel bringen

Die Informationen liegen allerdings nicht geordnet vor, sondern fließen unstrukturiert und in Massen - allein der Dienst Twitter generiert 12 Terabyte Daten pro Tag. Unternehmen benötigen also eine Big-Data-Lösung, die auch größte Datenmengen mühelos durchforstet und auswertet. Ein gutes Beispiel dafür ist ein Hadoop-Cluster, das komplementär zu anderen Big-Data-Anwendungen ist. Im Grunde wirkt das Framework wie ein Schwamm, der Informationsfluten aus vielen verschiedenen Quellen aufsaugt und strukturiert. Zusätzlich erlaubt er es, in Verbindung mit entsprechenden Analytics-Lösungen, relevante Daten nicht nur nahezu in Echtzeit und rückblickend zu analysieren, sondern auch Prognosen und Analysen über das Verhalten von Konsumenten zu erstellen. Damit vereint die Anwendung Effizienz, Flexibilität sowie Schnelligkeit und bietet Unternehmen geschäftsentscheidende Einblicke in die Zukunft - und das alles anonymisiert.

Auswertungen in Rekordzeit dank In-Memory-Technologie

Wenn es um eine rasante Auswertung von Daten geht und Millisekunden zählen, liegt mit In-Memory Computing (wie etwa SAP HANA) eine Ergänzung zu einem Hadoop-Framework vor. Durch die exakte und schnelle Verarbeitung der Daten eignet sich diese Lösung vor allem für Bereiche, in denen Anwender auf Analysen in Echtzeit angewiesen sind - beispielsweise im Investment Banking, bei der Erkennung von Betrug bei Online-Überweisungen oder an der Strombörse. Dieser Prozess hält sämtliche Daten im Hauptspeicher vor. Unternehmen profitieren von schnellen Echtzeitanalysen, optimierter Planung sowie Simulation, besserem Monitoring und neuen Geschäftsprozessen. Weitere Vorteile entstehen vor allem durch die Kombination der verschiedenen Technologieansätze, je nach Anwendungsfall.

Ein Hauptargument gegen In-Memory-Technologien ist für die meisten Unternehmen allerdings immer noch der Kostenaspekt. Gerade mittelständische Firmen schlagen diesen Weg daher gar nicht erst ein. Hinzu kommt, dass In-Memory-Lösungen häufig bei 6 bis 8 Terabyte bereits an ihre Grenzen stoßen und damit nur für einen bestimmten Datenrahmen geeignet sind. Wer auf die Analyse größerer Datenmengen und einen Langzeitspeicher angewiesen ist, greift daher auf einen Hadoop-Cluster zurück.