Datenlawinen richtig managen

Big Data verbessert Marktchancen

09.10.2013 von Dr. Ferri Abolhassan
Die Herausforderung von Big Data besteht darin, relevante Daten für eine effiziente Geschäftsstrategie zu erkennen. Allerdings ist es komplex, die richtigen Informationen aus einer unübersichtlichen Datensammlung zu filtern. Diese Anforderung zu meistern wird für Unternehmen wettbewerbskritisch.

Welche Produkte kauft der Konsument von morgen? Über welche Dienstleistungen und Services diskutiert die Zielgruppe? Und wie sehen die Trends der Zukunft aus? Die Antworten auf diese geschäftskritischen Fragen liefern Datensammlungen, die jeder Mensch in seinem Online-Alltag produziert. Fast unvorstellbar große Datenlawinen entstehen so weltweit. Die große Herausforderung für Unternehmen besteht darin, die Spreu vom Weizen zu trennen und relevante Daten für eine effiziente Geschäftsstrategie zu erkennen.

Weltweit generieren Personen und Prozesse neue Daten und stellen damit Rekorde auf: 350 Billionen Meter Dokumente, 5 Millionen abgeschlossene Transaktionen pro Sekunde, 500 Millionen Online-Verbindungen und mehr noch. Hinter der Datenflut stecken Massen von strukturierten und unstrukturierten Daten aus Simulationen und Modellberechnungen, Sensoren und Social Media. Dazu gehören beispielsweise Facebook-User, die mit ihren Kommentaren und "Likes" auch Markttrends diktieren, oder Konsumenten, die ihren Verbrauch über intelligente Stromsysteme regulieren. Viele IT-Systeme sind aber mit der Erfassung der schieren Menge an Informationen beziehungsweise mit der Verwertung der Daten überfordert.

Kein Buch mit sieben Siegeln

Aus diesen Gründen steht bei vielen Entscheidern und IT-Verantwortlichen, die ihre Prozesse und Angebote optimieren möchten, eine Big-Data-Lösung auf der Agenda. Laut einer TNS-Infratest-Studie im Auftrag von T-Systems, bei der mehr als 1.000 IT- und Fachentscheider befragt wurden, hat Big Data sogar Themen wie Outsourcing oder Collaboration in ihrer Relevanz überholt. Die Befragung wurde in Unternehmen mit mehr als 5.000 Mitarbeitern in insgesamt neun Ländern erhoben, darunter in Branchen wie Manufacturing, Automotive, Versorger, Handel, Telekommunikation/IT, Banken sowie Versicherungen und unternehmensbezogene Dienstleistungen wie dem öffentlichen Sektor.

Wichtig: Die Bedeutung von In-Memory-Technologien ist hoch.
Foto: TNS Infratest

Um ihre Geschäftsprozesse optimal zu unterstützen und zu steuern, müssen Unternehmen sämtliche anfallenden Informationen schnell und spontan verarbeiten können, selbst wenn diese aus verschiedenen Datenquellen stammen. Wer aus seinen Daten aber die richtigen Schlüsse zieht, gewinnt lukrative Erkenntnisse: Beispielsweise ist durch eine umfangreiche Analyse die globale Sicht auf sämtliche Vertriebsinformationen eines Unternehmens möglich. Daraus resultierend sind niedrigere Lagerhaltungskosten, schnellere Prozesse sowie eine effizientere Absatzplanung möglich.

Damit ist das Potenzial von Big Data aber noch lange nicht ausgeschöpft. Gerade mit Blick auf künftige Markttrends, Absatzmärkte oder die eigene Außenwahrnehmung sind gewaltige Steigerungspotenziale möglich. Dabei spielen vor allem Informationen, die das Web 2.0 generiert, eine bedeutende Rolle. Anbieter und Kunden begegnen sich auf Augenhöhe, und dies stellt Unternehmen ungeschönte und wertvolle Informationen ihrer Kunden zur Verfügung. Richtig extrahiert und analysiert, sind die gewonnenen Informationen aus den sozialen Medien äußerst wertvoll. So erkennen Unternehmen künftige Entwicklungen, aber auch Krisenherde frühzeitig und können entsprechende Maßnahmen vorbereiten. Wer hier vor den Wettbewerbern agiert, ist klar im Vorteil.

Erfahrungen beim Einsatz von Big-Data-Techniken
Es ist nicht so, dass noch niemand Big-Data-Projekte angegangen wäre. Es gibt sogar einige Beispiele von Unternehmen, die solche Projekte mit Erfolg absolviert haben.
Deutsche Welle
„Essenziell auch für Big-Data-Projekte sind eine klare Aufgabenstellung, Fokus auf die Lösung und die Nutzer dieser Lösung (weniger auf neueste Informationstechnik) und nicht zuletzt auch ein Gespür für Usability und Funktionsumfang eines Reporting-/Analyse-Dashboards. Weniger ist hier meistens mehr.“
DeutschlandCard GmbH
„Nur ein minutiöser Migrationsplan mit mindestens einer kompletten Generalprobe inklusive Fallback-Test sichert die Betriebssicherheit einer solch komplexen Applikation mit ihren zahlreichen Schnittstellen zu externen Partnern.“
Schukat Electronic
„Big Data Analytics ist nicht nur eine Herausforderung für Großunternehmen. Auch der Mittelstand muss sich immer mehr mit diesem Thema beschäftigen, um im internationalen Wettbewerb erfolgreich zu sein. Das Anwendungsbeispiel verdeutlicht den Nutzen im Vertrieb. Aber beispielsweise auch in der Produktion mit Sensordaten etc. gibt es vielfältige Szenarien in den Fachabteilungen.“
Otto Versand
„Wir haben erkannt, dass für unsere Anforderungen ein selbstlernendes System notwendig ist, das sich stetig ändernde Einflussfaktoren wie Ansprache und Artikel- Ranking oder im Printbereich Seitenanteil und Katalogausstoßmenge berücksichtigt. Damit steigt unsere Prognosequalität kontinuierlich, und die prognostizierten Absatzmengen werden immer präziser. Außerdem können wir uns frühzeitig auf künftige Entwicklungen einstellen.“
Macy‘s
„Der Business-Nutzen zeigt sich erst, wenn Prozesse, die aufgrund fehlender Möglichkeiten bewusst eingeschränkt waren, verbessert werden. In diesem Fall ist es die früher gar nicht mögliche, sehr viel häufigere Preisoptimierung im Gesamtsortiment. Auch können nun sehr viel aktuellere Abverkaufszahlen mit in die Analyse einbezogen werden.“
Telecom Italia
„Bestehende Segmentierungsmodelle können um rollenbasierte Modelle erweitert werden, indem der Einfluss auf das soziale Umfeld durch Leader, Follower etc. verdeutlicht wird. Leader gelten als Kommunikations-Hubs und haben einen starken Entscheidungseinfluss auf ihr Umfeld. Marketing- Strategien und Ansätze zur Kundenakquise können durch SNA optimiert werden. Eigenschaften der Communities, Wechsel zwischen den Communities und die Identifikation von Teilnehmern in Schnittstellenbereichen ermöglichen Rückschlüsse auf neue Kundensegmente und Zielgruppen.“
Netapp
„Das auf Apache Hadoop basierende System arbeitet sicher, zuverlässig und höchst performant. Die Java-basierende Plattform verwendet offene Technologien und ist somit flexibel erweiterbar. Kunden vermeiden so bei niedrigen Betriebskosten (TCO) ein Vendor-Lock-in.“
Semikron GmbH
„Big-Data-Projekte sind komplex. Oft sind Unternehmen nicht in der Lage, ihre tatsächlichen Datenbestände für die geplanten Projektvorhaben hinsichtlich ihrer Volumenentwicklung abzuschätzen. Bei Semikron hat sich beispielsweise gezeigt, dass sie von einem viel größeren Datenvolumen ausgegangen sind, als es tatsächlich der Fall war. Bei dem durchgeführten Proof of Concept stellte sich heraus, dass zwar die Vielzahl an Daten, die in den typischen Produktionsprozessen anfallen, sehr hoch ist, nicht aber das Datenvolumen.“
Vaillant Group
„Allein die Umstellung der Systemlandschaft auf innovative Big-Data-Architekturen aus technischer IT-Perspektive ergibt belastbare Business Cases zur Reduzierung des TCO. Noch deutlich übertroffen werden für Fachabteilungen die Resultate aus dem Mehrwert der neuen Lösungen und Möglichkeiten in Verbindung mit der drastischen Reduzierung der Bearbeitungszeiten durch die Anwender.“
TomTom
„Um die kompletten Anforderungen des Kunden in Big- Data-Projekten erfüllen zu können, ist übergreifendes Know-how erforderlich, das die Konfiguration von Hard- und Software, das Tuning und technisches Consulting umfasst.“
United Overseas Bank (Singapur)
„Entscheidend ist das Denken in Geschäftsprozessen. Wird nur ein Teil beschleunigt, der Gesamtprozess bleibt aber unangetastet, so lässt sich der Vorteil nicht realisieren. Sowohl das Daten-Management im Vorfeld als auch die Echtzeit-Nutzung der Echtzeit-Ergebnisse sind bestimmende Faktoren für den erfolgreichen Einsatz dieser neuen Lösung.“
Xing
„In kürzester Zeit stellten sich positive Effekte bei Xing ein, vor allem eine deutliche Verbesserung bei den Analysen. Prozesse können durch die neue Lösung schneller entwickelt und Ad-hoc Anfragen zügiger beantwortet werden. Es sind keine langen Workarounds mehr notwendig, alle BI-Mitarbeiter nutzen das neue System effektiv. Die Komplexität und die Wartung des Systems wurden merklich verringert. Bei der Arbeit mit der neuen Lösung konnte eine steile Lernkurve seitens der Anwender verzeichnet werden, auch wird spürbar produktiver gearbeitet.“
In eigener Sache:
Mit diesen Anwenderzitaten wollen wir Ihnen Lust machen auf das nächste Heft in unserer vierteiligen Quadriga-Reihe. Titelthema ist Big Data. Anwenderbeispiele, visionäre Konzepte und Meinungen runden das Thema ab. Auch auf die Megatrends Mobility, Cloud Computing und Social Media werden wir wieder eingehen. Erscheinungstermin: 10. Juni 2013.

Licht ins Dunkel bringen

Die Informationen liegen allerdings nicht geordnet vor, sondern fließen unstrukturiert und in Massen - allein der Dienst Twitter generiert 12 Terabyte Daten pro Tag. Unternehmen benötigen also eine Big-Data-Lösung, die auch größte Datenmengen mühelos durchforstet und auswertet. Ein gutes Beispiel dafür ist ein Hadoop-Cluster, das komplementär zu anderen Big-Data-Anwendungen ist. Im Grunde wirkt das Framework wie ein Schwamm, der Informationsfluten aus vielen verschiedenen Quellen aufsaugt und strukturiert. Zusätzlich erlaubt er es, in Verbindung mit entsprechenden Analytics-Lösungen, relevante Daten nicht nur nahezu in Echtzeit und rückblickend zu analysieren, sondern auch Prognosen und Analysen über das Verhalten von Konsumenten zu erstellen. Damit vereint die Anwendung Effizienz, Flexibilität sowie Schnelligkeit und bietet Unternehmen geschäftsentscheidende Einblicke in die Zukunft - und das alles anonymisiert.

Auswertungen in Rekordzeit dank In-Memory-Technologie

Wenn es um eine rasante Auswertung von Daten geht und Millisekunden zählen, liegt mit In-Memory Computing (wie etwa SAP HANA) eine Ergänzung zu einem Hadoop-Framework vor. Durch die exakte und schnelle Verarbeitung der Daten eignet sich diese Lösung vor allem für Bereiche, in denen Anwender auf Analysen in Echtzeit angewiesen sind - beispielsweise im Investment Banking, bei der Erkennung von Betrug bei Online-Überweisungen oder an der Strombörse. Dieser Prozess hält sämtliche Daten im Hauptspeicher vor. Unternehmen profitieren von schnellen Echtzeitanalysen, optimierter Planung sowie Simulation, besserem Monitoring und neuen Geschäftsprozessen. Weitere Vorteile entstehen vor allem durch die Kombination der verschiedenen Technologieansätze, je nach Anwendungsfall.

Ein Hauptargument gegen In-Memory-Technologien ist für die meisten Unternehmen allerdings immer noch der Kostenaspekt. Gerade mittelständische Firmen schlagen diesen Weg daher gar nicht erst ein. Hinzu kommt, dass In-Memory-Lösungen häufig bei 6 bis 8 Terabyte bereits an ihre Grenzen stoßen und damit nur für einen bestimmten Datenrahmen geeignet sind. Wer auf die Analyse größerer Datenmengen und einen Langzeitspeicher angewiesen ist, greift daher auf einen Hadoop-Cluster zurück.

Die Währung der Zukunft verstehen

Ist schließlich die Entscheidung für die Verwendung einer Big-Data-Lösung gefallen, gilt es darauf zu achten, dass Wirtschaftlichkeit und Notwendigkeit Hand in Hand gehen. Daher sollten Unternehmen vor der Integration unbedingt mit dem Reifegrad der Architektur sowie den Systemen für Analyse und Betrieb vertraut sein - denn nicht jede Dienstleistung ist für jeden Anwender gleich gut geeignet.

Zur Bewertung der speziellen Bedürfnisse bietet sich die Analyse durch einen entsprechenden Anbieter an. Dazu erstellt ein Expertenteam einen Maßnahmenplan mit Empfehlungen für die Entwicklung und Umsetzung eines geeigneten Konzepts. Gleichzeitig werden Wege und Potenziale aufgezeigt, wie sich die neue Technik für den Betrieb nutzen lässt. Dabei spielt vor allem die Exaktheit der Analyse eine große Rolle, da eine Vielzahl von Möglichkeiten für die Unternehmen existieren, Big Data effizient zu analysieren. Basierend auf den Ergebnissen entwickeln die Experten schließlich das geeignete Konzept.

Markt für Big Data in Deutschland wächst
2013 steht ganz im Zeichen von Big Data - da sind sich die Experten von Gartner, BARC und Bitkom einig. Immer mehr Anwenderunternehmen nehmen demnach Geld in die Hand und wollen aus ihren Daten Kapital schlagen.







Sicher, schnell und flexibel in der Wolke

Zuverlässige IT-Infrastruktur: Eine sichere und hochtechnologische Basis ist grundlegend in Zeiten von Big Data.
Foto: Deutsche Telekom

Neben der effizienten Speichermethode spielt für viele Entscheider auch die Sicherheit der Daten im Zusammenhang mit Big Data eine wichtige Rolle. Aufgrund der Fülle an Anforderungen bietet es sich für manche Unternehmen an, ihre Infrastrukturen - ob partiell oder vollständig - an externe Dienstleister mit effizienteren und vor allem besser geschützten Infrastrukturen auszulagern. Denn um Daten wirklich verfügbar, sicher und verwendbar zu halten, bedarf es umfassender Maßnahmen sowie hochmoderner Technologien. Das ist für Großkonzerne schon eine Herausforderung und für Mittelständler oft nicht zu leisten - vor allem nicht 24 Stunden am Tag. Mit höchstmöglichen Sicherheitsstandards ist hier die Cloud eine Alternative für die Verlagerung der eigenen Daten und Anwendungen.

Gerade beim Thema Sicherheit vernachlässigen viele die Tatsache, dass der Anstieg des Datenpegels auch die Gefahr des Datenmissbrauchs und des Kontrollverlustes birgt. Es ist daher elementar, dass die Datenanalyse ausschließlich anonymisiert erfolgt und einer Überprüfung durch Datenschutzbeauftrage von Bund oder Ländern jederzeit standhält: Es darf nicht möglich sein, entsprechende Daten einer Person zuzuordnen. Das Design der Lösung muss daher bereits den Datenschutz angemessen berücksichtigen. Bei Big-Data-Anwendungen aus der Wolke fängt das schon beim Standort der IT-Infrastruktur an. So gelten die strengen Regeln beim Datenschutz nicht überall. Die gesetzlichen Vorgaben variieren von Land zu Land und von Wirtschaftsregion zu Wirtschaftsregion erheblich.

Unter dem Strich benötigt ein Unternehmen also auf jeden Fall einen Dienstleister seines Vertrauens, wenn es seine Infrastrukturen aus der Wolke betreiben möchte. Der Provider muss über die entsprechende Expertise, einen geeigneten Standort und zukunftssichere Technologien verfügen, damit die flexible Infrastruktur seinem Kunden auch wirklich einen Wettbewerbsvorteil bringt - vor allem in Zeiten von Big Data.

Die Weichen rechtzeitig stellen

Social Media, Online-Business, Geschäftsdaten - die Informationsflut steigt unaufhörlich und beinhaltet wertvolle Quintessenzen, die jedoch erst entdeckt werden wollen. IT-Verantwortliche und CIOs sind nun am Zug und müssen darauf reagieren - allein um die Wettbewerbsfähigkeit ihrer Unternehmen zu gewährleisten. Nur so erhalten sie zeitnah wertvolle Einblicke in Markttrends, Serviceangebote und die eigene Leistung.

Mit Big Data gewinnen Unternehmen wertvolle Erkenntnisse und sind in der Lage, Kunden neue Services und Produkte anzubieten. Der Einsatz von Big-Data-Anwendungen bildet somit für viele eine Grundvoraussetzung dafür, die Effizienz im eigenen Betrieb zu steigern und konkurrenzfähig zu bleiben. Allerdings gilt es hier den Kosten-Nutzen-Aspekt im Auge zu behalten sowie die Sicherheitsstandards, die die Analyse solcher Daten voraussetzt. Service-Provider bieten entsprechende Lösungen an, die wirtschaftlich bleiben und in Hinblick auf die Datenschutzgesetze sämtliche Anforderungen erfüllen. So lässt sich mithilfe eines Integrationspartners die Schlagkraft erhöhen. Sicherheit, Hochverfügbarkeit und Flexibilität tragen so entscheidend zum Erfolg eines Projekts bei.

Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation TecChannel. (mhr)