Top 100 - Big Data

Vielfalt und Spezialisierung

01.10.2014 von Holm Landrock
Die Ergebnisse des Big Data Vendor Benchmarks Deutschland 2015 zeigen ein deutliches Bild: Diesmal wurden nahezu doppelt so viele Unternehmen bewertet wie im Vorjahr, und es ist Bewegung im Markt.

Die Vorjahresausgabe des Big Data Vendor Benchmarks wurde im Juli 2013 veröffentlicht. Damit umfasst der Vergleichszeitraum etwa ein Jahr. Konnten sich 2013 aus einer Bruttomenge von knapp 140 Unternehmen nur 68 für eine Bewertung qualifizieren, so hat die Experton Group in diesem Jahr über 122 von ursprünglich mehr als 200 Unternehmen bewertet. Damit können die Anwender aus einem nahezu doppelt so großen Pool mit Big-Data-Lösungsanbietern und -Dienstleistern auswählen.

Big Data Vendor Benchmark 2015
Top 100 - Big Data
Die Ergebnisse des Big Data Vendor Benchmarks Deutschland 2015 zeigen ein deutliches Bild: Diesmal wurden nahezu doppelt so viele Unternehmen bewertet wie im Vorjahr, und es ist Bewegung im Markt.
Big Databases & Data Management Solutions
Big Data Operations

Berücksichtigt man alle Bewertungskategorien, lässt sich heute grundsätzlich sagen: Viele Unternehmen haben inzwischen ein gutes bis sehr gutes Angebot. Das liegt daran, dass Big Data keine völlige Neuerfindung ist, sondern eine Weiterentwicklung von Business Intelligence, Business Analytics und Data Warehousing. Die Kombination dieser Lösungen mit aktuellen Technologien beispielsweise aus dem Supercomputing führt dazu, dass die Angebote jetzt auch für die Verarbeitung enorm großer Datenvolumina geeignet sind.

"Deep Dive into the Data Ocean"

Doch auf dem Weg zu großen, automatisierten Analysen über Terabytes und Petabytes an Daten hinweg gilt es noch immer ein paar Stolpersteine zu überwinden. So gibt es doch noch einige Unternehmen, deren Lösungen eigentlich eine Teilmenge an Daten aus dem riesigen theoretischen Daten-Repository herausziehen, um dort mit praktischen GUIs den "Deep Dive into the Data Ocean" zu praktizieren. Heraus kommt dann eben hin und wieder doch Small Data - dafür Laptop, Tablet und PC für die Auswertungen.

Weniger positiv zeichnet sich in einigen Bereichen das Bild der Marktdynamik: Unternehmen, die im Vorjahreszeitraum teilweise eine gewaltige Produkt- und Servicemaschinerie aufgestellt und angeworfen haben, konnten im jüngsten Beobachtungszeitraum (Juli 2013 bis Juni 2014) kaum noch Neues hervorbringen. Das ist jedoch verständlich, weil selbst die großen Player im Markt nicht pausenlos neue Produkte anbieten können.

Leider fehlt aber mitunter der Beweis, dass die entwickelten Produkte vom Markt angenommen worden sind. Referenzprojekte werden von den Anbietern nur zögerlich genannt. Ein Grund dafür mag sein, dass Kunden die Wettbewerbsvorteile aus ihren Big-Data-Anwendungen nicht öffentlich preisgeben möchten. Die geringe Anzahl an Referenz- und Pilotprojekten könnte aber auch dadurch bedingt sein, dass in Deutschland eine vorsichtige Investitionsmentalität herrscht und die Unternehmen Angst haben, Geld für neue, noch nicht vollständig erforschte Big-Data-Lösungen auszugeben.

Zu den Anbietern, die in verschiedenen Kategorien des Benchmarks gut abschneiden, gehört in jedem Fall T-Systems. Dort wurde als wesentliche Neuerung zum Vorjahres-Benchmark eine Hadoop-as-a-Service-Plattform (Kategorie "Big Data Operations") entwickelt, die technisch ausgereift ist und im Serviceangebot ans Optimum heranreicht. Weil wichtige Aspekte wie das "deutsche" Netz der Muttergesellschaft Telekom und die in Deutschland befindlichen Rechenzentren in den 100 Einzelmerkmalen mit bewertet werden, ergibt sich für T-System eine sehr gute Position.

Aber auch SAP-Systemhäuser wie All for One Steeb und Itelligence erlangen mit einem durchdachten Serviceangebot, deutschen Rechenzentren sowie HANA-Lösungsangeboten sehr gute Positionen. Ebenso hat Hewlett-Packard sein Offering in eine attraktive Gesamtform gegossen. Einige Anbieter haben ihre Produkte und Lösungen für Big-Data-Aufgaben entsprechend den technischen Fortschritten bei den Basistechnologien weiterentwickelt.

Glossar zu Big Data und Data Analytics
Predictive Analytics
das Treffen von Prognosen durch die Analyse von Daten. Im Gegensatz zur Analyse historischer Zusammenhängen und Erkenntnissen; auch durch die Analyse von Daten, die möglicherweise urächlich nicht miteinander in Zusammenhang stehen (Quelle: Bitkom)
Open Source
quelloffene Werke, zum Beispiel Software bei der man den Quellcode erhält (Quelle: Bitkom)
Open Data
Konzept zum Zugang zu hoheitlichen Daten zu jedermann, beispielsweise Auskunft über die bei einer Meldestelle gespeicherten Daten über einen Bürger und die Einrichtungen, an die die Daten übermittelt worden sind. (Quelle: Bitkom)
Metadaten
Daten zur Beschreibung von Daten, unter anderem, um Datenmodelle zu entwickeln. (Quelle: Bitkom)
Mahout
wörtlich: Elefantentreiber; hier: eine Apache-Komponente zum Aufbau von Bibliotheken für das Machine Learning MapReduce Verfahren zur Datenverwaltung und Indizierung (Quelle: Bitkom)
Machine Learning
Oberbegriff für die künstliche Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann nach Beendigung der Lernphase verallgemeinern. Das System „erkennt“ Gesetzmäßigkeiten und kann somit auch unbekannte Daten beurteilen. (siehe Wikipedia). (Quelle: Bitkom)
Lustre
Linux-basierendes Betriebssystem für den Betrieb von Cluster-Architekturen (Quelle: Bitkom)
Lambda-Architektur
Eine konstruktiv nutzbare Vorlage für den Entwurf einer Big-Data-Anwendung. Die in der Architektur vorgesehene Modularisierung spiegelt typische Anforderungen an Big-Data-Anwendungen wider und systematisiert sie. (Quelle: Bitkom)
In-Memory
Bei In-Memory werden die Daten nicht physisch auf Datenträger gespeichert und wieder ausgelesen, sondern im Arbeitsspeicher gehalten und dadurch mit sehr hoher Geschwindigkeit verarbeitet. (Quelle: Bitkom)
HANA
Ursprünglich: High-Performance Analytical Appliance; ein von SAP entwickeltes Produkt zum Betrieb von Datenbanken im (sehr großen) Hauptspeicher eines Computersystems (Quelle: Bitkom)
Hadoop
Open-Source-Version des MapReduce-Verfahrens, in verschiedenen Distributionen erhältlich. (Quelle: Bitkom)
Fraud Detection
Erkennung von Betrugsversuchen durch die Analyse von Transaktionen und Verhaltensmustern (Quelle: Bitkom)
Eventual Consistency
Eine Schnittmenge des CAP-Modells hinsichtlich der ereignisbezogenen Konsistenz von Modellen. (Quelle: Bitkom)
Data Science
Datenkunde: die Kenntnis bzw. Anwendung neuer Verfahren zur Arbeit mit Daten und Informationen, z.B. Verwendung semantischer Verfahren oder die Erschließung neuer Datenquellen (Sensordaten) und die Erarbeitung von Mustern oder statistischen Verfahren zur Auswertung solcher Daten. (Quelle: Bitkom)
Data Mining
Anwendung statistischer Methoden auf sehr große Datenmengen, bspw. Im Gegensatz zur manuellen Auswertung über Funktionen eines Tabellenkalkulationsprogrammes (Quelle: Bitkom)
Data Management
Methoden und Verfahren zur Verwaltung von Daten, oft über Metadaten (Daten, die Daten beschreiben) (Quelle: Bitkom)
Customer Analytics
Gewinnung von Erkenntnissen über das Kundenverhalten (überwiegend in Consumer-orientierten Unternehmen), beispielsweise mit dem Ziel der Entwicklung massenindividualisierter Produkte und Dienstleistungen (Quelle: Bitkom)
CEP
Sammelbegriff für Methoden, Techniken und Werkzeuge, um Ereignisse zu verarbeiten, während sie passieren. CEP leitet aus Ereignissen höheres Wissen in Form von komplexen Ereignissen ab, d. h. Situationen, die sich nur als Kombination mehrerer Ereignisse erkennen lassen (vgl. Wikipedia). (Quelle: Bitkom)
Complex Event Processing (CEP)
Complex Event Processing (CEP, Verarbeitung komplexer Ereignisse) ist ein Themenbereich der Informatik, der sich mit der Erkennung, Analyse, Gruppierung und Verarbeitung voneinander abhängiger Ereignisse beschäftigt. (Quelle: Bitkom)
CEPH
ein Dateisystem, das gleichzeitig Objekte, Dateien und Datenblöcke verwalten kann (Quelle: Bitkom)
CAP-Theorem
Laut dem CAP-Theorem kann ein verteiltes System zwei der folgenden Eigenschaften erfüllen, jedoch nicht alle drei: C = Consistency = Konsistenz, A = Availability = Verfügbarkeit, P = Partition Tolerance = Partitionstoleranz (siehe Wikipedia)
Business Intelligence
Gewinnung von Erkenntnissen über Zusammenhänge zwischen Informationen aus polystrukturierten Daten aus unterschiedlichsten Quellen (Quelle: Bitkom)
Broker
Makler/Buchmacher, hier: Rolle des Übermittlers von Daten zwischen Quelle und Anwender Business Analytics Ermittlung von Kennzahlen für Unternehmen, durch die Analyse größerer Datenmengen mit dem Ergebnis neuer Erkenntnisse aufgrund einer breiteren Datenbasis. (Quelle: Bitkom)
Big Data
die Gewinnung neuer Informationen – die in kürzester Zeit sehr vielen Nutzern zur Verfügung stehen müssen – mittels enorm großer Datenbestände aus unterschiedlichsten Quellen, um dadurch schneller wettbewerbskritische Entscheidungen treffen zu können. (Quelle: Bitkom)
Analytics Appliance
vorkonfigurierte oder paketierte Lösungen aus Hardware und Software für die Koordinierung von polystrukturierten Daten, die Ausführung von Analysen und die Präsentation der Erkenntnisse. (Quelle: Bitkom)
Analytics Analyse
Gewinnung von Erkenntnissen durch komplexe Abfragen auf polsystrukturierte Daten, Datenbanken und Data-Warehouses mit spezifischen Abfragesprachen wie SQL oder Pig. (Quelle: Bitkom)

Der Big-Data-Markt läuft erst noch an

Während einige Indikatoren darauf hinweisen, dass der Big-Data-Markt auch in diesem Jahr insgesamt noch recht unreif ist, sind neben den schon erwähnten Service-Offerings auch viele Datenbanklösungen recht ausgereift.

Hier teilen sich auf Big-Data-Bedarfe erweiterte relationale SQL-basierende Datenbanken das Feld mit In-Memory-Konzepten, Not-only-SQL-Datenbanken und spaltenorientierten Datenbanken. Interessant ist, dass in den 70er Jahren entwickelte Konzepte jetzt durch das Plus an verfügbarer Rechenleistung wieder da sind. Deutlich weiterentwickelt hat sich beispielweise die Kölner Parstream, die nach der anfänglichen Konzentration auf den amerikanischen Markt in den vergangenen Monaten auch Deutschland ins Visier genommen hat.

Sieben Geschäftsmodelle für Big Data
Sieben Geschäftsmodelle für Big Data
Die von BCG identifizierten sieben Haupterfolgsmodelle beinhalten eine Mischung aus B2C- und B2B-Angeboten.
1. Build to Order:
Produkte und Services werden für Kunden maßgeschneidert - zum Beispiel, indem aus Location-Daten verschiedener GPS-Geräte eine individualisierte Verkehrsanalyse für ein städtische Planungsabteilung entwickelt wird. Vorteile dieses Modells seien der besondere Wert der Leistungen und die gesteigerte Kundenzufriedenheit. Dafür müssen die Kunden aber längere Wartezeiten in Kauf nehmen; überdies lassen sich die speziellen Produkte und Leistungen nur schwer weiterverkaufen.
2. Service Bundle:
Verschiedene Angebote werden miteinander verschmolzen. Energiehändler können beispielsweise die Gas- und Stromversorgung und die Energiesparberatung zu einem Service-Paket schnüren. Das kann laut BCG sehr profitabel sein, Konkurrenz aus dem Markt treiben und Cross-Selling-Möglichkeiten eröffnen. Hinterher ist es aber schwierig, die Verkaufspakete wieder aufzulösen. Und den Kunden muss nicht schmecken, dass sie den Wert der einzelnen Komponenten nicht mehr mühelos in Erfahrung bringen können.
3. Plug and Play:
Hier gibt es das immer gleiche Produkt für alle Kunden. Banken können beispielsweise Berichte über das Ausgabenverhalten ihrer Kunden verkaufen, die auf Basis gesammelter und anonymisierter Daten erstellt werden. Derartige Angebote lassen sich leicht zusammenstellen. Die Gefahr: Die Kunden könnte Personalisierung vermissen - und eventuell zur Konkurrenz flüchten.
4. Pay per Use:
Bezahlt wird nur, was auch gebraucht wird. BCG nennt als Beispiel ortsabhängige Skisportversicherungen. So lassen sich gute Margen realisieren; allerdings fehlen stabile Umsatzquellen - und die Akquisitionskosten können ausufern.
5. Commission:
Dauerhaftere Beziehungen lassen sich auf andere Weise etablieren. Zum Beispiel, indem Banken Kreditkartentransaktionen analysieren und Lokalen und Geschäften gegen Gebühr Rabatte gewähren. Diese basieren dann auf den generierten Umsätzen. Das Problem laut BCG ist hier die mangelnde Berechenbarkeit der Geldflüsse.
6. Value Exchange:
In diesem Modell bietet ein Dritter, der zwischen Unternehmen und Kunde steht, Rabatte oder zusätzliche Services an. So lassen sich die vom Marketing gewünschten Gruppen gezielt ins Visier nehmen. Langfristig kann es auch BCG-Sicht aber unerwünscht sein, bei diesen Geschäften einen weiteren Partner im Boot zu haben.
7. Subscription:
Abonnementlösungen sind laut BCG zum Beispiel im Healthcare-Segment möglich. So kann Patienten ein anonymisierter Informationsdienst angeboten werden, über den medizinische Befunde ausgewertet werden. Diese Geschäfte sind einerseits von stabilen und damit berechenbaren Umsätzen gekennzeichnet, dafür sind andererseits die Margen entsprechend niedrig.

Auch Splunk beginnt, sich in Deutschland auszubreiten. Neu in die Bewertung gekommen sind unter anderem MariaDB und Neo Technology. Es sind aber auch, wie eingangs genannt, Unternehmen im Quadranten, die das Momentum aus dem Vorjahr nicht aufrechterhalten konnten. Diese haben ihre Position nur geringfügig verändert. Insgesamt ist das Niveau der Lösungen - trotz der jeweiligen spezifischen Ansätze - insgesamt durchaus vergleichbar. Das bestätigt die eher geringe Spreizung bei der Bewertung der Portfolio-Attraktivität.

Nach Überzeugung der Experton Group wird Big Data sehr schnell produktiv eingesetzt werden, weil das Thema als Weiterentwicklung von Business Intelligence und Analytics und von bestehenden Datenbankmethoden nicht den typischen Hype Cycle einer neuen, disruptiven Technologie durchlaufen wird. Dementsprechend fortgeschritten wird auch der Markt im Bereich der Big Data Operations eingeschätzt.

Bei den Dienstleistungen für das Hosting und den Betrieb von Infrastrukturen für Big-Data-Aufgaben sind einige Anbieter erwähnenswert, die neu in die Bewertung aufgenommen worden sind. Dazu zählen zum Beispiel Itelligence und The Unbelievable Machine Company. Beide nähern sich dem Thema ganz unterschiedlich. Während die Bielefelder Itelligence die Perspektive eines mittelständischen Fertigungsunternehmens einnimmt, hat The Unbelievable Machine Company aus Berlin seine Cloud-Services nicht nur äußerlich auf Big-Data-Software umgestellt. Auch traditionelle Anbieter von IT-Services wie Fritz & Macziol und Freudenberg IT haben sich dem Thema gewidmet und sind in diesen Wachstumsmarkt eingestiegen.

Die Experton Group ist überzeugt, dass die Pionierleistungen der zurückliegenden zwei bis drei Jahre künftig vom Markt stärker gewürdigt werden. Aus eigenen und fremden Daten neue Erkenntnisse zu gewinnen, wird für viele IT-Anwender überlebenswichtig. Deshalb wird uns das Thema Big Data noch lange beschäftigen.