Spätestens seit dem Juli 2011, als Gartner den Begriff "Big Data" in seinen "Hype Cycle" zur Bewertung neuer Technologien aufnahm, hat die IT-Industrie für sich (und die Anwender) eine vermeintlich epochale Herausforderung entdeckt. Wie können Unternehmen das Handling immer größerer unstrukturierter Datenmengen bewältigen? Der Kern dieser Frage indes zielt ab auf neue und alte Probleme der Anwender, und in ähnlicher Weise gilt dies auch für Technologien, über die derzeit im Zusammenhang mit Big Data diskutiert wird.
BI stößt an Grenzen
Betrachtet man aktuelle Definitionen von Big Data, etwa des Analysten-hauses Barc, geht es bei Big Data um Methoden und Technologien für die hoch skalierbare Erfassung, Speicherung und Analyse polystrukturierter Daten. Das eigentlich Neue und Herausfordernde dabei ist, dass das Business die IT mit immer komplexeren Anfragen beziehungsweise immer anspruchsvolleren Analysen konfrontiert, um dar-aus geschäftsrelevante Informationen abzuleiten und letzten Endes den viel zitierten Wettbewerbsvorteil zu erzielen. Dies in Kombination mit der Anforderung, strukturierte Informationen aus den bis dato gewohnten operativen Transaktionssystemen wie ERP und CRM mit einer immer größeren Menge unstrukturierter Daten, etwa aus dem eigenen Web-Auftritt, aus Social Networks sowie mit Videoclips zu kombinieren. Hinzu kommt der Faktor Geschwindigkeit. Immer mehr dieser Analysen sollen in Echtzeit erfolgen.
Experten wie Barc-Geschäftsführer Carsten Bange sehen deshalb herkömmliche Lösungen für Business Intelligence an ihre Grenzen stoßen und raten Anwenderunternehmen zu einer Migration beziehungsweise Ergänzung ihrer BI-Suiten und Data Warehouses um sogenannte NoSQL-Datenbanken sowie Lösungen rund um das Hadoop-Framework, um die Datenbearbeitung stärker zu parallelisieren und damit Abfragen zu beschleunigen. Doch es bleibt die Frage: Was bedeutet dies für das klassische Enterprise-Content-Management? Sieht man einmal von der Tatsache ab, dass das Lager der ECM-Anbieter selbst mehr denn je einen heterogenen Markt mit unterschiedlichen Produktphilosophien repräsentiert, dürfte dem fachkundigen Betrachter nicht entgangen sein, dass viele Argumente, mit denen jetzt die Relevanz von Big Data für die Anwender begründet wird, seit Jahren auch in der ECM-Szene gang und gäbe sind. Die Fähigkeit, die immer größere Datenflut zu beherrschen sowie Informationen für das Business wiederzufinden und in einen Business-relevanten Zusammenhang zu bringen, reklamieren viele ECM-Lieferanten für ihre Lösungen. "Kronzeuge" für diese Argumentation ist unverändert die Archivierung von E-Mails, gewissermaßen den Urahnen aller unstrukturierten Datensätze, deren rechtssichere Archivierung samt damit zusammenhängendem Dokumenten-Management die Kerndisziplin einiger einschlägiger Anbieter darstellt.
Der deutsche IuK-Dachverband Bitkom zieht hier in seinem aktuellen Grundlagenpapier "Big Data im Praxis-einsatz - Szenarien, Beispiele, Effekte" eine klare Trennlinie. Demnach bleiben klassische DMS- und ECM-Lösungen auf einen dokumentengestützten Workflow fokussiert, während Big Data auf die Verarbeitung und Analyse flüchtiger und großer Datenmengen ausgerichtet ist. Die Hauptaufgabe für ECM, so der Bitkom, sei weiterhin die rechtssichere Verwaltung von Dokumenten und die Einbindung in Workflow-Prozesse. Spannend dürfte es insofern genau an der technischen Schnittstelle beider Welten werden. "Um Multimedia-Datenformate wie Audio oder Video auszuwerten, bedarf es einer automatisierten Erkennung der Inhalte und einer semantischen Analyse. Ein wesentlicher Baustein vieler Big-Data-Lösungen wird sich daher mit dem Zugriff auf unstrukturierte Daten und deren Transformation beschäftigen", heißt es dazu beim Bitkom. Nicht umsonst haben sich viele ECM-Anbieter mit Erweiterungen ihrer Suiten genau an dieser Transformations-Schnittstelle neu positioniert und liefern mit Features wie Metadaten-Verwaltung, Storage-Virtualisierung und Text-Mining das Fundament für Analyse- und Business-Intelligence-Werkzeuge.
Noch herrscht also viel Unklarheit im Markt. Guido Schmitz, Vorstand des herstellerunabhängigen Beraterhauses Pentadoc AG, empfiehlt Anwendern, Geschäftsprozesse und Informationsfluss im Unternehmen anzuschauen und eine "Just-in-Time-Informations-Logistik" aufzubauen. Moderne ECM-Systeme sollten dabei als intelligente Filter dienen, die dafür sorgen, dass "die richtige Information zur richtigen Zeit am richtigen Platz ist". (ph)
Dokumenten-Management-Systeme |
Big Data |
Rechtssichere Verwaltung von Dokumenten, zum Beispiel Versionierung |
Verarbeitung flüchtiger Daten, Analyse von großen Datenmengen |
Einbindung in Workflow-Prozesse, strukturierte Metadaten zur Beschreibung von elektronischen Inhalten |
Integration vieler verschiedener und häufig wechselnder Formate |
Meist für den unternehmensinternen Einsatz und einen beschränkten Nutzerkreis konzipiert |
Prinzipiell unbeschränkter Nutzerkreis vorstellbar |
Zugriff auf einzelne Dokumente aus einem großen Bestand |
Auswertung großer Datenbestände mit unterschiedlichen Datenformaten |
Auswertungen und Suchen meist auf Basis von Textindizes oder Metadaten |
Anpassbar an sehr unterschiedliche Formate |
Dokumenten-Management-Systeme und Big Data - Vergleich der Schwerpunkte |