Datenstrategien der Zukunft

Die 5 wichtigsten Datentrends 2017

22.12.2016
Von 
Björn Böttcher ist Senior Analyst und Data Practice Lead bei Crisp Research mit dem Fokus auf Analytics, BI, datenbasierte Geschäftsmodelle und Künstliche Intelligenz. Mit mehr als 10 Jahren Berufserfahrung in der IT und einem wissenschaftlichen Hintergrund und Fokus stehen moderne Lösungen mit praktischem Nutzen im Fokus seiner Betrachtung.

4. Enterprise-Taxonomy- und Ontologie-Management

Machine-Learning-Algorithmen brauchen ebenso wie wir Menschen Kontext zu den erhobenen und zu analysierenden Daten. Ohne diesen fällt es schwer unter dem Begriff "Jaguar" die korrekte Intention bei einer Frage abzuleiten.

Das semantische Verstehen von Inhalten ist nach wie vor eine wichtige Aufgabe. Auch wenn Algorithmen, Plattformen und Tools den Zugang zu einer Datenanalyse vereinfachen und auch Machine-Learning-Technologien immer mehr Menschen zur Verfügung gestellt werden können, so bleibt der Kontext und die Anwendung doch auf die verfügbaren Datenbasis begrenzt.

Die Erstellung und das Management von unternehmensweiten Taxonomien und Ontologien ist daher eine der wichtigen Aufgaben in der Agenda zur Datenstrategie. Nur wenn der Kontext des Unternehmens entsprechend aufbereitet wird, kann die Analyse zu einem erfolgreichen Geschäftsmodell führen. Dies muss nicht nur die interne Verwendung dieser Informationen einschließen. Denn eine Integration einer Schnittstelle zu einem Data Marketplace auf einem Data Integration Hub kann auch die lizenzierte Nutzung für externe Kunden oder Partner einschließen.

5. Data-Provenance-Management - Dynamic Data Mobility and Tracing

Daten werden immer wichtiger für den Erfolg von Unternehmen. Die richtige Information zum richtigen Zeitpunkt ist von immenser Bedeutung für den heutigen und zukünftigen Erfolg von Geschäftsmodellen. Die Wichtigkeit eines Data-Provenance-Management beim Umgang mit Daten wird sich im nächsten und in den kommenden Jahren noch deutlich mehr in den Vordergrund drängen. Denn die umfassende Kenntnis und Dokumentation über die Herkunft, die Transformation und den Fluss der Daten ist elementar, um Daten auch zukünftig rechtskonform verarbeiten und über Unternehmensgrenzen hinweg nutzen zu können.

Hier ergeben sich beispielsweise aus der General Data Protection Regulation (GDPR) der Europäischen Union – auf Deutsch EU-Datenschutz-Grundverordnung (EU-DSGVO) – neue Vorgaben und Regeln für Unternehmen, die technologieseitig teilweise nur schwer abbildbar sind. Was für die lokale Applikation vielleicht noch leicht nachvollziehbar ist, wird umso schwerer, je mehr Datenquellen miteinander verknüpft werden. Doch nur durch die Kombination von vielen unterschiedlichen Datenquellen lässt sich oftmals ein Mehrwert oder das Produkt selbst erst generieren.

Bei der Nutzung von API-Aufrufen ist die Nachvollziehbarkeit noch weitestgehend abbildbar, jedoch sieht es bei Big-Data-Projekten und IoT- Szenarien schon anders aus. Daten werden aus unterschiedlichen Quellen geladen, aggregiert, analysiert und dann aufbereitet und wieder mit anderen Quellen vermischt. Am Ende der Kette ist es dann schon relativ schwer zu sagen, woher die einzelne Information ursprünglich stammt beziehungsweise aus welchen Daten sie sich zusammensetzt.

Mindestens eine Komplexitätsstufe mehr erreicht man, wenn dann noch der Austausch der Daten über die Unternehmensgrenzen hinweg ermöglicht wird. Hier geht neben der Dokumentation, welcher Partner gerade welche Daten liest oder schreibt, auch die Nachvollziehbarkeit des Informationsflusses schnell verloren. Daher sind globale Strategien im Bereich der Data Provenance wichtig, damit zukünftig alle Anforderungen an rechtliche Rahmenbedingungen erfüllt werden können und auch die Kontrolle über die eigenen Daten (Stichwort Datenhoheit) auch erhalten bleibt. (haf)