Data-Fabric-Architekturen

Komplexe Datenstrukturen optimieren

03.06.2022
Von   IDG ExpertenNetzwerk
Steffen studierte in Tralee (Irland) Informatik. Anfang der 90er war er Mitgründer von SimpleWork, das man 96 verkaufte. Anfang 97 wurde er Interims-IT-Leiter bei Maxdata, Ende 97 war er Mitgründer der Beans AG und 2002 Mitgründer der Lobster DATA GmbH. Dort ist er Geschäftsführer und Leiter Software-Entwicklung.
Immer mehr Daten, in immer mehr Formaten, an immer mehr Plätzen. Mit einer Data-Fabric-Architektur lässt sich der Aufwand für das Datenmanagement reduzieren.
Daten, die in der Produktion entstehen, sind auch wichtig für den Vertrieb und andere Abteilungen.
Daten, die in der Produktion entstehen, sind auch wichtig für den Vertrieb und andere Abteilungen.
Foto: Gorodenkoff - shutterstock.com

Der durchschnittliche Digitalisierungsgrad der Wirtschaft in Deutschland ist 2021 (im Vergleich zu 2020) um acht Prozent gestiegen. Zu diesem Ergebnis kommt der Digitalisierungsindex des Bundesministeriums für Wirtschaft und Energie in einem Bericht. Treiber dafür sind laut der Studie:

  • die zunehmende digitale Vernetzung der Unternehmen,

  • die deutlichen Zuwächse bei der Breitbandverfügbarkeit für Gewerbe und Haushalte sowie

  • die Digitalisierung von Prozessen und Produkten.

Für Unternehmen bedeutet diese Entwicklung vor allem eine massive Steigerung des gespeicherten Datenvolumens. Dabei treten eine Reihe von Problemen in den Vordergrund:

  • bestehende Datensilos,

  • heterogene Speicherstrukturen mit einer Mischung aus On Premises- und Multicloud-Lösungen,

  • fehlende einheitliche Governance-Regelungen und

  • Sicherheitsprobleme.

Die Folge: Theoretisch verfügbare Daten sind nur zu einem geringen Teil miteinander verknüpft, vorhandene Informationen nur schwer oder gar nicht auffindbar und Analysemöglichkeiten stark eingeschränkt. Das Potenzial für die Optimierung von Geschäftsprozessen wird also bei weitem nicht ausgeschöpft.

Data-Fabric-Architektur: Alles unter einem Dach

Mit dem Data-Fabric-Ansatz, also der Idee eines Daten-Gewebes, können Unternehmen die Probleme lösen. Häufig geht es darum, Daten zu erfassen, sie zu analysieren, daraus zu lernen und Reaktionen abzuleiten. Das können in der Fertigung etwa Sensordaten aus der verarbeitenden Maschine sein. Die Kontrolle dieser Daten - Abmessungen, Gewicht, Oberflächenbeschaffenheit oder ähnliches - führt zum Beispiel dazu, dass ein Werkstück entweder weiter bearbeitet oder ausgesondert wird. Nachfolgende Arbeitsschritte werden entsprechend gesteuert.

Zudem lassen sich mit solchen Daten etwa Produktqualitäten unterschiedlicher Lieferanten vergleichen und Preisberechnungen nicht mehr nur auf Mengenbasis, sondern auch auf Basis von Ausschuss, Liefergeschwindigkeit und anderen Faktoren erfassen. Auf Basis der Verknüpfung von Prozess-, Produkt- sowie Markt- und Logistikdaten können dann komplexe Modelle der Fabriksteuerung inklusive Auslastung der Anlagen und Wertschöpfung entstehen.

Dabei werden Daten aus der Fertigung unter anderem mit betriebswirtschaftlichen Daten etwa aus dem ERP-System verknüpft, ausgewertet und dann an die einzelne Maschine zurückgespielt. So könnte eine Analyse im einfachsten Fall ergeben, dass die Produktionsgeschwindigkeit Auswirkungen auf die Qualität hat. Eine Information, durch die sich - zusammen mit dem erzielbaren Produktpreis bei einer bestimmten Liefergeschwindigkeit - die Fertigung optimieren lässt. Dabei werden die Daten ständig zwischen Analyse und Produktion hin und her transportiert und einem kontinuierlichen Optimierungsprozess unterzogen.

Wer hier nur mit einer klassischen vertikalen Integration arbeitet, überträgt solche Maschinendaten in vielen Fällen an eine zentrale Plattform. Dabei handelt es sich oft um IoT- oder Cloud-Plattformen der Hersteller. So entstehen über das Unternehmen verteilt schnell Datensilos, die zwar Daten erfassen und auswerten, allerdings nur in dem vom Hersteller ermöglichten Bereich. Mit der horizontalen Datenvernetzung in Data-Fabric-Architekturen können Unternehmen derartige Vernetzungsprobleme lösen. Denn dort gehen die Daten nicht notwendigerweise in ein zentrales System, sondern werden stattdessen wie in einem Gewebe in einer separaten Datenschicht miteinander verknüpft.

Data Fabric: Alle Daten im Zugriff

In der Regel entsteht dabei unter einer einheitlichen Oberfläche der Data Fabric eine einheitliche Struktur, die unterschiedliche Datensysteme miteinander verbindet. Datenvielfalt, Datenverteilung, Datenumfang und Datenkomplexität können orchestriert, die Transparenz und Datenintegration optimiert und Analysetools integriert werden. Alles wird unterstützt durch ein von den verschiedenen Anwendungsarten unabhängiges, einheitliches User Interface, das den Zugang zu Datenformaten, Plattformen und Speicherorten von allen Endgeräten aus ermöglicht.

Kurz: Die Data-Fabric-Idee möchte Nutzenden standortunabhängig möglichst alle jeweils benötigten unternehmenseigenen Daten zugänglich und auffindbar machen und Verknüpfungen ermöglichen. Ziel ist es, eine sichere, effiziente, vereinheitlichte Arbeitsumgebung zu schaffen. Laut Gartner "kann dies den Aufwand für das Datenmanagement um bis zu 70 Prozent reduzieren." Kein Wunder also, dass der Data-Fabric-Ansatz für das Marktforschungsunternehmen zu den "wichtigsten strategischen Technologietrends für 2022" gehört.

Betrachtet man den Data-Fabric-Ansatz aus dieser Perspektive, dann ist er die noch intelligentere Fortsetzung der Datenintegration. Die meisten Unternehmen sammeln heute Daten, integrieren sie teilweise automatisch in andere Systeme und reichern eigene Informationen mit Daten aus anderen Systemen an. Abteilungen und Unternehmensbereiche nutzen allerdings oft eigenständige Lösungen und Speicherorte, auf die andere Kollegen keinen Zugriff haben. Ein wesentliches Ziel jeder Organisation sollte es jedoch sein, stets einen umfassenden Überblick über Kunden, Partner, Produkte, Wettbewerb und auch die eigene Historie für alle abrufbar zu halten.

Dazu gehören, je nach Anforderung:

Danach können selbstlernende und sich selbst optimierende Systeme integriert werden.

Data-Fabric-Lösungen: Nicht von der Stange

Es geht also im ersten Schritt darum, Strukturen miteinander zu verbinden, um Daten auffindbar und integrationsfähig zu machen. Um von der reinen Verwaltung vorhandener Daten zu daraus ableitbaren Erkenntnissen zu gelangen, starten die meisten Unternehmen mit der Verbesserung der Datenqualität und der schrittweisen automatischen Integration der Daten in andere Systeme.

Viele Unternehmen nutzen heute Data Lakes und Data Warehouses, um ihre Daten zu verwalten. Hier geht es vor allem darum, Daten zu sammeln und zu speichern und für Einzelanwendungen auf sie zuzugreifen. Eine einheitliche Sicht auf die Daten findet nicht statt, ebenso wenig ihre automatisierte Nutzung. Die Folge ist, dass bei der Datennutzung hohe Latenzzeiten und Kosten entstehen. Die wachsenden Datenmengen verschärfen das Problem noch zusätzlich. Deshalb werden derzeit Mittel und Wege gesucht, um Daten in Echtzeit am Quellpunkt zu speichern, zu extrahieren und zu verarbeiten, um - ebenfalls in Echtzeit - aus der aktuellen Datenlage Entscheidungen ableiten zu können.

Eine Data-Fabric-Architektur ist allerdings keine Struktur, die sich von der Stange kaufen ließe. Da die wenigsten Unternehmen ihre Architektur ohne Bestandsdaten auf der grünen Wiese entwickeln, besteht die Aufgabe darin, die vorhandenen Strukturen Stück für Stück in eine Data-Fabric-Form zu überführen. Die professionelle und im Hintergrund arbeitende Datenintegration, die eine der Kernfunktionen bildet, hilft, das heterogene Produktspektrum unterschiedlicher Hersteller zu einer ressourcenschonenden Struktur weiterzuentwickeln. So werden aus Silos und Lakes interagierende Netzwerke mit hohem Automatisierungsgrad. Der Data-Fabric-Ansatz bildet in dieser Ausbaustufe dann die Basis für eine, aus den Erkenntnissen der Datenintegration generierte, Wertschöpfung. (bw)