Webcast

Was Daten-Management in Zukunft können muss

01.03.2018
Anzeige  Insbesondere Künstliche Intelligenz (KI) stellt Daten-Manager vor neue Herausforderungen. Ein Webcast der Computerwoche erklärt, wie Unternehmen diese meistern.
Die Grundlage jeder intelligenten Daten-Nutzung ist und bleibt ein solides Data Management.
Die Grundlage jeder intelligenten Daten-Nutzung ist und bleibt ein solides Data Management.
Foto: Khakimullin Aleksandr - shutterstock.com

Grundlage der Digitalisierung ist und bleibt ein leistungsfähiges Daten-Management. Ein Webcast der Computerwoche zeigt, worauf es dabei ankommt. Denn wer heute das Daten-Management eines Unternehmens verantwortet, ist mit Künstlicher Intelligenz (KI) ebenso konfrontiert wie mit Hadoop-Clustern, Data Lakes und Streaming Computing.

Wilfried Hoge, Analytics Architect - Hybrid Data Management bei IBM Deutschland, zeigt auf, was bereits jetzt zu einem modernen und leistungsfähigen Daten-Management dazu gehört. Er diskutiert darüber mit Nadine Brehm, Sales Leader IBM Watson Data Platform, die sich von der Mobile World aus Barcelona zuschaltet, und mit dem Analysten Axel Oppermann (Avispador).

Fachjournalist Detlef Korus moderiert den Webcast. Seine Einstiegsfrage ist sehr handfest: "Kommt KI in den Unternehmen an?" Dazu Analyst Oppermann: "Wir haben in den letzten Jahren viele Versuche gesehen, KI einzusetzen. Aber letztlich geht es darum, den Menschen durch die Mitarbeit mit der Maschine besser einzusetzen, es geht um das Zusammenspiel von Mensch und Maschine." Aus der Sicht des Praktikers ergänzt Hoge: "Es gibt viele projektbezogene Inseln, aber wenige Unternehmen integrieren KI bereits in die Prozesse."

Fast zwei von drei Entscheidern monieren Datenqualität

Eins steht jedenfalls fest: Grundlage sind die Daten. Und hier interessiert Moderator Korus die Sicht der Webcast-Zuschauer. Wo sehen sie derzeit die größten Herausforderungen im Data Management für ihr Unternehmen? Eine Ad-hoc-Umfrage liefert deutliche Ergebnisse: Fast zwei von drei Befragten (63 Prozent) nennen zunächst einmal die Datenqualität. Fast ebenso viele (58 Prozent) führen auch die Verfügbarkeit der Daten an. Knapp jeder Zweite (47 Prozent) spricht außerdem von fehlenden Skills und Kompetenzen. Weitere 42 Prozent nennen die Leistungsfähigkeit der IT-Infrastruktur.

Stichwort Infrastruktur: "Was ist die richtige Daten- und Infrastruktur?", fragt Korus in die Runde. "Diese muss die Daten allen bereitstellen, die Interesse daran haben und die die Berechtigung haben", so Oppermann. "Es darf keine Silos nebeneinander geben." Wichtig ist ihm auch die Unterscheidung der Daten je nach Grad an Schutz.

Data Lake versus Datensumpf

Damit ist die Diskussion beim Data Lake angekommen - und bei der Frage, was diesen vom Datensumpf unterscheidet. "Daten sind ein Rohstoff, der verfeinert werden muss", umreißt es Hoge. Der IBM-Manager: "Ein Data Lake zeigt die richtigen Informationen im richtigen Kontext!"

Was heißt das konkret? Hoge beschreibt den idealen Ablauf zur Nutzung von KI so: Zuerst sammeln die Unternehmen Daten und extrahieren daraus wichtige Eigenschaften. Damit erzeugen sie Machine Learning Modelle. Danach binden sie diese Modell in die Produktion ein und nutzen sie für Vorhersagen. "Um das richtig machen zu können, brauche ich den Data Lake", betont er. "der Data Lake ist eine Referenz-Architektur, und zwar unabhängig von Technologie." Ein Data Lake umfasst Data Repositories, Governance Werkzeuge und Management Prozesse. Hoge: "Ein Data Lake ist kein Produkt, das man kaufen kann."

Die nächste Stufe ist für ihn ein sogenannter Governed Data Lake. Der funktioniert folgendermaßen: Die Eigentümer beschreiben Daten im Katalog, beispielsweise als Wetterdaten oder Kundendaten. Der Fachbereich sieht den Data Lake als Sammlung von Informationen, die in einem Katalog beschrieben werden. Der Nutzer aus dem Fachbereich kann also in diesem Katalog nach Daten suchen. Der IT-Entscheider kann den Zugriff auf diese Daten direkt gewähren oder die Daten provisionieren. Die Anwender können die Daten in einer Sandbox explorativ nutzen und analysieren und die Ergebnisse dann in den Data Lake zur produktiven Nutzung zurückfließen lassen.

"Das Problem ist die Organisation"

Was heißt das für die Unternehmen in der Praxis? Hier hakt Nadine Brehm ein. Unter dem Stichwort Hyper oder Radical Personalization kennt sie einige Use Cases. Ziel ist, dem Konsumenten passgenaue Angebote zu liefern. Die Lösung liegt in der Analyse historischer Trends und Transaktionen pro Kunde. Im Feld Infrastruktur und Distribution Assets geht es um das Vermeiden von Unfällen in Chemieanlagen. Die Lösung besteht in der vorausschauenden Wartungsplanung für Kühltürme, Leitungen und Gasturbinen. "Damit kann man Vorhersagemodelle für Fehler an Anlagen und zur Verbesserung der Sicherheit entwickeln", sagt Brehm. "Fehler lassen sich dadurch im Voraus erkennen".

Die genannten Use Cases sind unabhängig von der Umgebung. Für den Analysten Oppermann geht es deshalb auch nicht um On-Prem versus Cloud. Sondern Hybrid. Hoge identifiziert einen weiteren Knackpunkt: "Das Problem ist nicht mehr, wie funktioniert Machine Learning, sondern das Problem ist die Organisation." Der IBM-Manager plädiert für Bi-modale IT (oder: IT der zwei Geschwindigkeiten aus). "Dann haben sie sowohl rock solid als auch die Spielwiese", so Hoge.

Mit der Analysten-Brille auf der Nase sieht Oppermann den Themenkomplex KI und Data-Management von der Meta-Ebene aus: "Es geht um Geschäftsmodelle. Entscheider in den Unternehmen müssen sich fragen: Wie werde ich in zwei, drei Jahren meine Leistung erbringen? Und wie werden meine Kunden in zwei oder drei Jahren ihre Leistung erbringen?"

Hier den Webcast ansehen