Transformation

Wie DataOps die Datenlieferkette optimieren sollen

05.06.2020 von Christiane Pütter
Das Buzzword DataOps beschreibt einen Ansatz, der die Datenlieferkette vom Entwickler und Data Scientisten über den Business-Analysten bis zum DevOps-Spezialisten verbessern soll. Einer Studie zufolge investieren Unternehmen in DataOps.
  • 89 Prozent von 150 befragten Entscheidern wollen ihr Budget für DataOps binnen Jahresfrist steigern
  • Gartner-Analyst Nick Heudecker erwartet, dass Anbieter den Hype um DataOps nutzen werden, um dieses Etikett einer ganze Reihe an Tools rund um Self-Service-Portale, Daten-Streaming und Daten-Integration, Machine Learning und Automation aufzukleben
  • DataOps helfen, Daten zu „maskieren“, so dass aus Thomas Müller DSGVO-konform „Nutzer123“ wird

Der Begriff DevOps - ein Kunstwort aus Development und Operations - ist kaum etabliert, da wird er schon weitergedreht zu DataOps. Das neue Buzzword umschreibt das Koordinieren von Menschen, Prozessen und Technologien, um "agile und automatisierte Ansätze für das Daten-Management in Unternehmen zu fördern und so Geschäftsziele zu erreichen", wie Matt Aslett sagt, Research Vice President von der Marktforschungsfirma 451 Research.

Sicherheit und Qualität der Daten gelten als größte Herausforderungen beim Daten-Management.
Foto: 451 Research

DataOps sollen den Zugriff auf Unternehmensdaten erleichtern, um die Anforderungen der Datenlieferkette aus Entwicklern, Datenwissenschaftlern, Business-Analysten, DevOps-Experten und weiteren Beteiligten zu erfüllen. 451 Research unternimmt in einer Studie eine Bestandsaufnahme in Sachen DataOps. Etwa 150 Entscheider haben sich beteiligt. Gesponsert wurde die Umfrage vom Anbieter Delphix.

Matt Asletts Kollegen vom Analystenhaus Gartner stellen allerdings klar: DataOps kann man nicht kaufen. So erwartet Nick Heudecker, dass Anbieter den Hype um DataOps nutzen werden, um dieses Etikett einer ganze Reihe an Tools rund um Self-Service-Portale, Daten-Streaming und Daten-Integration, Machine Learning und Automation aufzukleben. Wie bei DevOps geht es bei DataOps aber in erster Linie um organisatorische Veränderungen in Arbeitsabläufen und Kollaboration. Gartner-Analyst Heudecker will DataOps als kulturellen Change verstanden wissen, der durch Tools unterstützt wird.

Sicherheit und Daten-Qualität größte Herausforderungen beim Management der Daten

Die Teilnehmer der 451 Research-Umfrage nennen als größte Probleme beim Daten-Management Sicherheit (68 Prozent der Nennungen), Datenqualität (60 Prozent) und das Verwalten/die Governance verteilter Daten (51 Prozent). Stichwort Governance/Compliance: DataOps-Plattformen sollen helfen, Daten durch zentrale Richtlinien und Regel-Engines zu "maskieren": Aus "Thomas Müller" wird "Nutzer123", so dass das Anwenderunternehmen der Datenschutzgrundverordnung (DSGVO) nachkommt.

Der Umfrage zufolge erwarten sich 66 Prozent der Studienteilnehmer mehr Sicherheit und Compliance von DataOps. Weitere 63 Prozent setzen auf mehr Agilität und kürzere Time-to-Market (63 Prozent) sowie bessere Entscheidungen (55 Prozent). Als weitere erhoffte Pluspunkte nennen sie die Steigerung ihrer Innovationskraft (54 Prozent) sowie Kostensenkungen/Effizienzsteigerungen (49 Prozent) und besseres crossfunktionales Zusammenarbeiten (42 Prozent).

Fast jeder Zweite braucht vier bis fünf Tage für das Bereitstellen einer neuen Datenumgebung.
Foto: 451 Research

Stichwort Agilität: 451 Research wollte von den Unternehmen wissen, wie lang sie für das Bereitstellen einer neuen Datenumgebung brauchen. Eine relative Mehrheit von 47 Prozent braucht vier bis fünf Tage. Weitere 17 Prozent schaffen das in einem bis drei Tagen, ebenfalls 17 Prozent erst in sechs bis sieben Tagen.

Ganze 45 Prozent der Befragten wollen ihr Budget für DataOps-Investitionen binnen zwölf Monaten "leicht" steigern, weitere 41 Prozent "signifikant". Drei Prozent wollen es kürzen. Welche Tools damit unter dem Begriff DataOps-Technologien gemeint sind, definieren die Marktforscher allerdings nicht. Unabhängig von den Etats erklären fast neun von zehn Befragten (89 Prozent), dass sich ihr Unternehmen in kulturellen und organisatorischen Fragen in Richtung DataOps verändern muss.

DevOps-Grundbegriffe
CI/CD
Continuous Integration beziehungsweise Continuous Delivery wird oft als essenzieller Teil einer erfolgreichen DevOps-Strategie gesehen. Meist ist die Kombination beider Methoden gemeint, um schneller stabilen Code ausliefern zu können.
Continuous Integration (CI)
Dieser Begriff beschreibt eine Methode, um fortlaufend Veränderungen im Code in den Hauptzweig zu integrieren, die anschließend automatisiert getestet werden. Damit erhalten Entwickler innerhalb weniger Minuten Rückmeldung, ob der Build die Qualitätsansprüche erfüllt. Zudem vermeiden sie den hohen Aufwand, der entsteht, wenn sämtliche Code-Anpassungen auf einmal am Tag der Veröffentlichung in den Release-Zweig integriert werden müssen.
Continuous Delivery (CD)
Dies beschreibt die automatisierte Auslieferung von Anwendungs-Code an diverse Infrastruktur-Umgebungen wie Entwicklungs-, Test, Integrations- und Produktivumgebungen.
Integrated Developer Environments (IDE)
Integrierte Entwicklungsumgebungen sind Anwendungen, die dabei helfen, Anwendung zu bauen. Darin sind normalerweise ein Code-Editor, Compiler, Debugger und Tools zur Build-Automatisierung enthalten, um zeitaufwändige, händische Aufgaben aus der Entwicklung zu entfernen.
Software Development Lifecycle (SDLC)
Es gibt verschiedene Vorgehensmodelle zur Softwareentwicklung, die unterschiedliche Phasen des Software-Lebenszyklus definieren. Die für DevOps verwendeten wiederholbaren Modelle verwenden meist ein kreisförmiges Schema, in denen oft die Stufen Analyse („Was soll die App können?“), Entwurf/Entwicklung, Implementierung, Test und Wartung/Evaluation enthalten sind.
Static Application Security Testing (SAST)
SAST ist eine Methode, um die Sicherheit von Anwendungen während der Entwicklung zu testen. Dabei wird der Quellcode „von innen heraus“ auf Schwachstellen und Bugs hin analysiert. Da der Code für die Analyse nicht kompiliert sein muss, kann SAST sehr früh im Entwicklungszyklus eingesetzt werden, um so Fehler bereits in der Entstehung zu beseitigen.
Regressionstest
In einem Regressionstest werden Testfälle wiederholt, um sicherzustellen, dass Modifikationen in bereits getesteten Teilen der Software keine neuen Fehler („Regressionen“) verursachen.