Erfolgreich im Datenzeitalter - mit neuen Maßstäben bei Leistung, Flexibilität und Skalierbarkeit

Künstliche Intelligenz, Advanced Analytics, Cloud Computing und neue Storage-Technologien helfen Unternehmen bei der Problemlösung, Entscheidungsfindung und Skalierung. Erfahren Sie hier, wie Sie mit moderner, effizienter IT-Infrastruktur im Zeitalter der Daten erfolgreich sein können.

Datenanalyse

So ziehen Sie Erkenntnisse aus Ihren Daten

19.03.2020
Für eine erfolgreiche Datenanalyse müssen mehrere Voraussetzungen erfüllt sein. Neben der Bereitstellung personeller und technischer Ressourcen sollten Sie alle Stufen des Analyseprozesses optimieren – von der Datensammlung bis zur Umsetzung der Erkenntnisse.
Wer aus Daten Erkenntnisse gewinnen will, muss den gesamte Lebenszyklus der Daten betrachten: vom Zeitpunkt der Datenerstellung über die Analyse bis hin zur Umsetzung der Erkenntnisse.
Wer aus Daten Erkenntnisse gewinnen will, muss den gesamte Lebenszyklus der Daten betrachten: vom Zeitpunkt der Datenerstellung über die Analyse bis hin zur Umsetzung der Erkenntnisse.
Foto: Thitichaya Yajampa - shutterstock.com

Daten sind heute für Unternehmen ein wichtiger Erfolgsfaktor. Sie stellen einen Vermögenswert dar, der den Geschäftserfolg maßgeblich bestimmt. Der Business-Nutzen von Daten entfaltet sich aber erst, wenn die in den Datenbergen verborgenen Informationen ans Tageslicht befördert werden. Nur dann lassen sich Fragen beantworten wie: Welche Kunden kaufen wann welches Produkt? Was wird in drei Jahren im Trend liegen? Wie kann ich die Kapazität meiner Produktion steigern? Oder: Wie lässt sich die Logistik verbessern?

Um solche Informationen aus den Unternehmensdaten herauszufiltern müssen die Rohdaten mit entsprechenden Verfahren und Werkzeugen zusammengestellt, aufbereitet und analysiert werden. In der Praxis haben viele Unternehmen allerdings nicht die Ressourcen für professionelle Analysen. Oft behindern veraltete IT-Architekturen und -Methoden das Ausschöpfen dieser Möglichkeiten.

Hinzu kommt, dass in vielen Unternehmen weder ein datenfreundliches Umfeld noch eine Datenkultur existieren - die für eine erfolgreiche Datenanalyse und Umsetzung der Ergebnisse aber unerlässlich sind. Laut den Marktforschern von McKinsey gestalten nur acht Prozent der Unternehmen heute ihre Analytics-Anwendungen produktiv und können sie skalieren. Der Rest agiert immer noch in der Analytics-Steinzeit.

Im Folgenden stellen wir wichtige Voraussetzungen und Schritte vor, um erfolgreich analyseorientiert arbeiten zu können.

Organisatorische Grundlagen für Analytics

  • Wenn Sie von Daten und Datenanalysen vollumfänglich profitieren möchten, sollten Sie zunächst für passende organisatorische Grundlagen sorgen. Stellen Sie als erstes sicher, dass auf allen Unternehmensebenen die richtigen Mitarbeiter an den Datenprojekten arbeiten. Investieren Sie in den Aufbau des Fachwissens, um Ihre Pläne umzusetzen - entweder durch Einstellungen oder Schulungen.

  • Für einen kollaborativen und agilen Ansatz benötigen Sie ein funktionsübergreifendes Team. Wenn Ihr Team steht, identifizieren und priorisieren Sie zusammen Ihre Analytics-Projekte. Hier wird es viele Diskussionen geben. Machen Sie sich klar, welche Daten benötigt werden, und welche Prozesse und Ressourcen zur Umsetzung der Erkenntnisse erforderlich sind.

  • Beginnen Sie mit einigen wenigen, aber wichtigen Anwendungsfällen. Versuchen Sie, die ersten Fälle erfolgreich durchzuboxen und bauen Sie dann mit zunehmender Erfahrung Schwung auf. In diesen frühen Fällen ist es entscheidend, dass Sie den Wert für das Unternehmen quantifizieren können, um eine kontinuierliche Management-Unterstützung sicherzustellen.

  • Wichtig ist es auch, Ihre Analytics-Anwendungsfälle in Geschäftsprozesse einzubetten, um die Implementierung so nahtlos wie möglich zu gestalten. Erst wenn all diese Probleme vollständig durchdacht und gelöst sind, sollten Sie beginnen, Analytics vollumfänglich in Ihre Entscheidungsprozesse zu integrieren.

Den Lebenszyklus von Daten optimieren

Möchten Sie aus Ihren Daten Erkenntnisse gewinnen, muss der gesamte Lebenszyklus der Daten betrachtet werden. Dieser erstreckt sich vom Zeitpunkt der Datenerstellung beziehungsweise -sammlung über die Aufnahme der Daten, die Bereitstellung, die Analyse, die Visualisierung bis hin zur Umsetzung der Erkenntnisse.

1. Daten zusammenstellen

In der ersten Phase stellen Sie Ihre Rohdaten zusammen. Dazu extrahieren Sie Daten aus verschiedenen Datenquellen, und verschieben diese von den Quellsystemen in ein System, in dem sie gespeichert und analysiert werden können. Wichtig ist dabei, sich klar zu sein, welche Daten für die Generierung der Erkenntnisse gebraucht werden und welche irrelevant sind.

Rohdaten lassen sich mit vielen Ansätzen erfassen, die von der Größe, Quelle, Struktur und Latenz der Daten abhängen. Ein Supply-Chain-Manager in der Fertigung möchte typischerweise Einblicke in seine gesamte Pipeline gewinnen. Dazu muss er Datenströme aus verschiedenen Silos in Batch-Dateien zusammenführen und dort Analysen durchführen, um Trends zu erkennen.

Für die Aufnahme von Batch-Daten sind Hochleistungs-CPUs unerlässlich - mit der zusätzlichen Anforderung einer massiven Skalierbarkeit bei wachsenden Datenmengen. Neuere Rechenzentrums-Technologien von Intel wie die skalierbaren Intel Xeon-Prozessoren, der persistente DC-Speicher Intel Optane und die Solid-State-Laufwerke Intel Optane DC sind für diese Aufgaben konzipiert. Gespeichert werden können die Files in ganz normalen relationalen oder NoSQL-Datenbanken.

Echtzeit-Analysen von Datenströmen hingegen wie die Überwachung der Cybersicherheit stellen andere Anforderungen. Sie verlangen sofortige Analysen und benötigen verteiltes Computing in virtuellen Maschinen (VMs).

2. Daten vorbereiten

Vor der Analyse müssen die Daten vorbereitet werden. Sie sollten bereinigt, normalisiert und aufbereitet werden. Bei der Vorbereitung auf große Datenanalyse- und KI-Workloads werden Sie wahrscheinlich das ELT-Modell verwenden.

Zudem muss sichergestellt sein, dass die Anwendungen und Programme, in denen Analytics ausgeführt wird, diejenigen Daten erhalten, die sie benötigen. Dies bedeutet, dass die Rechenleistung, die Speicherkapazität und die Netzwerkbandbreite aufeinander abgestimmt sein müssen, um die Daten für die Anwendungen so nah und zugänglich wie möglich zu halten.

Für die Speicherung strukturierter und unstrukturierter Daten wie Protokolle, Datenbanksicherungen, Dateien, Bilder und Videos wird heute gern Objekt-Storage verwendet. Für diese Art von Speicheranforderungen sollten Sie QLC-NAND-Geräte für kostengünstige, hochvolumige Speicherung und SSDs für den Cache in Betracht ziehen. Für OLTP-Arbeitslasten mit strukturierten Daten, eignet sich ein relationales SQL-Datenbank-Managementsystem wie SAP HANA oder der Microsoft SQL-Server.

Am Ende dieser Phase sollten Ihre Daten in einem Format vorliegen, das den einfachen Zugriff und eine unumschränkte Datenanalyse ermöglicht.

3. Daten analysieren

Die meisten Unternehmen nutzen zur Analyse herkömmliche BI-Praktiken und -Tools. End-to-End-Analyse-Plattformen etwa von SAP, Oracle oder Microsoft decken alle Stufen des Lebenszyklus der Daten ab. Sie führen unternehmenskritische Workloads aus und ermöglichen eine einfache Integration von Geschäftsdaten. Dies Plattformen unterstützen zunehmend auch KI-Techniken, wurzeln allerdings in der klassischen BI-Ecke.

Um die Datenanalyse- und KI-Anwendungen zu beschleunigen können Sie auch auf optimierte Hardware zurückgreifen. Der neue skalierbare Intel Xeon-Prozessor der 2. Generation beispielsweise bietet eine gute Grundlage für eine Analyse- und KI-basierte Infrastruktur. Die CPU ist für eine Vielzahl von Analyse-, KI- und anderen Rechenzentrums-Workloads hochskalierbar. Sehr rechenintensive Anwendungen können mit zusätzlichen Technologien wie den Intel Field-Programmable Gate Arrays beschleunigt werden.

Unterstützung gibt es auch für die Software-Seite: Gängige Frameworks wie TensorFlow, Caffe, PyTorch, BigDL und MXNet sowie Plattformen wie Analytics Zoo helfen beispielsweise, maschinelles Lernen schnell einzusetzen. Erkunden Sie sich am besten, welche auf der Grundlage Ihrer Datenanforderungen geeignet sind.

4. Erkenntnisse umsetzen

Schließlich sollten aus den integrierten, gespeicherten, bereinigten und analysierten Daten wirtschaftlich relevante Erkenntnisse gezogen werden. Dazu braucht es Experten wie Datenwissenschaftler und Business-Analysten. Sie nutzen Techniken wie statistische und maschinelle Lernverfahren, Clustering-Techniken, graphenbasierte Methoden und neuronale Netze.

Auf Seite der Geschäftsanwender helfen Datenvisualisierungen, Dashboards und Berichte, die erzielten Ergebnisse zu verstehen. Die Software, die Sie hierfür verwenden, sollte flexibel genug sein, um sich im Laufe der Zeit entsprechend den sich ändernden Geschäftsanforderungen und neuen Analyse- und KI-Anwendungsfällen weiterzuentwickeln. Um dies zu erleichtern, integrieren beliebte Cloud-Service-Anbieter eine Reihe von Berichts- und Dashboarding-Tools.

Grundsätzlich ist es im Analytics-Prozess wichtig, dass Sie sich keine unerreichbaren Ziele setzen. Sie sollten mit Ihrer bestehenden Infrastruktur und mit bestehenden Tools beginnen, bevor Sie Ihre Fähigkeiten und Ressourcen erweitern. Beispiel: Online-Shop: Ein Händler kann beispielsweise damit starten, strukturierte Daten in einer relationalen Datenbank zu nutzen, um Kundentransaktionen zu verfolgen. Der nächste Schritt kann darin bestehen, Kundeninformationen durch unstrukturierte Daten zu ergänzen. Mit diesen erhält er dann ein vollständigeres Bild von den Erfahrungen einzelner Kunden.

Erfahren Sie hier, wie Sie Ihre Datenanalyse-Prozesse optimieren können.

Hier mehr erfahren