Produktionsdaten besser nutzen

Big Data + Industrie 4.0 = Industry Analytics

14.10.2016
Von 
Eric Ecker leitet den Bereich Industry Analytics bei der mayato GmbH. Der Diplom-Ingenieur verfügt über mehr als 20 Jahre internationale Erfahrung in der Software- und IT-Branche. Als VP und Managing Director von Trillium Software in Zentraleuropa und in unterschiedlichen Führungspositionen bei DataFlux, SAS und SAP, kristallisierten sich Business Intelligence, Big Data, Datenqualität und Data Governance als seine Kernthemen heraus. Darüber hinaus lehrt er als Dozent an der DHBW Mannheim.
Wer seine Produktion effizienter machen will, muss seine Datenschätze heben und nutzen. Hier gilt es für die Anwenderunternehmen technische Konzepte wie Big Data und Industrie 4.0 intelligent miteinander zu verknüpfen.

Big Data und Industrie 4.0 - die beiden Themen beherrschen die Medien und beschäftigen IT-Verantwortliche ebenso wie die Produktionsleiter in den Unternehmen. Als besonders spannend entpuppt sich die Kombination beider Komplexe unter dem Stichwort Industry Analytics. Die Auswertung der Daten mit analytischen Methoden verspricht tiefreichende Erkenntnisse, wie sich die Fertigung optimieren lässt, welche Fehler zu erwarten sind - ja gar, wann ein Maschinenausfall droht. Basierend auf diesen Ergebnissen lassen sich entsprechend vorbeugende Maßnahmen ergreifen. Im Idealfall sparen die Unternehmen erhebliche Kosten und steigern gleichzeitig die Produktqualität. Doch lohnen sich analytische Auswertungen der Daten tatsächlich oder handelt es sich nicht vielmehr um eine aufwendige Spielerei?

Sehr unterschiedliche Voraussetzungen für das gleiche Ziel

Die gute Nachricht vorab: Zahlreiche Projekte bei führenden Unternehmen zeigen, dass sich Industry Analytics tatsächlich auszahlt. Allerdings ist bei vielen Anwendern nach wie vor Zurückhaltung zu spüren, das Thema erscheint zunächst sehr abstrakt. Das liegt auch den sehr unterschiedlichen Voraussetzungen in den einzelnen Unternehmen. Nehmen wir das produzierende Gewerbe: Während in einigen Betrieben schon nahezu vollständig automatisiert produziert wird und sämtliche Daten zentral erfasst werden, trifft man andernorts noch auf traditionelle Fertigungsstraßen, in denen selbst vorhandene Daten nicht genutzt werden oder die Digitalisierung und Vernetzung noch gänzlich fehlt. Da ist man schnell dabei, das Thema Industry Analytics als "Spielerei" abzutun.

Eines ist jedoch klar: Wer seine Produktion systematisch steuern und langfristig optimieren möchte, kommt an der strategischen Nutzung seiner Daten nicht vorbei. Und auch bei der Maschinenwartung lassen sich erstaunliche Zusammenhänge durch Auswertung der Sensordaten erkennen und nutzen. Doch wo sollte man anfangen und was gilt es zu beachten?

Erkenntnisse aus den vorliegenden Daten gewinnen alle Anwender - ganz gleich, ob mittelständische oder große Unternehmen. Abhängig vom Grad der Automatisierung beziehungsweise der Digitalisierung wählt man den Einstieg in ein Industry Analytics Projekt. Liegt noch kein zentrales Daten-Repository vor, gilt es nach dem Motto "Die Guten ins Töpfchen, die Schlechten in Kröpfchen" zunächst die Daten zu definieren, die zur Analyse eines Prozesses herangezogen werden können. Gemeinsam mit den Fachanwendern werden dazu die Ziele der Prozessanalyse festgelegt. Anschließend gilt es, die Parameter zu ermitteln, die Einfluss auf das Ergebnis haben könnten. Diese an den entsprechenden Anlagen auszulesen beziehungsweise an eine zentrale Datenbank zu übertragen, erfolgt im nächsten Prozessschritt. Dafür lassen sich auch innovative und skalierbare Technologien wie Hadoop, NoSQL- oder In-Memory-Datenbanken heranziehen.

Für die richtige Dimensionierung der entsprechenden IT-Infrastruktur gilt es, dabei natürlich auch die fünf V's zu berücksichtigen, die Big Data charakterisieren:

  • Velocity - Die Geschwindigkeit, mit der Daten generiert und übertragen werden.

  • Variety - Die Vielfalt und Heterogenität der Daten.

  • Veracity - Die Vertrauenswürdigkeit und Güte der Daten.

  • Volume - Der Umfang und die Menge der Daten.

  • Value - Der Wert, den die Daten darstellen.

Liegen die erforderlichen Daten in einem zentralen Repository vor, können diese sowohl in standardmäßigen Berichten bis ins Detail ausgewertet als auch mit statistischen Methoden auf wiederkehrende Muster hin analysiert werden. Anhand ausgefeilter Data Mining Algorithmen lassen sich diese Muster in den Datenbergen bestimmen und somit gänzlich neue Erkenntnisse und Zusammenhänge gewinnen. Soviel zur Theorie, doch nun zu praktischen Beispielen.

Qualitätssteigerungen bei Automobilzulieferern

Bei einem Unternehmen der Automobilindustrie produzierten die Shopfloor Systeme in der Fertigung zwar wertvolle Informationen, diese wurden jedoch nicht zentral erfasst und analysiert. Auf Fehler innerhalb der Produktion, Qualitätsprobleme oder schwache Auslastungen konnte das Unternehmen daher nur bedingt reagieren, da die zeitnahe Gesamtsicht fehlte. Ein Industry Analytics Projekt sollte das Potential der vorliegenden Daten nutzen und diese zentral erfassen und auswerten. Als Basis für eine strukturierte Datenanalyse galt es zunächst, alle im Produktionsbereich anfallenden Informationen zu sammeln, aufzubereiten und an das Data Warehouse zu übergeben. Die technischen Anforderungen dabei waren sehr hoch:

  • Automatisierte Erfassung der Daten aller Shopfloor Systeme.

  • Parallele Beladung des vordefinierten Quality-Lifecycle-Analysemodells.

  • Sehr hohe Performanz (Near-Realtime).

  • Höchste Verfügbarkeit.

Insbesondere die Performanz spielte bei der Integration der Daten eine entscheidende Rolle, wie die Datenmengen zeigen: Allein im Final Finishing des Zulieferbetriebs werden täglich mehr als zehn Millionen Messwerte erfasst. Dementsprechend müssen pro Monat ungefähr 350 Millionen Datenzeilen alleine aus diesem System verarbeitet und gespeichert werden. Schon die ersten Auswertungen und Berichte, die auf Basis der neuen integrierten Plattform durchgeführt wurden, begeisterten die Verantwortlichen des Automobilzulieferbetriebs. Die zentrale Verfügbarkeit aller relevanten Daten beseitigte zahlreiche Hürden im Alltag: Fragliche Auswertungen mit Excel-Listen, handgeschriebene Tabellen mit Messwerten und Excel-Auswertungen ohne Versionierung waren damit überflüssig. Stattdessen greifen jetzt alle Entscheidungsträger, vom Schichtführer zum Ingenieur und vom Analysten zum Manager, auf die gleiche Datenbasis zu.

Anhand des Reifegradmodells können Unternehmen feststellen, wie wertvoll die Analyse von Produktionsdaten sein kann.
Anhand des Reifegradmodells können Unternehmen feststellen, wie wertvoll die Analyse von Produktionsdaten sein kann.
Foto: Mayato

Sämtliche Auswertungen lassen sich einfach und schnell basierend auf konsistenten, zuverlässigen Daten durchführen. Eventuelle Fehlproduktionen können aufgrund des optimierten Produktionsmonitorings frühzeitig erkannt und die Auslastung unterschiedlicher Fertigungsstellen direkt verglichen werden. Zusätzlich sparen die Mitarbeiter im Produktionsbereich wertvolle Zeit, da sie keine manuellen Berichte mehr erstellen müssen.

Optimierte Lagerhaltung und Betriebsdauer bei Medizingeräten

Doch nicht nur in der Fertigung offenbaren sich die Vorteile von analytischen Auswertungen schnell. Auch in der Medizintechnik sichern die Vorhersagen langfristige Wettbewerbsvorteile, wie das Projekt eines deutschen Unternehmens der Branche zeigt. Systematisch wertet der Hersteller die Sensordaten seiner ausgelieferten medizinischen Großgeräte wie Computer- oder Magnetresonanztomographen aus, um daraus - basierend auf einem analytischen Modell - Ausfallwahrscheinlichkeiten einzelner Teile individuell zu ermitteln.

Eine Predictive Maintenance Architektur erlaubt Unternehmen, Maschinenparks effizienter zu betreiben.
Eine Predictive Maintenance Architektur erlaubt Unternehmen, Maschinenparks effizienter zu betreiben.
Foto: Mayato

Schließlich stellen die Großgeräte für Arztpraxen und Krankenhäuser eine zentrale Investition dar. Ein unerwarteter Ausfall verursacht nicht nur enorme Kosten, sondern gefährdet auch die medizinische Versorgung der Patienten. Für die Hersteller bedeutet dies die permanente Lagerhaltung einer Vielzahl von Ersatzteilen und damit eine hohe Kapitalbindung. Bei einem Ausfall müssen die Techniker auf Verdacht zahlreiche Ersatzteile mitführen. Werden diese nicht benötigt, ist vor der Wiedereinlagerung eine aufwendige Prüfung erforderlich.

Fazit

Um die stetig steigenden Kundenanforderungen nach Individualität und Qualität bei geringstem Preis zu erfüllen, sind modernste Fertigungsverfahren zwingend erforderlich. Wie die konkreten Anwendungsfälle zeigen: Industry Analytics ist keine aufwendige Spielerei. Die Digitalisierung und Vernetzung der Daten bringt den Unternehmen vielmehr einen echten Mehrwert und ermöglicht es ihnen, sich vom Wettbewerb zu differenzieren. Dabei geht es nicht nur um das reine Sammeln, Integrieren und Zentralisieren einer Vielzahl von heterogenen Produktions- und Maschinendaten: Der entscheidende Vorteil entsteht durch konkrete Analysen, die es ermöglichen, die Produktion effizient zu steuern, Prozesse zu optimieren und Vorhersagen über Maschinenengpässe oder Ausfälle zu treffen.