Von Predictive Maintenance zur automatischen Wartung

Produktionsdaten müssen effizienter genutzt werden

25.01.2018
Von 


Sascha Bäcker ist Geschäftsführer der DUALITY Beratung-GmbH. Bereits seit mehr als 15 Jahren ist er an der Schnittstelle zwischen IT und BWL unterwegs. Nach ersten Schritten als IT-Leiter im Data Warehousing ging es in die Business-Analytics-Beratung, wo bald erste erfolgreiche Projekte mit strukturierten und unstrukturierten Daten folgten.
Bei Predictive oder Smart Maintenance beruht die Wertschöpfung darauf, dass Daten von der Maschine zum Dashboard und Techniker fließen. Noch effizienter ist die automatische, interaktive Wartung. Wir zeigen welche Gründsätze die Anwender dabei beachten sollten.
Predictive Maintenance ist für viele der Einstieg in Industrie 4.0.
Predictive Maintenance ist für viele der Einstieg in Industrie 4.0.
Foto: zaozaa19 - shutterstock.com

Das Vernetzen eines Maschinenparks zielt langfristig darauf ab, automatisiert und wirtschaftlich die Produktion zu individualisieren – bis runter zur „Losgröße 1“. Ein Einstieg in die Industrie-4.0-Welt ist heute für viele in der Fertigungsbranche Predictive Maintenance. Dabei wird der Fokus von der zustandsorientierten Instandhaltung hin zur Betriebszeit-optimierten und Stillstand-vermeidenden Wartung verlagert. Selbstlernende Algorithmen fahren bei Smart Maintenance die Verfügbarkeit der Maschinen hoch.

Hierzu müssen Unternehmen eine Strategie zur effizienten Nutzung der Produktionsdaten entwickeln. Danach erfolgt das eigentliche Modellieren, Analysieren und Visualisieren. Hier sollte jedoch nicht Schluss sein, denn nun wird die Digitalisierung erst richtig spannend. Gelingt eine umfangreiche Rückkopplung der Analyseergebnisse, dann öffnet sich ein zweiter Wertschöpfungskanal. Aus vorausschauender wird bidirektionale Wartung, bei der ein Techniker beispielsweise die Ergebnisse direkt auf sein mobiles Endgerät bekommt. Er kann sofort in den Serviceprozess eingreifen.

Bidirektionales Konzept

Das bidirektionale Konzept legt zwar den Schwerpunkt auf Interaktion, zugleich steigt jedoch auch der Automatisierungsgrad. Der Ansatz beschränkt sich nicht nur auf die Wartung, sondern lässt sich auf die Produktionsteuerung übertragen, um zum Beispiel den Ausschuss zu minimieren. Notwendig ist zunächst, ein Datenmodell zu entwickeln. Hierbei sollten Anwenderfirmen eine ganzheitliche Betrachtungsweise verfolgen und umsetzen, weshalb der konkrete Use Case anfangs keine Rolle spielen sollte. Die Vorgehensweise lohnt, denn gut 60 Prozent der Projektzeit dauert die Datenakquise und -modellierung, auf der wiederum die Analyse aufsetzt. Diese Zeit spart sich ein Unternehmen bei allen künftigen Projekten, wenn es beim Initialprojekt ein ganzheitliches Datenmodell entwickelt und dieses später anzapfen kann, um weitere Anwendungen zu realisieren.

Der ganzheitliche Blick zählt

Mit einem bidirektionalem Konzept lässt sich der Automatisierungsgrad steigern.
Mit einem bidirektionalem Konzept lässt sich der Automatisierungsgrad steigern.
Foto: Zapp2Photo - shutterstock.com

Das Entwickeln eines ganzheitlichen Datenmodells beginnt wie jedes andere Digitalisierungsprojekt mit der Datenakquise. Schnittstellen zur Produktionssteuerung (etwa PCS) sollten so implementiert und sonstige Datentöpfe so eingebunden werden, dass sich aus den gewonnenen Informationen später möglichst viele Anwendungsszenarien umsetzen lassen.

Sensoren erfassen an allen relevanten Maschinen, Anlagen und Steuerungstypen Messwerte. Für die Vernetzung sorgen IT/OT-Gateways, welche die Industrie-4.0-Umgebungen an die Data Landing Zone, anbinden. Von dort führt der Weg der ausgelesenen Anlagenwerte auf eine Analytics-Plattform, wo sie mit weiteren wichtigen Informationen zusammengeführt werden. Hier können skalierbare Technologien wie Hadoop, NoSQL oder In-Memory zum Einsatz kommen, um die Analyse durchzuführen.

Aus Korrelationen Algorithmen formen

Für das Datenmodell ist es entscheidend, Muster zu finden. Mithilfe von Data Science ermittelt man Parameter, die den Maschinenstatus oder die Produktionsqualität beeinflussen. Statistikern reichen mitunter wenige Dutzend Datensätze aus, um Wechselwirkungen von Faktoren zu belegen. In anderen Fällen sind dazu gegebenenfalls Millionen Messwerte nötig.

Deswegen ist eine Big-Data-Architektur aufzubauen, die theoretisch und praktisch Unmengen an Daten aufnehmen kann. Die Infrastruktur muss zudem der Heterogenität, unterschiedlichen Güte und Geschwindigkeit der Daten Rechnung tragen. Anwenderfirmen sollten zu Beginn von Projekten über einen gewissen Zeitraum möglichst viele Daten sammeln. Die ersten Ergebnisse werden anschließend zeigen, ob aggregierte Daten ausreichend sind – beispielsweise Durchschnittswerte pro Minute statt Sekunde. In der Regel ist ein Nachjustieren in mehrere Richtungen nötig, um Korrelationen belastbar abzubilden. Das Ziel sind letztlich Algorithmen, die aus offensichtlichen wie unbekannten Korrelationen entwickelt wurden und sich eignen, in Echtzeit Prognosen zu erstellen oder in die Steuerung einzugreifen.

Analyse visualisieren und rückkoppeln

Der Entscheidungsbaum, wie ihn die Chaid-Analyse (Chi-square Automatic Interaction Detectors) umsetzt, eignet sich häufig sehr gut, um ein Datenmodell zu visualisieren. Diese Methode bildet häufig die Basis für die Datenanalyse. So auch bei einem Kunststoffgranulat-Hersteller, der nun kontinuierlich seine Produktionsprozessdaten überwacht. Dafür laufen bei ihm live auf dem Dashboard die aktuelle Temperatur im Prozessraum, der Energieeintrag des Motors, das Drehmoment des Getriebes sowie die Durchflussmengen der Einfüllstoffe ein. Die Chaid-Analyse filtert die Wechselwirkungen zwischen Temperatur, Energieeintrag und Materialmenge aus 690 Variablen. Dadurch konnten 4,3 Prozent Ausschuss vermieden werden.

Bidirektional agiert der Kunststoffgranulat-Hersteller erst, weil er sein entwickeltes Data-Science-Modell und die Analyseergebnisse an die Maschine und in die Prozesskette rückkoppelt. Das Datenmodell bildete für den Produzenten außerdem die Grundlage, ein Regelwerk zu entwickeln, das er live in die Steuerung des Produktionsprozesses integriert hat. Die Vorschriften im Regelwerk legen fest, ob beim Überschreiten eines kritischen Wertes automatisiert ein Eingriff erfolgt oder ein Techniker informiert wird.

Ganzheitliches Datenmodell als Initialzündung

In den Aufbau einer Plattform für Datenmodellierung, -verarbeitung und -ausgabeprozesse im Industrieumfeld muss fundiertes Branchenwissen einfließen. Nur wenn die Sensoren an der richtigen Stelle positioniert sind, können IT-Spezialisten und Datenexperten ein Projekt-übergreifendes und belastbares Datenmodell entwickeln. Wichtig ist dazu, strategisches Beratungs-, IT- und Industrie- sowie Automationstechnik-Kompetenzen zu bündeln, um bidirektionale Maintenance in der Praxis umzusetzen.