Predictive QM

So funktioniert vorausschauendes Qualitätsmanagement

25.04.2016
Anzeige  Qualitätsmängel in Produkten schon erkennen, bevor sie tausendfach produziert wurden - das ist das Ziel des vorausschauenden Qualitätsmanagements (QM).

Schon 18 Monate bevor der Hersteller seine Autos in die Werkstatt zurückruft, weiß Frank Siemes (40) bereits, dass einzelne Bauteile Probleme machen werden. In einem Projekt mit drei internationalen Automobilherstellern hat sich der Qualitätsspezialist vom Beratungshaus Deloitte die Urdaten der Sensoren im Auto genau angesehen und auf deren Basis Anomalien festgestellt, die bis dahin niemand kannte.

Big-Data-Analysen machen Anomalien sichtbar

1,66 Millionen Rückrufe von Autos zählte das deutsche Kraftfahrtbundesamt im vergangenen Jahr, 190.000 mehr als im Jahr zuvor, 890.000 mehr gegenüber 2013. "Das Auto ist ein sehr komplexes Produkt", erläutert der Deloitte-Partner Siemes, "es gibt kaum ein Produkt mit derart vielen Einzelteilen." Die Strategie, etwaige Fehlerquellen frühzeitig erkennen zu können, liegt darin, alle verfügbaren Daten des Autos zusammenzubringen und zu analysieren. "Das können Anzeichen auf Verschleiß von Einzelteilen sein, aber auch Produktionsdaten - wie etwa über Drehmomente in der Verschraubung", erläutert Siemes, der den besonderen Wert von Big-Data-Analysen darin sieht, dass Anomalien sichtbar werden - Unregelmäßigkeiten, die bisher nicht erkannt wurden und durch das feine Netz der Qualitätschecks gerutscht sind.

Papier- und Stahlbranche: Zwei Beispiele für vorausschauendes QM mit SAP

"Im vorausschauenden Qualitätsmanagement geht es darum, sich historische Daten eines Produktes anzuschauen und auf dessen Basis ein Vorhersagemodell zu entwickeln", erläutert Timo Deiner, Internet-of-Things-Experte bei SAP. Dazu gehört, aus der Vergangenheit zu lernen und an Variablen und Konstellationen so zu drehen, dass Probleme künftig nicht mehr entstehen. "Unsere Ziele sind, physische Qualitätstests durch Prognosen zu ersetzen und dadurch Kosten für das QM zu reduzieren, die Produktion zu beschleunigen, die Gesamteffektivität der Anlage zu erhöhen und so letztlich bessere Produkte zu ermöglichen."

Beispiel 1: Stahlbranche

In einem Beispiel aus der Stahlproduktion hat sich gezeigt, dass der Aufwand für das Qualitätsmanagement stark reduziert werden kann. Dafür erfassten die SAP-Systeme über 300 Parameter für 20.000 frisch produzierte Brammen, Blöcke aus gegossenem Stahl. Labor- und Sensordaten aus den Maschinen, Produktionsdaten und Informationen aus den physischen Überprüfungen flossen in mit Algorithmen angereicherte Vorhersagemodelle ein. Das Ergebnis: Um jene 827 Brammen zuverlässig zu finden, die Qualitätsmängel aufwiesen, senkte der Einsatz von Big Data den Aufwand um 30 Prozent. Für den Stahlproduzenten bedeutet das, den Anteil der physischen Tests von derzeit 20 bis 30 Prozent auf jetzt 5 bis 13 Prozent senken zu können und so mindestens eine Millionen Euro pro Jahr einsparen zu können.

Beispiel 2: Papierherstellung

Auch der Papierhersteller Koehler Paper Group setzt auf vorausschauende Qualitätssicherung. Das 1.800 Mitarbeiter starke Unternehmen aus dem württembergischen Oberkirch verkauft jährlich etwa 500.000 Tonnen Papier von Thermo- über Dekopapiere bis hin zu Holzschliffpappen. Im Rahmen seiner Industrie 4.0-Aktivitäten nutzt der Mittelständler seit etwa einem Jahr Echtzeitinformationen unter anderem für sein vorausschauendes Qualitätsmanagement. Derzeit fließen 87 Parameter aus Prozess- und Qualitätskontrollsystemen, aus Energie- und Farbmessungen in die Echtzeitverarbeitung ein, doch sind bereits über 500 Parameter in Planung. Wie im Beispiel des Stahlunternehmens entsteht auf Basis der historischen Informationen ein Vorhersagemodell, das es den Ingenieuren ermöglicht, über ständig ablaufende Kausalitätsprüfungen Unregelmäßigkeiten zu entdecken. "Schon bevor eine physische Überprüfung ansteht zeigen die Parameter diese idealerweise bereits an", erläutert Timo Deiner von SAP.

Fraunhofer IPT: Warum sich vorausschauendes QM durchsetzen wird

Für den Abteilungsleiter für Produktionsqualität am Fraunhofer Institut für Produktionstechnologie IPT Eike Permin (30) sind es vor allem zwei Vorteile, die die vorausschauende Qualitätssicherung immer hoffähiger machen:

  • Es ist möglich, bereits während des Einsatzes der Geräte auf Veränderungen zu reagieren.

  • Die große Datenvielfalt der Geräte ermöglicht beliebiges Erfassen von Parametern, von Kräften, über Geschwindigkeiten, Temperaturen, akustische Veränderungen bis hin zu Vibrationen.

Gerade in der Fertigung sieht Permin die Chance, aus bestehenden Daten zu lernen und eigene Prozesse immer weiter zu verbessern. "Dabei ist Ingenieur-Knowhow sehr wichtig, um geeignete Prozess-Variablen auszuwählen", so Permin, "die Schlüsselfrage ist, welche Daten und welche Algorithmen in der Qualitätsanalyse zum Einsatz kommen sollten."

Dass in der Autobranche derzeit noch nicht durchgehend die Rohdaten der Fahrzeuge für Big Data genutzt werden, liegt weniger an der technischen Machbarkeit der Big-Data-Analyse als vielmehr an der fehlenden Rechtssicherheit. "Die Frage, wem die Daten des Autos letztlich gehören, ist noch nicht geklärt", erläutert Deloitte-Mann Siemes - ein Thema, das die Fertigungsbranche nicht so sehr etwa angeht, denn die Daten ihrer Produkte stammen meist aus eigenen Werken.