Anzeige
Anzeige
Anzeige
Beitrag drucken

Vorausschauende Qualitätskontrolle

Echtzeitanalysen und die Macht der Daten

Die Vorhersage von Ereignissen hat den Menschen schon immer interessiert. Kein Wunder, dass Anwendungen wie Predictive Maintenance als Aushängeschild für Industrie 4.0 gelten. Aber wäre es nicht auch praktisch, die Qualität gerade erst gefertigter Produkte vorhersagen zu können?

Unmittelbare Rückmeldung der vorhergesagten Qualität an den Werker (Bild: MPDV Mikrolab GmbH)

Unmittelbare Rückmeldung der vorhergesagten Qualität an den Werker. (Bild: MPDV Mikrolab GmbH)

Ressourceneffizienz ist schon seit vielen Jahren ein wichtiges Thema für die Fertigungsindustrie – nicht nur aus ökologischen, sondern auch aus ökonomischen Gründen. Neben dem sparsamen Umgang mit Rohstoffen und Energie rücken dabei Fragen zu effizienten Produktionsabläufen oder dem frühzeitigen Erkennen von Abweichungen immer mehr in den Vordergrund. Nicht selten träumt ein Fertigungsleiter von der Vorhersage von Störungen, um diese gleich vermeiden zu können. Predictive Maintenance kommt dieser Vorstellung beim Betrieb von Maschinen, Anlagen und Werkzeugen ein Stück näher. Was aber, wenn man die Qualität eines Artikels vorhersagen könnte, während dieser gerade produziert wird? Dann könnte man frühzeitig entscheiden, ob es sich lohnt, weitere Kosten und Mühen in dieses Teil zu investieren. Ein Traum ist dieses Szenario keineswegs. Grundannahme für die Vorhersage der Qualität ist, dass es auch zu Ausschuss oder Nacharbeit kommen kann, wenn sich alle Prozessparameter innerhalb der jeweils gültigen Toleranzen bewegen. Grund dafür sind komplexe Zusammenhänge und Wechselwirkungen, die oft auf die eigentliche Fertigungstechnologie zurückzuführen sind. Bei seiner Anwendung Predictive Quality berücksichtigt der MES-Hersteller MPDV diese Zusammenhänge und gibt Mitarbeitern in der Fertigung die Möglichkeit, zu sehen, ob der aktuell produzierte Artikel Ausschuss oder Gutteil ist – mit der Angabe der Eintrittswahrscheinlichkeit. Wie das funktioniert, wird im Folgenden erläutert.

Möglichst breite Datenbasis

Die Vorhersage der Qualität funktioniert nur mit der umfangreichen Sammlung von Daten. Es braucht dafür ein möglichst breites Feld an Prozessdaten, die sich mit dazu passenden Qualitätsdaten korrelieren lassen. Ein solches Datenset besteht also aus einer großen Anzahl von Datensätzen mit jeweils mehreren Prozesswerten sowie der dazugehörigen Qualitätseinstufung – je mehr desto besser. Wichtig ist dabei, dass die erfassten Prozesswerte synchron mit den Qualitätseinstufungen sind. Bei der Erfassung solcher Daten können sowohl klassische Datensammler oder eine IIoT-Plattform als auch Manufacturing Execution Systeme (MES) wie Hydra von MPDV unterstützen. Die Zuweisung der jeweiligen Qualitätseinstufung erfolgt idealerweise automatisch, kann gegebenenfalls aber auch von Hand erfolgen – schließlich geht es hier zunächst um einen zeitlich begrenzten Vorgang. Neben der reinen Masse der erfassten Daten – sowohl in der Breite als auch die Anzahl der Datensätze – ist auch die Vielfältigkeit der Daten entscheidend für die Zuverlässigkeit der späteren Vorhersagen. Je mehr die einzelnen Prozesswerte sich innerhalb ihrer zulässigen Toleranzen verändern und je mehr Kombinationen unterschiedlicher Extremwerte erfasst werden, desto besser.

Modelle entwickeln

Im nächsten Schritt werden die vorliegenden Daten analysiert und daraus ein Vorhersagemodell entwickelt. Hierbei kommen statistische Methoden sowie künstliche Intelligenz zum Einsatz. Das Ergebnis sind Modelle die beispielsweise im sogenannten PMML-Standard gespeichert werden. PMML steht für ‚Predictive Model Markup Language‘. Dabei handelt es sich um einen XML-basierten Standard, mit dem Vorhersage-Modelle beschrieben werden können. Mittlerweile ist dieser Standard weit verbreitet und wird von mehr als 30 Unternehmen genutzt, die sich zum Teil auch in der sogenannten Data Mining Group (DMG) zusammengeschlossen haben. Der PMML-Standard eignet sich also, um Erkenntnisse aus der ersten Datenaufnahme so zu modellieren, dass damit Vorhersagen möglich sind. Gleichzeitig können diese Modelle von unterschiedlichen Anwendungen genutzt werden.

Analysen in Echtzeit

Bringt man das auf diese Wiese generierte Modell nun in die Erfassungskomponente von Predictive Quality ein, können die im laufenden Betrieb erfassten Prozessdaten in Echtzeit interpretiert und daraus die Qualitätsvorhersage berechnet werden. Neben der Einordnung in Gutstück oder Ausschuss liefert die Anwendung auch die Wahrscheinlichkeit dafür, dass die Vorhersage korrekt ist. Auf Basis dieser beiden Werte lassen sich dann Regeln definieren, die eine automatische Qualitätsentscheidung ermöglichen. Beispielswiese können Kunststoffteile, die mit einer Wahrscheinlichkeit von mehr als 60 Prozent Ausschuss sind, sofort dem Schredder zugeführt werden, um daraus wieder Granulat herzustellen. Oder Gussteile aus speziellen Legierungen werden gleich wieder eingeschmolzen, wenn die Wahrscheinlichkeit für Ausschuss über 75 Prozent liegt. Genauso können Gutteile als solche deklariert werden, wenn die Wahrscheinlichkeit dafür bei über 90 Prozent liegt – natürlich nur, wenn keine 100 Prozent-Prüfung der Teile vorgeschrieben ist. Alle anderen Teile könnten einer weiteren Prüfung unterzogen oder als B-Ware günstiger verkauft werden. Gerade wenn die Qualität eines hergestellten Artikels erst später durch Begutachtung überprüft werden kann, ist eine verlässliche Vorhersage von enormer Bedeutung. Beispiele dafür sind der Abkühlprozess beim Kunststoff-Spritzguss, die mechanische Nachbearbeitung beim Gießen von Metallteilen oder Montagevorgänge, die das Prüfen einzelner Komponenten erst im finalen Zustand ermöglichen. Somit können Zeit und Kosten gespart werden, die ansonsten bei der Weiterverarbeitung von vermeintlichen Ausschussteilen oder deren Nutzung in weiteren Prozessschritten anfallen würden.

Modell im Aufbau

Die Anwendung Predictive Quality als Bestandteil der Fertigungs-IT kann Ereignisse vorhersagen. Diese Art von Anwendungen fasst der Hersteller MPDV unter dem Begriff ‚Prediction‘ zusammen. Gemeinsam mit weiteren Anwendungsgruppen wie ‚Analytics‘, ‚Execution‘, ‚IIoT‘ sowie ‚Planning & Scheduling‘ wird daraus das Modell ‚Smart Factory Elements‘.


Das könnte Sie auch interessieren:

Im Rahmen eines neu aufgesetzten Partnerprogramms will der Simulationsspezialist Machineering Anwendern u.a. die Lösungsintegration erleichtern.‣ weiterlesen

Immer wieder sind Unternehmen und Organisationen von Ransomware-Angriffen betroffen. Der Softwareanbieter Check Point beobachtet dabei ein noch aggressiveres Vorgehen der Hacker.‣ weiterlesen

Toby Alcock ist neuer Chief Technology Officer der Logicalis Group. Er bekleidete zuletzt die Position des Chief Technology Officer für Logicalis Australien.‣ weiterlesen

Sven Behrendt ist neuer CEO der SER Group. Die Unternehmensgruppe teilt zudem mit, dass John Bates als Executive Chairman in den Beirat der SER Group berufen wurde.‣ weiterlesen

Der Ort, an dem die wichtigsten Prozesse der Datenspeicherung und -verarbeitung stattfinden, hat sich in den letzten Jahrzehnten mehrfach verschoben. Von zentralen Großrechnern bis in die Cloud und wieder zurück. Durch den aktuellen Trend des Edge Computing werden Teile der Datenverarbeitung wieder näher an den Entstehungsort gerückt. Doch was ist der effizienteste Weg?‣ weiterlesen

In vielen Unternehmen steht der Anspruch an die Produktqualität in krassem Gegensatz zum Anspruch an die Stamm- und Plandaten. Doch diese sind essenziell für viele Berechnungen bis hin zur Wirtschaftlichkeit eines Produktes. Datenpflege im Werk ist zwar mühsam, aber mit den passenden Methoden und Software gut zu bewältigen.‣ weiterlesen

Wirklich Nutzen aus Machine Learning zu ziehen, ist schon schwer genug. Umso ärgerlicher ist es, wenn Fehler den Fortschritt verzögern. Dieser Leitfaden führt, angelehnt an zahlreiche Best Practices, durch ein erfolgreiches ML-Projekt und zeigt typische Fallstricke auf.‣ weiterlesen

Bei der Umstellung auf eine datengetriebene Produktion gibt es einige Herausforderungen, die es bereits im Vorfeld zu beachten gilt. Um diese systematisch angehen und meistern zu können, ist eine stufenweise Etablierung deshalb ein sinnvoller Weg.‣ weiterlesen

Martin Strempel ist neuer Business Development Manager Data Analytics beim beim MES-Anbieter Itac Software. In seiner bisherigen Laufbahn bei der BMW Group war er u.a. für die Produktionssteuerung im Werk in München verantwortlich und entwickelte Manufacturing Execution Systeme (MES) weiter.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige