Beitrag drucken

Vorausschauende Qualitätskontrolle

Echtzeitanalysen und die Macht der Daten

Die Vorhersage von Ereignissen hat den Menschen schon immer interessiert. Kein Wunder, dass Anwendungen wie Predictive Maintenance als Aushängeschild für Industrie 4.0 gelten. Aber wäre es nicht auch praktisch, die Qualität gerade erst gefertigter Produkte vorhersagen zu können?

Unmittelbare Rückmeldung der vorhergesagten Qualität an den Werker (Bild: MPDV Mikrolab GmbH)

Unmittelbare Rückmeldung der vorhergesagten Qualität an den Werker. (Bild: MPDV Mikrolab GmbH)

Ressourceneffizienz ist schon seit vielen Jahren ein wichtiges Thema für die Fertigungsindustrie – nicht nur aus ökologischen, sondern auch aus ökonomischen Gründen. Neben dem sparsamen Umgang mit Rohstoffen und Energie rücken dabei Fragen zu effizienten Produktionsabläufen oder dem frühzeitigen Erkennen von Abweichungen immer mehr in den Vordergrund. Nicht selten träumt ein Fertigungsleiter von der Vorhersage von Störungen, um diese gleich vermeiden zu können. Predictive Maintenance kommt dieser Vorstellung beim Betrieb von Maschinen, Anlagen und Werkzeugen ein Stück näher. Was aber, wenn man die Qualität eines Artikels vorhersagen könnte, während dieser gerade produziert wird? Dann könnte man frühzeitig entscheiden, ob es sich lohnt, weitere Kosten und Mühen in dieses Teil zu investieren. Ein Traum ist dieses Szenario keineswegs. Grundannahme für die Vorhersage der Qualität ist, dass es auch zu Ausschuss oder Nacharbeit kommen kann, wenn sich alle Prozessparameter innerhalb der jeweils gültigen Toleranzen bewegen. Grund dafür sind komplexe Zusammenhänge und Wechselwirkungen, die oft auf die eigentliche Fertigungstechnologie zurückzuführen sind. Bei seiner Anwendung Predictive Quality berücksichtigt der MES-Hersteller MPDV diese Zusammenhänge und gibt Mitarbeitern in der Fertigung die Möglichkeit, zu sehen, ob der aktuell produzierte Artikel Ausschuss oder Gutteil ist – mit der Angabe der Eintrittswahrscheinlichkeit. Wie das funktioniert, wird im Folgenden erläutert.

Möglichst breite Datenbasis

Die Vorhersage der Qualität funktioniert nur mit der umfangreichen Sammlung von Daten. Es braucht dafür ein möglichst breites Feld an Prozessdaten, die sich mit dazu passenden Qualitätsdaten korrelieren lassen. Ein solches Datenset besteht also aus einer großen Anzahl von Datensätzen mit jeweils mehreren Prozesswerten sowie der dazugehörigen Qualitätseinstufung – je mehr desto besser. Wichtig ist dabei, dass die erfassten Prozesswerte synchron mit den Qualitätseinstufungen sind. Bei der Erfassung solcher Daten können sowohl klassische Datensammler oder eine IIoT-Plattform als auch Manufacturing Execution Systeme (MES) wie Hydra von MPDV unterstützen. Die Zuweisung der jeweiligen Qualitätseinstufung erfolgt idealerweise automatisch, kann gegebenenfalls aber auch von Hand erfolgen – schließlich geht es hier zunächst um einen zeitlich begrenzten Vorgang. Neben der reinen Masse der erfassten Daten – sowohl in der Breite als auch die Anzahl der Datensätze – ist auch die Vielfältigkeit der Daten entscheidend für die Zuverlässigkeit der späteren Vorhersagen. Je mehr die einzelnen Prozesswerte sich innerhalb ihrer zulässigen Toleranzen verändern und je mehr Kombinationen unterschiedlicher Extremwerte erfasst werden, desto besser.

Modelle entwickeln

Im nächsten Schritt werden die vorliegenden Daten analysiert und daraus ein Vorhersagemodell entwickelt. Hierbei kommen statistische Methoden sowie künstliche Intelligenz zum Einsatz. Das Ergebnis sind Modelle die beispielsweise im sogenannten PMML-Standard gespeichert werden. PMML steht für ‚Predictive Model Markup Language‘. Dabei handelt es sich um einen XML-basierten Standard, mit dem Vorhersage-Modelle beschrieben werden können. Mittlerweile ist dieser Standard weit verbreitet und wird von mehr als 30 Unternehmen genutzt, die sich zum Teil auch in der sogenannten Data Mining Group (DMG) zusammengeschlossen haben. Der PMML-Standard eignet sich also, um Erkenntnisse aus der ersten Datenaufnahme so zu modellieren, dass damit Vorhersagen möglich sind. Gleichzeitig können diese Modelle von unterschiedlichen Anwendungen genutzt werden.

Analysen in Echtzeit

Bringt man das auf diese Wiese generierte Modell nun in die Erfassungskomponente von Predictive Quality ein, können die im laufenden Betrieb erfassten Prozessdaten in Echtzeit interpretiert und daraus die Qualitätsvorhersage berechnet werden. Neben der Einordnung in Gutstück oder Ausschuss liefert die Anwendung auch die Wahrscheinlichkeit dafür, dass die Vorhersage korrekt ist. Auf Basis dieser beiden Werte lassen sich dann Regeln definieren, die eine automatische Qualitätsentscheidung ermöglichen. Beispielswiese können Kunststoffteile, die mit einer Wahrscheinlichkeit von mehr als 60 Prozent Ausschuss sind, sofort dem Schredder zugeführt werden, um daraus wieder Granulat herzustellen. Oder Gussteile aus speziellen Legierungen werden gleich wieder eingeschmolzen, wenn die Wahrscheinlichkeit für Ausschuss über 75 Prozent liegt. Genauso können Gutteile als solche deklariert werden, wenn die Wahrscheinlichkeit dafür bei über 90 Prozent liegt – natürlich nur, wenn keine 100 Prozent-Prüfung der Teile vorgeschrieben ist. Alle anderen Teile könnten einer weiteren Prüfung unterzogen oder als B-Ware günstiger verkauft werden. Gerade wenn die Qualität eines hergestellten Artikels erst später durch Begutachtung überprüft werden kann, ist eine verlässliche Vorhersage von enormer Bedeutung. Beispiele dafür sind der Abkühlprozess beim Kunststoff-Spritzguss, die mechanische Nachbearbeitung beim Gießen von Metallteilen oder Montagevorgänge, die das Prüfen einzelner Komponenten erst im finalen Zustand ermöglichen. Somit können Zeit und Kosten gespart werden, die ansonsten bei der Weiterverarbeitung von vermeintlichen Ausschussteilen oder deren Nutzung in weiteren Prozessschritten anfallen würden.

Modell im Aufbau

Die Anwendung Predictive Quality als Bestandteil der Fertigungs-IT kann Ereignisse vorhersagen. Diese Art von Anwendungen fasst der Hersteller MPDV unter dem Begriff ‚Prediction‘ zusammen. Gemeinsam mit weiteren Anwendungsgruppen wie ‚Analytics‘, ‚Execution‘, ‚IIoT‘ sowie ‚Planning & Scheduling‘ wird daraus das Modell ‚Smart Factory Elements‘.


Das könnte Sie auch interessieren:

Die Bestellungen im Maschinen- und Anlagenbau gingen im April um 20 Prozent gegenüber Vorjahr zurück, meldet der VDMA. Schon im März lag der Wert sechs Prozent im Minus‣ weiterlesen

Nicht nur EU und Bundesregierung erwarten von der Wirtschaft, auch die Verbraucher fordern einen bewussteren Umgang mit Ressourcen. Mit einer Internet of Things-Applikation lässt sich an den Stellschrauben dazu drehen, meldete das IT-Infrastruktur- und Dienstleistungsunternehmen NTT kürzlich.‣ weiterlesen

Am 24. und 25. Mai stand Dortmund im Zeichen der industriellen Instandhaltung. Mehr als 4.000 Besucher und rund 200 Aussteller zählte der Veranstalter Easyfairs am Ende der diesjährigen Maintenance.‣ weiterlesen

Die Geschäftsbedingungen in der deutschen Industrie wurden im Mai schlechter, meldet das BME im Einkaufsmanagerindex EMI. Vor allem im Ausland ging die Nachfrage kräftiger zurück, teilt der US-amerikanische Finanzdienstleister S&P Global mit, der hinter der Analyse steht.‣ weiterlesen

Die GFOS blickt auf 35 Jahre Unternehmensgeschichte zurück und blickt in diesem Zuge auch in die Zukunft. So will der Softwareanbieter seine Geschäftsaktivitäten international erweitern.‣ weiterlesen

Die 2020 gegründete IDTA wächst und begrüßt mit Mitsubishi Electric Europe ihr 100. Mitglied.‣ weiterlesen

Prof. Dr.-Ing. Holger Hanselka, Präsident des Karlsruher Instituts für Technologie (KIT) wird der 11. Präsident der Fraunhofer-Gesellschaft und löst Prof. Dr.-Ing. Reimund Neugebauer nach fast elf Jahren ab.‣ weiterlesen

Christian Thönes, Vorstandsvorsitzender bei DMG Mori, hat am Donnerstag sein Amt niedergelegt. Sein Vertrag wurde im Rahmen einer Aufsichtsratssitzung einvernehmlich beendet. Alfred Geißler wurde vom Aufsichtsrat zum Nachfolger bestellt.‣ weiterlesen

Microsoft feiert 40. Geburtstag in Deutschland und eröffnet ein europäisches Experience Center in München. Es ist eines von vier Experience Centern weltweit.‣ weiterlesen

Expertinnen und Experten der Plattform Lernende Systeme beleuchten in einem neuen Whitepaper, wie es um die Entwicklung europäischer bzw. deutscher KI-Sprachmodelle bestellt ist.‣ weiterlesen