Vorausschauende Qualitätskontrolle

Echtzeitanalysen und die Macht der Daten

Die Vorhersage von Ereignissen hat den Menschen schon immer interessiert. Kein Wunder, dass Anwendungen wie Predictive Maintenance als Aushängeschild für Industrie 4.0 gelten. Aber wäre es nicht auch praktisch, die Qualität gerade erst gefertigter Produkte vorhersagen zu können?

Unmittelbare Rückmeldung der vorhergesagten Qualität an den Werker (Bild: MPDV Mikrolab GmbH)
Unmittelbare Rückmeldung der vorhergesagten Qualität an den Werker. (Bild: MPDV Mikrolab GmbH)

Ressourceneffizienz ist schon seit vielen Jahren ein wichtiges Thema für die Fertigungsindustrie – nicht nur aus ökologischen, sondern auch aus ökonomischen Gründen. Neben dem sparsamen Umgang mit Rohstoffen und Energie rücken dabei Fragen zu effizienten Produktionsabläufen oder dem frühzeitigen Erkennen von Abweichungen immer mehr in den Vordergrund. Nicht selten träumt ein Fertigungsleiter von der Vorhersage von Störungen, um diese gleich vermeiden zu können. Predictive Maintenance kommt dieser Vorstellung beim Betrieb von Maschinen, Anlagen und Werkzeugen ein Stück näher. Was aber, wenn man die Qualität eines Artikels vorhersagen könnte, während dieser gerade produziert wird? Dann könnte man frühzeitig entscheiden, ob es sich lohnt, weitere Kosten und Mühen in dieses Teil zu investieren. Ein Traum ist dieses Szenario keineswegs. Grundannahme für die Vorhersage der Qualität ist, dass es auch zu Ausschuss oder Nacharbeit kommen kann, wenn sich alle Prozessparameter innerhalb der jeweils gültigen Toleranzen bewegen. Grund dafür sind komplexe Zusammenhänge und Wechselwirkungen, die oft auf die eigentliche Fertigungstechnologie zurückzuführen sind. Bei seiner Anwendung Predictive Quality berücksichtigt der MES-Hersteller MPDV diese Zusammenhänge und gibt Mitarbeitern in der Fertigung die Möglichkeit, zu sehen, ob der aktuell produzierte Artikel Ausschuss oder Gutteil ist – mit der Angabe der Eintrittswahrscheinlichkeit. Wie das funktioniert, wird im Folgenden erläutert.

Möglichst breite Datenbasis

Die Vorhersage der Qualität funktioniert nur mit der umfangreichen Sammlung von Daten. Es braucht dafür ein möglichst breites Feld an Prozessdaten, die sich mit dazu passenden Qualitätsdaten korrelieren lassen. Ein solches Datenset besteht also aus einer großen Anzahl von Datensätzen mit jeweils mehreren Prozesswerten sowie der dazugehörigen Qualitätseinstufung – je mehr desto besser. Wichtig ist dabei, dass die erfassten Prozesswerte synchron mit den Qualitätseinstufungen sind. Bei der Erfassung solcher Daten können sowohl klassische Datensammler oder eine IIoT-Plattform als auch Manufacturing Execution Systeme (MES) wie Hydra von MPDV unterstützen. Die Zuweisung der jeweiligen Qualitätseinstufung erfolgt idealerweise automatisch, kann gegebenenfalls aber auch von Hand erfolgen – schließlich geht es hier zunächst um einen zeitlich begrenzten Vorgang. Neben der reinen Masse der erfassten Daten – sowohl in der Breite als auch die Anzahl der Datensätze – ist auch die Vielfältigkeit der Daten entscheidend für die Zuverlässigkeit der späteren Vorhersagen. Je mehr die einzelnen Prozesswerte sich innerhalb ihrer zulässigen Toleranzen verändern und je mehr Kombinationen unterschiedlicher Extremwerte erfasst werden, desto besser.

Modelle entwickeln

Im nächsten Schritt werden die vorliegenden Daten analysiert und daraus ein Vorhersagemodell entwickelt. Hierbei kommen statistische Methoden sowie künstliche Intelligenz zum Einsatz. Das Ergebnis sind Modelle die beispielsweise im sogenannten PMML-Standard gespeichert werden. PMML steht für ‚Predictive Model Markup Language‘. Dabei handelt es sich um einen XML-basierten Standard, mit dem Vorhersage-Modelle beschrieben werden können. Mittlerweile ist dieser Standard weit verbreitet und wird von mehr als 30 Unternehmen genutzt, die sich zum Teil auch in der sogenannten Data Mining Group (DMG) zusammengeschlossen haben. Der PMML-Standard eignet sich also, um Erkenntnisse aus der ersten Datenaufnahme so zu modellieren, dass damit Vorhersagen möglich sind. Gleichzeitig können diese Modelle von unterschiedlichen Anwendungen genutzt werden.

Analysen in Echtzeit

Bringt man das auf diese Wiese generierte Modell nun in die Erfassungskomponente von Predictive Quality ein, können die im laufenden Betrieb erfassten Prozessdaten in Echtzeit interpretiert und daraus die Qualitätsvorhersage berechnet werden. Neben der Einordnung in Gutstück oder Ausschuss liefert die Anwendung auch die Wahrscheinlichkeit dafür, dass die Vorhersage korrekt ist. Auf Basis dieser beiden Werte lassen sich dann Regeln definieren, die eine automatische Qualitätsentscheidung ermöglichen. Beispielswiese können Kunststoffteile, die mit einer Wahrscheinlichkeit von mehr als 60 Prozent Ausschuss sind, sofort dem Schredder zugeführt werden, um daraus wieder Granulat herzustellen. Oder Gussteile aus speziellen Legierungen werden gleich wieder eingeschmolzen, wenn die Wahrscheinlichkeit für Ausschuss über 75 Prozent liegt. Genauso können Gutteile als solche deklariert werden, wenn die Wahrscheinlichkeit dafür bei über 90 Prozent liegt – natürlich nur, wenn keine 100 Prozent-Prüfung der Teile vorgeschrieben ist. Alle anderen Teile könnten einer weiteren Prüfung unterzogen oder als B-Ware günstiger verkauft werden. Gerade wenn die Qualität eines hergestellten Artikels erst später durch Begutachtung überprüft werden kann, ist eine verlässliche Vorhersage von enormer Bedeutung. Beispiele dafür sind der Abkühlprozess beim Kunststoff-Spritzguss, die mechanische Nachbearbeitung beim Gießen von Metallteilen oder Montagevorgänge, die das Prüfen einzelner Komponenten erst im finalen Zustand ermöglichen. Somit können Zeit und Kosten gespart werden, die ansonsten bei der Weiterverarbeitung von vermeintlichen Ausschussteilen oder deren Nutzung in weiteren Prozessschritten anfallen würden.

Modell im Aufbau

Die Anwendung Predictive Quality als Bestandteil der Fertigungs-IT kann Ereignisse vorhersagen. Diese Art von Anwendungen fasst der Hersteller MPDV unter dem Begriff ‚Prediction‘ zusammen. Gemeinsam mit weiteren Anwendungsgruppen wie ‚Analytics‘, ‚Execution‘, ‚IIoT‘ sowie ‚Planning & Scheduling‘ wird daraus das Modell ‚Smart Factory Elements‘.







  • KI in Fertigungsbranche vorn

    Die neunte Ausgabe von Rockwell Automations „State of Smart Manufacturing“ Report liefert Einblicke in Trends und Herausforderungen für Hersteller. Dazu wurden über…


  • Ein Stück näher am Quanteninternet

    Das Quanteninternet verspricht signifikante Verbesserungen in verschiedenen technologischen Schlüsselbereichen. Um dieses jedoch im bestehenden Glaserfasernetz zu realisieren, sind Quantenfrequenzkonverter nötig, die die…


  • MES-Integrator und 360-Grad-Partner für optimierte Fertigung

    Das Manufacturing Execution System (MES) HYDRA optimiert Produktionsprozesse für Fertigungsunternehmen, um Wettbewerbsvorteile zu erzielen.


  • Nachhaltigkeitsthemen im Datenmanagement abbilden

    Technologien wie Robotic Process Automation (RPA) oder künstliche Intelligenz (KI) können Unternehmen beim Management von ESG-Daten unterstützen. Der Softwarespezialist Blue Prism beleuchtet…


  • Weniger deutsche Unternehmen abhängig von Vorprodukten aus China

    Im Vergleich zu einer Untersuchung kurz vor Beginn Kriegs in der Ukraine, geben in einer aktuellen Untersuchung des Ifo Instituts weniger Unternehmen…