Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Vorausschauende Qualitätskontrolle

Echtzeitanalysen und die Macht der Daten

Die Vorhersage von Ereignissen hat den Menschen schon immer interessiert. Kein Wunder, dass Anwendungen wie Predictive Maintenance als Aushängeschild für Industrie 4.0 gelten. Aber wäre es nicht auch praktisch, die Qualität gerade erst gefertigter Produkte vorhersagen zu können?

Unmittelbare Rückmeldung der vorhergesagten Qualität an den Werker (Bild: MPDV Mikrolab GmbH)

Unmittelbare Rückmeldung der vorhergesagten Qualität an den Werker. (Bild: MPDV Mikrolab GmbH)

Ressourceneffizienz ist schon seit vielen Jahren ein wichtiges Thema für die Fertigungsindustrie – nicht nur aus ökologischen, sondern auch aus ökonomischen Gründen. Neben dem sparsamen Umgang mit Rohstoffen und Energie rücken dabei Fragen zu effizienten Produktionsabläufen oder dem frühzeitigen Erkennen von Abweichungen immer mehr in den Vordergrund. Nicht selten träumt ein Fertigungsleiter von der Vorhersage von Störungen, um diese gleich vermeiden zu können. Predictive Maintenance kommt dieser Vorstellung beim Betrieb von Maschinen, Anlagen und Werkzeugen ein Stück näher. Was aber, wenn man die Qualität eines Artikels vorhersagen könnte, während dieser gerade produziert wird? Dann könnte man frühzeitig entscheiden, ob es sich lohnt, weitere Kosten und Mühen in dieses Teil zu investieren. Ein Traum ist dieses Szenario keineswegs. Grundannahme für die Vorhersage der Qualität ist, dass es auch zu Ausschuss oder Nacharbeit kommen kann, wenn sich alle Prozessparameter innerhalb der jeweils gültigen Toleranzen bewegen. Grund dafür sind komplexe Zusammenhänge und Wechselwirkungen, die oft auf die eigentliche Fertigungstechnologie zurückzuführen sind. Bei seiner Anwendung Predictive Quality berücksichtigt der MES-Hersteller MPDV diese Zusammenhänge und gibt Mitarbeitern in der Fertigung die Möglichkeit, zu sehen, ob der aktuell produzierte Artikel Ausschuss oder Gutteil ist – mit der Angabe der Eintrittswahrscheinlichkeit. Wie das funktioniert, wird im Folgenden erläutert.

Möglichst breite Datenbasis

Die Vorhersage der Qualität funktioniert nur mit der umfangreichen Sammlung von Daten. Es braucht dafür ein möglichst breites Feld an Prozessdaten, die sich mit dazu passenden Qualitätsdaten korrelieren lassen. Ein solches Datenset besteht also aus einer großen Anzahl von Datensätzen mit jeweils mehreren Prozesswerten sowie der dazugehörigen Qualitätseinstufung – je mehr desto besser. Wichtig ist dabei, dass die erfassten Prozesswerte synchron mit den Qualitätseinstufungen sind. Bei der Erfassung solcher Daten können sowohl klassische Datensammler oder eine IIoT-Plattform als auch Manufacturing Execution Systeme (MES) wie Hydra von MPDV unterstützen. Die Zuweisung der jeweiligen Qualitätseinstufung erfolgt idealerweise automatisch, kann gegebenenfalls aber auch von Hand erfolgen – schließlich geht es hier zunächst um einen zeitlich begrenzten Vorgang. Neben der reinen Masse der erfassten Daten – sowohl in der Breite als auch die Anzahl der Datensätze – ist auch die Vielfältigkeit der Daten entscheidend für die Zuverlässigkeit der späteren Vorhersagen. Je mehr die einzelnen Prozesswerte sich innerhalb ihrer zulässigen Toleranzen verändern und je mehr Kombinationen unterschiedlicher Extremwerte erfasst werden, desto besser.

Modelle entwickeln

Im nächsten Schritt werden die vorliegenden Daten analysiert und daraus ein Vorhersagemodell entwickelt. Hierbei kommen statistische Methoden sowie künstliche Intelligenz zum Einsatz. Das Ergebnis sind Modelle die beispielsweise im sogenannten PMML-Standard gespeichert werden. PMML steht für ‚Predictive Model Markup Language‘. Dabei handelt es sich um einen XML-basierten Standard, mit dem Vorhersage-Modelle beschrieben werden können. Mittlerweile ist dieser Standard weit verbreitet und wird von mehr als 30 Unternehmen genutzt, die sich zum Teil auch in der sogenannten Data Mining Group (DMG) zusammengeschlossen haben. Der PMML-Standard eignet sich also, um Erkenntnisse aus der ersten Datenaufnahme so zu modellieren, dass damit Vorhersagen möglich sind. Gleichzeitig können diese Modelle von unterschiedlichen Anwendungen genutzt werden.

Analysen in Echtzeit

Bringt man das auf diese Wiese generierte Modell nun in die Erfassungskomponente von Predictive Quality ein, können die im laufenden Betrieb erfassten Prozessdaten in Echtzeit interpretiert und daraus die Qualitätsvorhersage berechnet werden. Neben der Einordnung in Gutstück oder Ausschuss liefert die Anwendung auch die Wahrscheinlichkeit dafür, dass die Vorhersage korrekt ist. Auf Basis dieser beiden Werte lassen sich dann Regeln definieren, die eine automatische Qualitätsentscheidung ermöglichen. Beispielswiese können Kunststoffteile, die mit einer Wahrscheinlichkeit von mehr als 60 Prozent Ausschuss sind, sofort dem Schredder zugeführt werden, um daraus wieder Granulat herzustellen. Oder Gussteile aus speziellen Legierungen werden gleich wieder eingeschmolzen, wenn die Wahrscheinlichkeit für Ausschuss über 75 Prozent liegt. Genauso können Gutteile als solche deklariert werden, wenn die Wahrscheinlichkeit dafür bei über 90 Prozent liegt – natürlich nur, wenn keine 100 Prozent-Prüfung der Teile vorgeschrieben ist. Alle anderen Teile könnten einer weiteren Prüfung unterzogen oder als B-Ware günstiger verkauft werden. Gerade wenn die Qualität eines hergestellten Artikels erst später durch Begutachtung überprüft werden kann, ist eine verlässliche Vorhersage von enormer Bedeutung. Beispiele dafür sind der Abkühlprozess beim Kunststoff-Spritzguss, die mechanische Nachbearbeitung beim Gießen von Metallteilen oder Montagevorgänge, die das Prüfen einzelner Komponenten erst im finalen Zustand ermöglichen. Somit können Zeit und Kosten gespart werden, die ansonsten bei der Weiterverarbeitung von vermeintlichen Ausschussteilen oder deren Nutzung in weiteren Prozessschritten anfallen würden.

Modell im Aufbau

Die Anwendung Predictive Quality als Bestandteil der Fertigungs-IT kann Ereignisse vorhersagen. Diese Art von Anwendungen fasst der Hersteller MPDV unter dem Begriff ‚Prediction‘ zusammen. Gemeinsam mit weiteren Anwendungsgruppen wie ‚Analytics‘, ‚Execution‘, ‚IIoT‘ sowie ‚Planning & Scheduling‘ wird daraus das Modell ‚Smart Factory Elements‘.


Das könnte Sie auch interessieren:

Zur 22. Jahrestagung 'Portfolio- und Projektmanagement mit SAP' lädt TAC Events im November ein. Neben einer Präsenzveranstaltung ist auch die Online-Teilnahme möglich.‣ weiterlesen

Bosch Rexroth hat die App ValueStreamManager für digitales Mapping, Design und Visualisierung von Wertströmen vorgestellt. Viele Fertigungsbetriebe betreiben Lean Management, um den Wertstrom im Unternehmen immer besser zu planen und umzusetzen.‣ weiterlesen

Aktuelle IoT-Plattformen sollten einige Mindestanforderungen erfüllen, um als Grundlage für komplexere Projekte in Frage zu kommen. Um diese geht es im folgenden Artikel, beginnend bei der Konnektivität, also den unterstützten Protokollen und Schnittstellen.‣ weiterlesen

Die Steigerung von Produktivität und Effektivität in der Industrie und eine ressourcenschonende Nachhaltigkeit stehen sich nicht unversöhnlich gegenüber. Wirtschaftliche Ziele und ökologische Verantwortung unterstützen sich gegenseitig - nur ist das noch nicht überall erkannt.‣ weiterlesen

Die 16. FMB – Zuliefermesse Maschinenbau findet vom 10. bis 12. November 2021 im Messezentrum Bad Salzuflen statt. Zu den Topthemen kürte Veranstalter Easyfairs die Oberflächentechnik und Digitalisierung.‣ weiterlesen

Produktionsunternehmen sollen mit den neuen IoTmaxx-Mobilfunk-Gateways Maschinendaten besonders schnell in die AnyViz-Cloud übertragen können.‣ weiterlesen

Self-Service-Technologie, digitale Assistenten, künstliche Intelligenz - die Digitalwerkzeuge fürs Kundenbeziehungsmanagement werden immer ausgefeilter. Sind CRM- und ERP-System gut integriert, lassen sich im Sinn des xRM-Ansatzes auch leicht die Beziehungen zu Geschäftspartnern IT-gestützt pflegen.‣ weiterlesen

Vor allem KMU befürchten häufig, bei der IT-gestützten Prozessoptimierung im Vergleich zu Großkonzernen nicht mithalten zu können. Die beiden Technologieprojekte IIP Ecosphere und FabOS, die im Rahmen des KI-Innovationswettbewerbs vom BMWi gefördert werden, wollen diesen Firmen den Zugang zu KI-Anwendungen erleichtern.‣ weiterlesen

Emerson hat die Einführung der Software Plantweb Optics Data Lake bekanntgegeben. Die Datenmanagement-Lösung identifiziert, erfasst und kontextualisiert unterschiedliche Daten in großem Maßstab entweder vor Ort in industriellen Anlagen oder mithilfe von Cloud-Technologie.‣ weiterlesen

Im September 2021 erscheint die Richtlinie VDI/VDE 2185 Blatt 2 'Funkgestützte Kommunikation in der Automatisierungstechnik - Koexistenzmanagement von Funksystemen'. Wenn unterschiedliche Funksysteme bei Automatisierungsaufgaben unterstützen, ist mit einer gegenseitigen Beeinflussung der Systeme zu rechnen.‣ weiterlesen

Klare Sicht auf das Werksgeschehen und die Rückverfolgbarkeit von Produkten und Prozessen sind zunehmend wichtige Erfolgsfaktoren. Mit dem MES Valeris will WSW Software gerade mittelständischen Fertigern helfen, diese Ziele zu erreichen. Das System soll schnell und günstig einsatzfähig sein, konfiguriert wird es in Eigenregie.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige