Anzeige
Anzeige
Anzeige
Beitrag drucken

Vorausschauende Qualitätskontrolle

Echtzeitanalysen und die Macht der Daten

Die Vorhersage von Ereignissen hat den Menschen schon immer interessiert. Kein Wunder, dass Anwendungen wie Predictive Maintenance als Aushängeschild für Industrie 4.0 gelten. Aber wäre es nicht auch praktisch, die Qualität gerade erst gefertigter Produkte vorhersagen zu können?

Unmittelbare Rückmeldung der vorhergesagten Qualität an den Werker (Bild: MPDV Mikrolab GmbH)

Unmittelbare Rückmeldung der vorhergesagten Qualität an den Werker. (Bild: MPDV Mikrolab GmbH)

Ressourceneffizienz ist schon seit vielen Jahren ein wichtiges Thema für die Fertigungsindustrie – nicht nur aus ökologischen, sondern auch aus ökonomischen Gründen. Neben dem sparsamen Umgang mit Rohstoffen und Energie rücken dabei Fragen zu effizienten Produktionsabläufen oder dem frühzeitigen Erkennen von Abweichungen immer mehr in den Vordergrund. Nicht selten träumt ein Fertigungsleiter von der Vorhersage von Störungen, um diese gleich vermeiden zu können. Predictive Maintenance kommt dieser Vorstellung beim Betrieb von Maschinen, Anlagen und Werkzeugen ein Stück näher. Was aber, wenn man die Qualität eines Artikels vorhersagen könnte, während dieser gerade produziert wird? Dann könnte man frühzeitig entscheiden, ob es sich lohnt, weitere Kosten und Mühen in dieses Teil zu investieren. Ein Traum ist dieses Szenario keineswegs. Grundannahme für die Vorhersage der Qualität ist, dass es auch zu Ausschuss oder Nacharbeit kommen kann, wenn sich alle Prozessparameter innerhalb der jeweils gültigen Toleranzen bewegen. Grund dafür sind komplexe Zusammenhänge und Wechselwirkungen, die oft auf die eigentliche Fertigungstechnologie zurückzuführen sind. Bei seiner Anwendung Predictive Quality berücksichtigt der MES-Hersteller MPDV diese Zusammenhänge und gibt Mitarbeitern in der Fertigung die Möglichkeit, zu sehen, ob der aktuell produzierte Artikel Ausschuss oder Gutteil ist – mit der Angabe der Eintrittswahrscheinlichkeit. Wie das funktioniert, wird im Folgenden erläutert.

Möglichst breite Datenbasis

Die Vorhersage der Qualität funktioniert nur mit der umfangreichen Sammlung von Daten. Es braucht dafür ein möglichst breites Feld an Prozessdaten, die sich mit dazu passenden Qualitätsdaten korrelieren lassen. Ein solches Datenset besteht also aus einer großen Anzahl von Datensätzen mit jeweils mehreren Prozesswerten sowie der dazugehörigen Qualitätseinstufung – je mehr desto besser. Wichtig ist dabei, dass die erfassten Prozesswerte synchron mit den Qualitätseinstufungen sind. Bei der Erfassung solcher Daten können sowohl klassische Datensammler oder eine IIoT-Plattform als auch Manufacturing Execution Systeme (MES) wie Hydra von MPDV unterstützen. Die Zuweisung der jeweiligen Qualitätseinstufung erfolgt idealerweise automatisch, kann gegebenenfalls aber auch von Hand erfolgen – schließlich geht es hier zunächst um einen zeitlich begrenzten Vorgang. Neben der reinen Masse der erfassten Daten – sowohl in der Breite als auch die Anzahl der Datensätze – ist auch die Vielfältigkeit der Daten entscheidend für die Zuverlässigkeit der späteren Vorhersagen. Je mehr die einzelnen Prozesswerte sich innerhalb ihrer zulässigen Toleranzen verändern und je mehr Kombinationen unterschiedlicher Extremwerte erfasst werden, desto besser.

Modelle entwickeln

Im nächsten Schritt werden die vorliegenden Daten analysiert und daraus ein Vorhersagemodell entwickelt. Hierbei kommen statistische Methoden sowie künstliche Intelligenz zum Einsatz. Das Ergebnis sind Modelle die beispielsweise im sogenannten PMML-Standard gespeichert werden. PMML steht für ‚Predictive Model Markup Language‘. Dabei handelt es sich um einen XML-basierten Standard, mit dem Vorhersage-Modelle beschrieben werden können. Mittlerweile ist dieser Standard weit verbreitet und wird von mehr als 30 Unternehmen genutzt, die sich zum Teil auch in der sogenannten Data Mining Group (DMG) zusammengeschlossen haben. Der PMML-Standard eignet sich also, um Erkenntnisse aus der ersten Datenaufnahme so zu modellieren, dass damit Vorhersagen möglich sind. Gleichzeitig können diese Modelle von unterschiedlichen Anwendungen genutzt werden.

Analysen in Echtzeit

Bringt man das auf diese Wiese generierte Modell nun in die Erfassungskomponente von Predictive Quality ein, können die im laufenden Betrieb erfassten Prozessdaten in Echtzeit interpretiert und daraus die Qualitätsvorhersage berechnet werden. Neben der Einordnung in Gutstück oder Ausschuss liefert die Anwendung auch die Wahrscheinlichkeit dafür, dass die Vorhersage korrekt ist. Auf Basis dieser beiden Werte lassen sich dann Regeln definieren, die eine automatische Qualitätsentscheidung ermöglichen. Beispielswiese können Kunststoffteile, die mit einer Wahrscheinlichkeit von mehr als 60 Prozent Ausschuss sind, sofort dem Schredder zugeführt werden, um daraus wieder Granulat herzustellen. Oder Gussteile aus speziellen Legierungen werden gleich wieder eingeschmolzen, wenn die Wahrscheinlichkeit für Ausschuss über 75 Prozent liegt. Genauso können Gutteile als solche deklariert werden, wenn die Wahrscheinlichkeit dafür bei über 90 Prozent liegt – natürlich nur, wenn keine 100 Prozent-Prüfung der Teile vorgeschrieben ist. Alle anderen Teile könnten einer weiteren Prüfung unterzogen oder als B-Ware günstiger verkauft werden. Gerade wenn die Qualität eines hergestellten Artikels erst später durch Begutachtung überprüft werden kann, ist eine verlässliche Vorhersage von enormer Bedeutung. Beispiele dafür sind der Abkühlprozess beim Kunststoff-Spritzguss, die mechanische Nachbearbeitung beim Gießen von Metallteilen oder Montagevorgänge, die das Prüfen einzelner Komponenten erst im finalen Zustand ermöglichen. Somit können Zeit und Kosten gespart werden, die ansonsten bei der Weiterverarbeitung von vermeintlichen Ausschussteilen oder deren Nutzung in weiteren Prozessschritten anfallen würden.

Modell im Aufbau

Die Anwendung Predictive Quality als Bestandteil der Fertigungs-IT kann Ereignisse vorhersagen. Diese Art von Anwendungen fasst der Hersteller MPDV unter dem Begriff ‚Prediction‘ zusammen. Gemeinsam mit weiteren Anwendungsgruppen wie ‚Analytics‘, ‚Execution‘, ‚IIoT‘ sowie ‚Planning & Scheduling‘ wird daraus das Modell ‚Smart Factory Elements‘.


Das könnte Sie auch interessieren:

Ein im September 2019 als Weißdruck erschienener Standard des VDI soll helfen, die Potenziale von Formgedächtnislegierungen bei der Produktentwicklung zu nutzen. Der Hintergrund der neuen Richtlinienreihe VDI 2248 ist, dass feinwerktechnische Systeme immer kleinere leistungsfähigere Antriebe benötigen. Um dem gerecht zu werden, ist oft der Einsatz neuer Aktorprinzipien gefragt.‣ weiterlesen

Mit der neuen Cloud-Lösung Godesys One bietet der Mainzer ERP-Anbieter Godesys AG insbesondere kleineren Unternehmen mit fünf bis 25 Usern eine Einstiegslösung für digitales ERP. Die standardisierten Systemmodule sollen wichtige Funktionen abdecken und sich bedarfgerecht zusammenzustellen lassen.‣ weiterlesen

Das Zusammenspiel von IoT und Blockchain eröffnet neue Möglichkeiten: Mit Smart Contracts können etwa Zustandsdaten einer Maschine sicher an ihren Hersteller übermittelt werden. Und auch hinsichtlich des Energiebedarfs wird die Blockchain für die Industrie interessanter.‣ weiterlesen

Deutschland zählt mit einer Roboterdichte von 338 Einheiten pro 10.000 Arbeitnehmern im internationalen Vergleich zu den am stärksten automatisierten Volkswirtschaften. Nach Singapur und Südkorea rangiert die Bundesrepublik weltweit auf dem dritten Rang.‣ weiterlesen

Teil der Vision Industrie 4.0 ist es, Anlagekomponenten ohne Eingriff in die Steuerung austauschen zu können. Mit dem Konzept einer dienstbasierten Fertigung wollen das Fraunhofer IESE und weitere Projektpartner genau das praxistauglich ermöglichen.‣ weiterlesen

Über V2X-Kommunikation lassen sich Fahrzeuge untereinander und mit der umliegenden Infrastruktur vernetzen. Auf einmal müssen Anwendungsentwickler Komponenten berücksichtigen, deren Funktionalität sie nicht beeinflussen. Die passende Softwarearchitektur hilft, diese Herausforderung im Dschungel sich weltweit entwickelnder Standards zu lösen.‣ weiterlesen

Mit dem SMIT TestKit Shop hat Sven Mahn IT den Zugang zu ihrem Produkt zur Testoptimierung und Qualitätssicherung der ERP-Lösungen Microsoft Dynamics 365 for Finance and Operations und Dynamics AX vereinfacht.‣ weiterlesen

Die CRM-Lösung CAS GenesisWorld von CAS Software steht als Release x11 zur Verfügung. Neu hinzugekommen ist zum Beispiel, dass Anwender die intelligente Suchfunktion Picasso nun auch auf mobilen Endgeräten nutzen können.‣ weiterlesen

Mit dem Industrial Internet of Things steht Produzenten eine neue Infrastrukturebene zur Verfügung, um ihre Abläufe und Fertigungsprozesse zu optimieren. Thorsten Strebel von MPDV schildert, wie die Technologien auf die MES-Welt einwirken und wie der MES-Hersteller darauf reagiert.‣ weiterlesen

Mit dem neuen Geschäftsfeld Maxolution Maschinenautomatisierung adressiert SEW-Eurodrive den Markt mit maßgeschneiderten Systemlösungen. Gemeinsam mit dem Maschinenbauer EMAG hat der Antriebsspezialist nun einen Portalroboter vorgestellt, der ohne Energieführungsketten auskommt und auch anfallende Daten kabellos überträgt.‣ weiterlesen

Anzeige
Anzeige
Anzeige