Anzeige
Anzeige
Beitrag drucken

Es muss nicht immer ‚Big Data‘ sein

Dateninterpretation in der industriellen Produktion

Im Zusammenhang mit dem Trendthema ‚Big Data‘ wird inzwischen gerne der Zusammenhang zur Industrie hergestellt. Dabei bietet eine strukturierte Produktion Ansatzpunkte, um auch mit niedrigem Analyseaufwand aussagekräftige Ergebnisse zu erreichen – insbesondere, wenn schnelles Nachregeln im Fertigungsprozess im Fokus steht.

Das Thema ‚Big-Data-Analyse‚ wurde zunächst getrieben vom Wunsch, Käuferverhalten unter vielfältigen Einflussfaktoren analysieren zu können, um daraus Schlüsse für Vertriebsstrategien abzuleiten. Angesichts vielfältiger und in der Regel im Vorfeld undefinierter Faktoren und Wirkmechanismen stellte die Identifikation und die Messbarkeit der Faktoren und Wirkmechanismen in diesem Zusammenhang das größere Problem gegenüber der technischen Verarbeitung der Daten und der logischen Analyse ihrer Korrelationen dar. Eine industrielle Produktion verhält sich jedoch grundsätzlich anders als das Marktgeschehen auf einem Käufermarkt: Spätestens seit der Einführung arbeitsteiliger Produktionsprozesse werden Abläufe in wohl definierte Einzelschritte zerlegt, die ihrerseits mehr oder weniger fein granular optimiert sind. ‚So genau wie nötig‘ lautet hier die Prämisse. Nach dieser ‚Zerlegung‘ der Produktionsprozesse erfolgte dann die Automatisierung der Einzelschritte. Auf mechanische Steuerungskomponenten folgten leistungsfähige, elektronische Automatisierungskomponenten wie SPSen, Sensoren und Aktoren, deren Entwicklung bei weitem noch nicht an ihrem Ende angekommen ist.

Weil die Einzelschritte im Produktionsablauf meist wohl definiert sind, sind auch die Qualitätsparameter des Produktes aus den Einzelschritten bis hin zu Funktions- und Leistungsmerkmalen der Einzelteile bekannt. Um nach der Prämisse ’so genau wie nötig‘ eine automatisierte Produktion zu überwachen, werden Wertekorridore festgelegt, innerhalb derer sich die messbaren Funktions- und Leistungsmerkmale bewegen dürfen. Die bei der Produktion entstehenden Werte werden zyklisch oder auch pro Produkt von der Sensorik daraufhin überprüft, ob sie sich innerhalb der vorgeschriebenen Wertekorridore befinden. Ist dies nicht der Fall, wird nach Möglichkeit aktorisch nachgeregelt, um die Werte in den zulässigen Korridor zu steuern. Ist ein aktorisches Nachregeln nicht möglich, kann über produktionsnahe Software – wie Manufacturing Execution-Systeme (MES) – ein zeitnaher Alarm ausgelöst werden, der den Maschinenbediener veranlasst, eine Korrektur vorzunehmen. Wenn es also darauf ankommt, fehlerhafte Teile durch schnell greifende Korrekturmaßnahmen zu verhindern, können wohl strukturierte Produktionsprozesse auch ohne den Einsatz umfassender ‚Big Data‘-Strategien effektive Ergebnisse erreichen.


Das könnte Sie auch interessieren:

PerfectPattern hat die kostenlose Basisversion von Insights App vorgestellt. Mit der Software können Prozessingenieure, Produktionsexperten und Datenwissenschaftler die von PerfectPattern entwickelte KI-Technologie Aivis nutzen, um Einblicke in Produktionsprozesse zu erhalten.‣ weiterlesen

Die Buss-Unternehmensgruppe ist in vielen unterschiedlichen Geschäftsfeldern tätig. Eine Herausforderung, stand doch ein Wechsel des ERP-Systems ins Haus - mit mehr als 80 Unternehmen innerhalb der Gruppe. Gemeinsam mit dem IT-Dienstleister Sven Mahn IT gelang es, das Projekt innerhalb von 14 Wochen umzusetzen.‣ weiterlesen

Werden neue Technologien wie beispielsweise künstliche Intelligenz Teil des Arbeistalltages wünscht sich ein Großteil der unter 31-Jährigen, darüber informiert zu werden. Dies geht aus einer Studie des IT-Security-Anbieters Kaspersky hervor. Auch ein menschliches Antlitz könnte laut Studie für mehr Akzeptanz sorgen.‣ weiterlesen

Schlechtere Stimmung als noch im Juni. Geschäftsklima-Index des Ifo Instituts hat in der aktuellen Erhebung im Vergleich zum Vormonat nachgegeben.‣ weiterlesen

Die Sprints zu Covid19-Impfstoffen zeigen den Leistungsdruck, unter dem die Technologieentwicklung steht. In kürzester Zeit sollen Forscher und Ingenieure Lösungen für die kritischen Probleme unserer Zeit finden. Der Accelerated-Discovery-Ansatz soll helfen, Forschungs- und Entwicklungsprozesse mit KI, Hybrid Cloud und schließlich Quantencomputern um das zehn- bis hundertfache des heute Möglichen zu beschleunigen.‣ weiterlesen

Trebing + Himstedt hat die Partnerschaft mit Celonis bekanntgegeben. Die Unternehmen wollen zukünftig beim Thema Process Mining zusammenarbeiten.‣ weiterlesen

Im Rahmen einer Partnerschaft wollen Crate.io und Zühlke zukünftig gemeinsam an Smart Factory- und Industrie 4.0-Lösungen arbeiten.‣ weiterlesen

Die Dualis GmbH IT Solution hat für Lean-Manufacturing-Aufgabenstellungen ein Add-on zur 3D-Simulationsplattform Visual Components entwickelt. Basierend auf Process Modelling können damit automatisch branchengängige Standardized Work Sheets generiert werden.‣ weiterlesen

Um verschiedene Daten aufzubereiten und den Mitarbeitern nutzenbringend bereitzustellen, ist nicht immer ein großes IT-Projekt nötig. Wer schnell Daten für die Beschäftigten visualisieren möchte, sollte sich einmal näher mit Dashboards befassen.‣ weiterlesen

Die Simulation am digitalen Zwilling macht die Inbetriebnahme von Anlagen und Maschinen mit automatisierten Bewegungen sicherer. Fehler fallen früher auf und können behoben werden, bevor die Anlage aufgebaut ist. So lassen sich Schäden und Verzögerungen vermeiden. Auch als Schulungstool für Bediener und Programmierer ist die digitale Maschine hilfreich.‣ weiterlesen

ISPE, APV, Concept Heidelberg und die VDI/VDE Gesellschaft Mess- und Automatisierungstechnik richten am 30. November bis zum 1. Dezember 2021 im Dorint Kongresshotel in Mannheim die 14. Offizielle GAMP 5 Konferenz aus.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige