Anzeige
Anzeige
Beitrag drucken

Null-Fehler-Produktion

Eine Welt der makellosen Produkte

Wäre es nicht toll, wenn Produkte weltweit einfach funktionieren, ohne dass man groß darüber nachdenken muss? Warum sind selbst teure Erzeugnisse immer wieder von Rückrufen betroffen oder früh defekt? Ein Grund dafür ist, dass hinter gleichbleibend höchster Qualität ein optimaler Ablauf von der Idee bis zur Produktion stehen muss. In heutiger Zeit gilt dabei: Ohne das reibungslose Zusammenspiel von Abläufen und Software lässt sich das kaum noch erreichen.



Bild: ©Sergey Nivens/Shutterstock.com

Fehlerhafte Produkte verursachen Jahr für Jahr immense Kosten – ganz abgesehen vom möglichen Imageschaden für das Unternehmen. Doch warum ist das so? Warum können Produkte, Dienstleistungen und letztendlich Prozesse nicht einfach funktionieren? Heutzutage stehen Unternehmen immer mehr unter Druck: schnelle Veränderungen, kurze Innovationszyklen und individuelle Kundenwünsche prägen das Geschäft. Und sie müssen strengere Compliance und Umweltanforderungen einhalten. Die Qualität der Erzeugnisse wird dabei einfach vorausgesetzt. Die in den 60er Jahren von Philip B. Crosby formulierte Philosophie ‘Mach’s gleich richtig’ mag nach einem alten Hut klingen, doch in vielen Unternehmen übersteigt der Aufwand für die Fehlerbehebung den der Fehlervermeidung noch immer. Dabei ist das Ergebnis hinter dieser Philosophie reizvoll: weniger Rückrufe, weniger Kosten, kein Imageschaden, zufriedene Kunden, mehr Effektivität und mehr Wertschöpfung.

Fehlerursachen aufspüren

Soll die Fehlervermeidung in den Mittelpunkt des Qualitätsmanagements gestellt werden, braucht es geeignete Maßnahmen. Diese betreffen zum Beispiel Produktionsabläufe, Prozessparameter, Materialfluss, Prüfungen, Validierungen, Ereignisse, Reaktionen sowie die Notwendigkeit, Prozesse untereinander zu verknüpfen. Tritt ein Fehler auf, muss er analysiert, seine Ursachen identifiziert und beseitigt werden. Dazu kann er ganz vorne in der Kette einer Fehlermöglichkeits- und Einflussanalyse (FMEA) eingesteuert werden. Während dieser Analyse werden strategisch alle Folgeschritte einer Aufgabe ermittelt und daraufhin untersucht, was alles schief gehen kann.

Mängel effizient verhindern

Um einen FMEA-Ablauf zu strukturieren, sollten auch die produktionsnahen Anwendungen eingebunden werden. Kommen im Unternehmen mehrere Systeme zum Einsatz, führt das schnell zu Effizienzverlusten, Wiederholfehlern und verzögerten Lerneffekten. Gerade bei CAQ- und MES-Anwendungen sollte das berücksichtigt werden. Viele Gedanken und Konzepte, die im Rahmen des Industrie 4.0-Trendes formuliert werden, setzen lediglich bestehende Erkenntnisse oder Technologien in einen gemeinsamen Kontext. Daraus ergeben sich neue Möglichkeiten, um die Effizienz, Prozess- und Produktqualität und letztendlich die Wettbewerbsfähigkeit und Kundenzufriedenheit zu steigern. Um dieser Entwicklung in Bezug auf die Fehlervermeidung Rechnung zu tragen, muss die Produktion wandlungsfähig und – im Fall der Fälle – rückverfolgbar sein.



Fehlermöglichkeits- und Einflussanalyse: Das Potenzial der Methode für die Qualitätssicherung ist kaum zu unterschätzen. Bild: Pickert & Partner GmbH

Prozessdenken gefordert

Um innerhalb einer komplexen Systemlandschaft Fehlern auf die Schliche zu kommen und künftig zu vermeiden, sollte man in Prozessen und nicht in Produkten denken: Zunächst greift man einen Prozessschritt heraus – im Idealfall den, bei dem der Schuh am meisten drückt. Um diesen Prozess abzusichern, also dafür zu sorgen, dass er Null Fehler als Ergebnis liefert, werden alle Anforderungen und Parameter identifiziert, die dieses Ergebnis positiv oder negativ beeinflussen. Aus diesen Parametern werden dann genau die Elemente, Komponenten und Funktionen aus Qualitäts- und Produktionsmanagement ausgewählt, mit deren Hilfe die Fehlervermeidung oder -entdeckung sichergestellt werden kann. Mit dem richtigen interdisziplinären Team, das über die notwendigen Kompetenzen und Fähigkeiten verfügt, lässt sich auf dieser Basis eine Lösung für die Anforderungen erarbeiten. Ist sie gefunden, ist der nächste Prozessschritt dran. Diese Vorgehensweise stellt sicher, dass immer die richtigen Ressourcen verwendet werden, eine dynamische Kommunikation erfolgt und sich beliebige Systeme integrieren lassen. Es werden keine Abteilungen eingebunden, sondern Rollen. Das Ergebnis sind kleine iterative Schritte, dynamische Änderungen, schnelle Lösungen und nachweisbare Erfolge. Für die Modellierung von Prozessen gelten zwei grundsätzliche Strategien:

  1. Die Prozessbeschreibungen dienen als visuelle Konfiguration des Workflows und damit dem Ablauf in modularen MES-Funktionen. Eine Veränderung des Prozesses schlägt sich im geänderten Ablauf der MES-Funktionen nieder.
  2. Die Beschreibungen sollen den Anwendern der Prozesse zu jedem Zeitpunkt befähigen, eine Entscheidung zu treffen. Dies wird möglich durch die zuvor beschriebenen Parameter und Einflussgrößen, die definieren welche entscheidungsrelevanten Informationen hierfür benötigt werden.

Prozesse dynamisch angepasst

In einer dynamischen Prozessmodellierung werden zu einem beliebigen Zeitpunkt Anpassungen vorgenommen, die aus Erkenntnissen der Vergangenheit, Kundenwünschen oder Ereignissen stammen. Diese Änderungen können die tatsächlichen Abläufe auf dem Shop Floor nur dann sinnvoll beeinflussen, wenn sie modular aufgebaut sind und die einzelnen Schritte stets in Echtzeit ausgeführt werden. Auf Basis einer generischen und modularen Architektur werden die einzelnen Funktionsbausteine schrittweise entwickelt, beziehungsweise – sofern bereits vorhanden – modularisiert, modifiziert und erweitert. Durch diese Iterationen kann jede Funktionalität als eigenes Funktionsmodul dann entwickelt werden, wenn sie auftritt und benötigt wird. Auf Basis der Prozessmanagementmodule lässt sich zwischen drei Typen von Funktionen unterscheiden: Verrichtungen (direkt sichtbare Aktivitäten), Interaktionen wie Dialoge mit Benutzern oder anderen Systemen sowie Informationen. Dazu zählen Zustände, Ereignisse, Ergebnisse und so weiter. Jeder Prozessschritt beinhaltet die eigentliche Aufgabe, Input, Output, die benötigten Ressourcen. Durch die Modularität können die einzelnen Funktionen durch beliebige am Prozess beteiligte Systeme als Black Box ausgeführt werden, wenn dies alle Systeme unterstützen.



Schematische Darstellung von Prozessen mit Identifikation der Einflussgrößen und individueller Bearbeitung. Bild: Pickert & Partner GmbH

Ein solides Fundament

Die erläuterten Prozessbeschreibungen enthalten neben den einzelnen Schritten die Ressourcen, Werkzeuge und Aufträge sowie die Rollen der Personen, die für jeden Einzelschritt benötigt werden. Um Anwendern Spielraum für eigene Entscheidungen zu verschaffen, müssen sie weitere Informationen erhalten: Alle relevanten Parameter und Einflussfaktoren, die für den Erfolg eines Prozessschrittes identifiziert wurden. Sind die Parameter und Einflussfaktoren bekannt, ergeben sich für Prozesse schnell zwei Effekte:

  1. Abläufe lassen sich gezielt absichern, indem bekannte Fehler vermieden werden.
  2. Unbekannten Fehlern kommt man mit dieser Informationsgrundlage meist deutlich schneller auf die Spur.

Beispiele für solche Parameter und Einflussfaktoren sind Prozessdaten, Validierungen (etwa Liegezeiten und Reihenfolgen), benötigte Qualifikation der Personen, Einflüsse von außen sowie Qualitätsprüfungen. Jeder Parameter muss sich durch den Nutzer bewerten und detailliert beschreiben lassen. Zu den Bewertungen zählen etwa die Punkte Risikoabschätzungen, Verantwortlichkeiten, Prioritäten, Zeiten ? aber auch Messgrößen wie Kennzahlen sowie Reaktionen auf bestimmte Bedingungen.

Aus Entscheidungen lernen

Die ermittelten Informationen lassen sich in der IT-gestützten Qualitätssicherung je nach Rolle eines Anwenders automatisch zusammenfasssen und auf Software-Dashboards von mobilen Endgeräten ausgeben. Der Meister kann sich etwa für einzelne Parameter alle Details anzeigen lassen. Läuft ein Prozess stabil, dient die Darstellung dem Monitoring und der Präsentation. Trifft ein Mitarbeiter eine Entscheidung, muss sie dokumentiert und bewertet werden, um dies später als Ereignis wiederverwenden zu können. Dieses Vorgehen lässt sich am Beispiel einer Maschine illustrieren, die eine Störung hat: Der Störgrund wird identifiziert, die Behebung der Störung wird erfasst, die Ursache und Dauer der Störung wird dokumentiert. Bei der nächsten Störung wissen die Entscheider: „Bei einer Störung dieser Art hatten wir eine durchschnittliche Ausfallzeit von 3,5 Stunden, mit den Ursachen X, Y und Z.” Dieser Mix aus Methode und Software erlaubt es Unternehmen, die alltäglich auftretenden Ereignisse zu einer Wissensdatenbank zu verdichten. Denken wir uns diese Idee nun noch größer, werden Daten dieser Art herstellerübergreifend in einem strukturierten und mit Metainformationen versehenen Cloudsystem gespeichert und zur Verwendung durch andere freigegeben.



Produktionsnahe Anwendungen versorgen Benutzergruppen im Werk mit passgenauen Informationen. Das hilft zum Beispiel dem Meister, bei Qualitätsfragen schnell die richtige Entscheidung zu treffen. Bild: Pickert & Partner GmbH

Unterstützende Software

Kommen alle Aspekte von Qualität und Produktion auf den Tisch, lassen sich Abhängigkeiten von Prozessen aufdecken und bekannte Fehler vermeiden. Das Software-Portfolio von Pickert & Partner zum Produktions- und Qualitätsmanagement hilft produzierenden Unternehmen dabei. Hierzu bietet das Unternehmen die modular aufgebaute MES- und CAQ-Standardsoftware RQM sowie das IDOS-Subsystem, das Qualitätsmanagement mit SAP-Software passgenau unterstützt. Das Ziel ist es, die Einflussparameter für jeden Prozess zu kennen, um sie systematisch abzustellen und sich so einer Null-Fehler-Produktion anzunähern. Das Wissen dafür ist vorhanden – alles steht in der FMEA!

Pickert & Partner erweitert Angebot

Der Software-Hersteller Pickert & Partner unterstützt Fertigungsbetriebe mit seinem Portfolio auf ihrem Weg zur Null-Fehler-Produktion. Die modular aufgebaute Software RQM – kurz für Real-time. Quality. Manufacturing. – bietet dafür Funktionen zum Produktionsmanagement (MES), Qualitätsmanagement (CAQ) und Traceability (Rückverfolgbarkeit). Mit dem System können fast alle produktionsnahen Abläufe und Prozesse horizontal über die gesamte Wertschöpfungskette in Echtzeit abgebildet werden.

Subsystem für SAP QM

Mit der Akquisition der IDOS QMS im letzten Jahr hat der Softwarehersteller seine Leistungen rund um SAP-Lösungen deutlich erweitert. Neu im Portfolio ist das SAP-zertifizierte Subsystem QM/3 für die Qualitätsmanagement-Software SAP QM. Damit lassen sich Qualitätsarbeitsplätze zur Integration von Mess-, Prüf- und Laborsystemen einrichten sowie fertigungs- und labornahe Shop Floor-Prozesse in der SAP-Prüfabwicklung abbilden.

Angebot für beide Welten

Ein klassischer Konflikt in der Praxis besteht zwischen der IT und der Qualitätssicherung, denn die IT-Welt und die der Qualitätssicherung vertreten oft zwei unterschiedliche Sichtweisen: Die IT verlangt nach SAP-Systemen und der Integration neuer Anwendungen in vorhandene Prozesse. Der Qualitätsbereich hingegen möchte ein eigenständiges CAQ-System, das passgenauere Funktionen verspricht, ein besseres Reporting und eine gute Benutzerführung. Mit den neu hinzugekommenen IDOS-Subsystemen will der MES- und CAQ-Softwarehersteller aus Pfinztal Vertreter beider Meinungen abholen: Mit IDOS-Subsystemen gelingt die Integration in ein SAP-Umfeld. Wird eine eigenständige CAQ-Software bevorzugt, stellt der Hersteller die Lösung RQM zur Verfügung. Der klassische Konflikt wird aufgelöst, weil der Kunde frei entscheiden kann, welcher Prozess in welchem System abgebildet wird – besser noch: beide Welten können sogar miteinander kombiniert werden.


Das könnte Sie auch interessieren:

Infor hat einen neuen CEO: Kevin Samuelson steht zukünftig an der Spitze des Unternehmens. Darüber hinaus hat der Softwareanbieter noch weitere personelle Veränderungen bekanntgegeben.‣ weiterlesen

Die Exporte der deustchen Maschinenbauer sind im ersten Halbjahr um nominal 0,9% im Vergleich zum Vorjahr gestiegen, was eine deutliche Verlangsamung der Exportdynamik bedeutet.‣ weiterlesen

Noch werden die Konzepte des digitalen Zwillings häufiger diskutiert als umgesetzt. Wie eine Anlage mit ihrem digitalen Abbild in der Praxis kommuniziert, haben Aucotec und die Universität Magdeburg auf der Hauptsitzung des Branchenverbandes Namur gezeigt.‣ weiterlesen

Nicht selten heißt es, ERP-Testsysteme seien überflüssig, zeitaufwändig und teuer. Dabei nützt der Betrieb einer solchen Testumgebung sogar dann, wenn die eigentliche ERP-Lösung schon reibungslos funktioniert.‣ weiterlesen

Die kollaborative Robotik gilt als Musterbeispiel für die Zusammenarbeit von Mensch und Maschine. Um die Hürden für den Einstieg in diese Technologie zu senken, hat der noch junge Cobot-Hersteller Yuanda Robotics zusammen mit Attoma Berlin ein HMI entwickelt, das stringent auf leichte Benutzung ausgelegt ist, ohne an Funktionalität einzubüßen.‣ weiterlesen

Trotz nachlassendem Welthandel hat die deutsch Elektroindustrie das erste Halbjahr im Plus abgeschlossen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige