Anzeige
Anzeige
Anzeige
Beitrag drucken

Null-Fehler-Produktion

Eine Welt der makellosen Produkte

Wäre es nicht toll, wenn Produkte weltweit einfach funktionieren, ohne dass man groß darüber nachdenken muss? Warum sind selbst teure Erzeugnisse immer wieder von Rückrufen betroffen oder früh defekt? Ein Grund dafür ist, dass hinter gleichbleibend höchster Qualität ein optimaler Ablauf von der Idee bis zur Produktion stehen muss. In heutiger Zeit gilt dabei: Ohne das reibungslose Zusammenspiel von Abläufen und Software lässt sich das kaum noch erreichen.



Bild: ©Sergey Nivens/Shutterstock.com

Fehlerhafte Produkte verursachen Jahr für Jahr immense Kosten – ganz abgesehen vom möglichen Imageschaden für das Unternehmen. Doch warum ist das so? Warum können Produkte, Dienstleistungen und letztendlich Prozesse nicht einfach funktionieren? Heutzutage stehen Unternehmen immer mehr unter Druck: schnelle Veränderungen, kurze Innovationszyklen und individuelle Kundenwünsche prägen das Geschäft. Und sie müssen strengere Compliance und Umweltanforderungen einhalten. Die Qualität der Erzeugnisse wird dabei einfach vorausgesetzt. Die in den 60er Jahren von Philip B. Crosby formulierte Philosophie ‘Mach’s gleich richtig’ mag nach einem alten Hut klingen, doch in vielen Unternehmen übersteigt der Aufwand für die Fehlerbehebung den der Fehlervermeidung noch immer. Dabei ist das Ergebnis hinter dieser Philosophie reizvoll: weniger Rückrufe, weniger Kosten, kein Imageschaden, zufriedene Kunden, mehr Effektivität und mehr Wertschöpfung.

Fehlerursachen aufspüren

Soll die Fehlervermeidung in den Mittelpunkt des Qualitätsmanagements gestellt werden, braucht es geeignete Maßnahmen. Diese betreffen zum Beispiel Produktionsabläufe, Prozessparameter, Materialfluss, Prüfungen, Validierungen, Ereignisse, Reaktionen sowie die Notwendigkeit, Prozesse untereinander zu verknüpfen. Tritt ein Fehler auf, muss er analysiert, seine Ursachen identifiziert und beseitigt werden. Dazu kann er ganz vorne in der Kette einer Fehlermöglichkeits- und Einflussanalyse (FMEA) eingesteuert werden. Während dieser Analyse werden strategisch alle Folgeschritte einer Aufgabe ermittelt und daraufhin untersucht, was alles schief gehen kann.

Mängel effizient verhindern

Um einen FMEA-Ablauf zu strukturieren, sollten auch die produktionsnahen Anwendungen eingebunden werden. Kommen im Unternehmen mehrere Systeme zum Einsatz, führt das schnell zu Effizienzverlusten, Wiederholfehlern und verzögerten Lerneffekten. Gerade bei CAQ- und MES-Anwendungen sollte das berücksichtigt werden. Viele Gedanken und Konzepte, die im Rahmen des Industrie 4.0-Trendes formuliert werden, setzen lediglich bestehende Erkenntnisse oder Technologien in einen gemeinsamen Kontext. Daraus ergeben sich neue Möglichkeiten, um die Effizienz, Prozess- und Produktqualität und letztendlich die Wettbewerbsfähigkeit und Kundenzufriedenheit zu steigern. Um dieser Entwicklung in Bezug auf die Fehlervermeidung Rechnung zu tragen, muss die Produktion wandlungsfähig und – im Fall der Fälle – rückverfolgbar sein.



Fehlermöglichkeits- und Einflussanalyse: Das Potenzial der Methode für die Qualitätssicherung ist kaum zu unterschätzen. Bild: Pickert & Partner GmbH

Prozessdenken gefordert

Um innerhalb einer komplexen Systemlandschaft Fehlern auf die Schliche zu kommen und künftig zu vermeiden, sollte man in Prozessen und nicht in Produkten denken: Zunächst greift man einen Prozessschritt heraus – im Idealfall den, bei dem der Schuh am meisten drückt. Um diesen Prozess abzusichern, also dafür zu sorgen, dass er Null Fehler als Ergebnis liefert, werden alle Anforderungen und Parameter identifiziert, die dieses Ergebnis positiv oder negativ beeinflussen. Aus diesen Parametern werden dann genau die Elemente, Komponenten und Funktionen aus Qualitäts- und Produktionsmanagement ausgewählt, mit deren Hilfe die Fehlervermeidung oder -entdeckung sichergestellt werden kann. Mit dem richtigen interdisziplinären Team, das über die notwendigen Kompetenzen und Fähigkeiten verfügt, lässt sich auf dieser Basis eine Lösung für die Anforderungen erarbeiten. Ist sie gefunden, ist der nächste Prozessschritt dran. Diese Vorgehensweise stellt sicher, dass immer die richtigen Ressourcen verwendet werden, eine dynamische Kommunikation erfolgt und sich beliebige Systeme integrieren lassen. Es werden keine Abteilungen eingebunden, sondern Rollen. Das Ergebnis sind kleine iterative Schritte, dynamische Änderungen, schnelle Lösungen und nachweisbare Erfolge. Für die Modellierung von Prozessen gelten zwei grundsätzliche Strategien:

  1. Die Prozessbeschreibungen dienen als visuelle Konfiguration des Workflows und damit dem Ablauf in modularen MES-Funktionen. Eine Veränderung des Prozesses schlägt sich im geänderten Ablauf der MES-Funktionen nieder.
  2. Die Beschreibungen sollen den Anwendern der Prozesse zu jedem Zeitpunkt befähigen, eine Entscheidung zu treffen. Dies wird möglich durch die zuvor beschriebenen Parameter und Einflussgrößen, die definieren welche entscheidungsrelevanten Informationen hierfür benötigt werden.

Prozesse dynamisch angepasst

In einer dynamischen Prozessmodellierung werden zu einem beliebigen Zeitpunkt Anpassungen vorgenommen, die aus Erkenntnissen der Vergangenheit, Kundenwünschen oder Ereignissen stammen. Diese Änderungen können die tatsächlichen Abläufe auf dem Shop Floor nur dann sinnvoll beeinflussen, wenn sie modular aufgebaut sind und die einzelnen Schritte stets in Echtzeit ausgeführt werden. Auf Basis einer generischen und modularen Architektur werden die einzelnen Funktionsbausteine schrittweise entwickelt, beziehungsweise – sofern bereits vorhanden – modularisiert, modifiziert und erweitert. Durch diese Iterationen kann jede Funktionalität als eigenes Funktionsmodul dann entwickelt werden, wenn sie auftritt und benötigt wird. Auf Basis der Prozessmanagementmodule lässt sich zwischen drei Typen von Funktionen unterscheiden: Verrichtungen (direkt sichtbare Aktivitäten), Interaktionen wie Dialoge mit Benutzern oder anderen Systemen sowie Informationen. Dazu zählen Zustände, Ereignisse, Ergebnisse und so weiter. Jeder Prozessschritt beinhaltet die eigentliche Aufgabe, Input, Output, die benötigten Ressourcen. Durch die Modularität können die einzelnen Funktionen durch beliebige am Prozess beteiligte Systeme als Black Box ausgeführt werden, wenn dies alle Systeme unterstützen.



Schematische Darstellung von Prozessen mit Identifikation der Einflussgrößen und individueller Bearbeitung. Bild: Pickert & Partner GmbH

Ein solides Fundament

Die erläuterten Prozessbeschreibungen enthalten neben den einzelnen Schritten die Ressourcen, Werkzeuge und Aufträge sowie die Rollen der Personen, die für jeden Einzelschritt benötigt werden. Um Anwendern Spielraum für eigene Entscheidungen zu verschaffen, müssen sie weitere Informationen erhalten: Alle relevanten Parameter und Einflussfaktoren, die für den Erfolg eines Prozessschrittes identifiziert wurden. Sind die Parameter und Einflussfaktoren bekannt, ergeben sich für Prozesse schnell zwei Effekte:

  1. Abläufe lassen sich gezielt absichern, indem bekannte Fehler vermieden werden.
  2. Unbekannten Fehlern kommt man mit dieser Informationsgrundlage meist deutlich schneller auf die Spur.

Beispiele für solche Parameter und Einflussfaktoren sind Prozessdaten, Validierungen (etwa Liegezeiten und Reihenfolgen), benötigte Qualifikation der Personen, Einflüsse von außen sowie Qualitätsprüfungen. Jeder Parameter muss sich durch den Nutzer bewerten und detailliert beschreiben lassen. Zu den Bewertungen zählen etwa die Punkte Risikoabschätzungen, Verantwortlichkeiten, Prioritäten, Zeiten ? aber auch Messgrößen wie Kennzahlen sowie Reaktionen auf bestimmte Bedingungen.

Aus Entscheidungen lernen

Die ermittelten Informationen lassen sich in der IT-gestützten Qualitätssicherung je nach Rolle eines Anwenders automatisch zusammenfasssen und auf Software-Dashboards von mobilen Endgeräten ausgeben. Der Meister kann sich etwa für einzelne Parameter alle Details anzeigen lassen. Läuft ein Prozess stabil, dient die Darstellung dem Monitoring und der Präsentation. Trifft ein Mitarbeiter eine Entscheidung, muss sie dokumentiert und bewertet werden, um dies später als Ereignis wiederverwenden zu können. Dieses Vorgehen lässt sich am Beispiel einer Maschine illustrieren, die eine Störung hat: Der Störgrund wird identifiziert, die Behebung der Störung wird erfasst, die Ursache und Dauer der Störung wird dokumentiert. Bei der nächsten Störung wissen die Entscheider: „Bei einer Störung dieser Art hatten wir eine durchschnittliche Ausfallzeit von 3,5 Stunden, mit den Ursachen X, Y und Z.” Dieser Mix aus Methode und Software erlaubt es Unternehmen, die alltäglich auftretenden Ereignisse zu einer Wissensdatenbank zu verdichten. Denken wir uns diese Idee nun noch größer, werden Daten dieser Art herstellerübergreifend in einem strukturierten und mit Metainformationen versehenen Cloudsystem gespeichert und zur Verwendung durch andere freigegeben.



Produktionsnahe Anwendungen versorgen Benutzergruppen im Werk mit passgenauen Informationen. Das hilft zum Beispiel dem Meister, bei Qualitätsfragen schnell die richtige Entscheidung zu treffen. Bild: Pickert & Partner GmbH

Unterstützende Software

Kommen alle Aspekte von Qualität und Produktion auf den Tisch, lassen sich Abhängigkeiten von Prozessen aufdecken und bekannte Fehler vermeiden. Das Software-Portfolio von Pickert & Partner zum Produktions- und Qualitätsmanagement hilft produzierenden Unternehmen dabei. Hierzu bietet das Unternehmen die modular aufgebaute MES- und CAQ-Standardsoftware RQM sowie das IDOS-Subsystem, das Qualitätsmanagement mit SAP-Software passgenau unterstützt. Das Ziel ist es, die Einflussparameter für jeden Prozess zu kennen, um sie systematisch abzustellen und sich so einer Null-Fehler-Produktion anzunähern. Das Wissen dafür ist vorhanden – alles steht in der FMEA!

Pickert & Partner erweitert Angebot

Der Software-Hersteller Pickert & Partner unterstützt Fertigungsbetriebe mit seinem Portfolio auf ihrem Weg zur Null-Fehler-Produktion. Die modular aufgebaute Software RQM – kurz für Real-time. Quality. Manufacturing. – bietet dafür Funktionen zum Produktionsmanagement (MES), Qualitätsmanagement (CAQ) und Traceability (Rückverfolgbarkeit). Mit dem System können fast alle produktionsnahen Abläufe und Prozesse horizontal über die gesamte Wertschöpfungskette in Echtzeit abgebildet werden.

Subsystem für SAP QM

Mit der Akquisition der IDOS QMS im letzten Jahr hat der Softwarehersteller seine Leistungen rund um SAP-Lösungen deutlich erweitert. Neu im Portfolio ist das SAP-zertifizierte Subsystem QM/3 für die Qualitätsmanagement-Software SAP QM. Damit lassen sich Qualitätsarbeitsplätze zur Integration von Mess-, Prüf- und Laborsystemen einrichten sowie fertigungs- und labornahe Shop Floor-Prozesse in der SAP-Prüfabwicklung abbilden.

Angebot für beide Welten

Ein klassischer Konflikt in der Praxis besteht zwischen der IT und der Qualitätssicherung, denn die IT-Welt und die der Qualitätssicherung vertreten oft zwei unterschiedliche Sichtweisen: Die IT verlangt nach SAP-Systemen und der Integration neuer Anwendungen in vorhandene Prozesse. Der Qualitätsbereich hingegen möchte ein eigenständiges CAQ-System, das passgenauere Funktionen verspricht, ein besseres Reporting und eine gute Benutzerführung. Mit den neu hinzugekommenen IDOS-Subsystemen will der MES- und CAQ-Softwarehersteller aus Pfinztal Vertreter beider Meinungen abholen: Mit IDOS-Subsystemen gelingt die Integration in ein SAP-Umfeld. Wird eine eigenständige CAQ-Software bevorzugt, stellt der Hersteller die Lösung RQM zur Verfügung. Der klassische Konflikt wird aufgelöst, weil der Kunde frei entscheiden kann, welcher Prozess in welchem System abgebildet wird – besser noch: beide Welten können sogar miteinander kombiniert werden.


Das könnte Sie auch interessieren:

Google Cloud und Siemens wollen im Rahmen einer Partnerschaft und unter Einsatz von KI-Technologien Fertigungsprozesse verbessern.‣ weiterlesen

Die ZEW-Konjunkturerwartungen für Deutschland sinken in der aktuellen Umfrage vom April 2021 um 5,9 Punkte und liegen damit bei 70,7 Punkten. Dies ist der erste Rückgang seit November 2020. Laut ZEW liegen die Erwartungen nach wie vor auf einem sehr hohen Niveau.‣ weiterlesen

Drei Viertel der Entscheider in deutschen Industrieunternehmen sehen ihren Markt im Prozess der digitalen Transformation. Die Hälfte der Unternehmen setzt dabei bereits auf den Einsatz von Industrial IoT-Technologien. Zu diesen Ergebnissen kommt eines Studie des IIoT-Spezialisten Relayr, die unter 200 Entscheidern aus der Fertigungsindustrie in Deutschland im Sommer 2020 vom Marktforschungsunternehmen Forsa durchgeführt wurde.‣ weiterlesen

Damit die anspruchsvollen Maschinen von Heidelberger Druckmaschinen nicht ungeplant ausfallen, bietet das Unternehmen die Software Maintenance Manager zur vorausschauenden Wartung an. Jetzt hat Tochterunternehmen Docufy das Tool hinter der Lösung als White-Label-Angebot auf den Markt gebracht.‣ weiterlesen

Im Rahmen einer Partnerschaft wollen T-Systems und GFT gemeinsame Lösungen für die Fertigungsindustrie anbieten, mit denen Fehler in der Produktion schneller erkannt werden können.‣ weiterlesen

John Abel wechselt von Veritas zu Extreme Networks, wo er künftig die Position des CIOs wahrnehmen wird.‣ weiterlesen

Nach fünf Messetagen ging am Freitag die Hannover Messe zu Ende. Insgesamt 90.000 Teilnehmer haben sich für die digitale Edition der Industrieschau registriert. Auch ohne Präsenzveranstaltung zog die Deutsche Messe ein positives Fazit. Ein Ersatz sei die digitale Messe jedoch nicht, so Dr. Jochen Köckler, Vorstandsvorsitzender der Deutschen Messe. Die nächste Messe soll als Hybridveranstaltung teilnehmen.‣ weiterlesen

Produzierende Unternehmen brauchen Transparenz über Zusammenhänge, über Kosten und Erträge und die Prozessqualität. Business Intelligence ist die Antwort der Softwareanbieter für dieses Problem. Für SAP S/4Hana-Anwender könnte dafür insbesondere die SAP Analytics Cloud interessant sein.‣ weiterlesen

Seit gut eineinhalb Jahren betreibt Simus Systems eine Online-Plattform, auf der Auftraggeber und Auftragnehmer die Metallbearbeitung von Bauteilen kalkulieren - und das Interesse am Tool ist rege. Anwender laden ihr CAD-Modell hoch und erhalten eine valide Vorkalkulation des geplanten Bauteils.‣ weiterlesen

Erst die Interoperabilität von Maschinen und Anlagen ermöglicht Unternehmen die Teilhabe an neuen digitalen Strukturen und ist Grundvoraussetzung für neue digitale Geschäftsmodelle. Durch interoperable Schnittstellen können neue Maschinen effizienter integriert werden. Die VDMA-Studie ‘Interoperabilität im Maschinen- und Anlagenbau‘ zeigt die Relevanz von interoperablen Schnittstellen und dazugehörigen Standards in den Unternehmen.‣ weiterlesen

Im Gewerbebau gehört ein differenziertes Zutrittsmanagement zum Standard der meisten Ausschreibungen. Für Betriebe lohnt es, sich mit dem Thema zu beschäftigen. Denn die Infrastruktur sollte später neue Anforderungen im Besuchermanagement ohne hohe Mehrkosten abbilden können.‣ weiterlesen

Anzeige
Anzeige
Anzeige