Auf dem Weg zu agilen Qualitätsprozessen

Immer mehr Unternehmen sind international tätig – manche in zehn, andere in 100 oder mehr Ländern. Ihre meist von Standort zu Standort unterschiedlichen Systeme produzieren Unmengen an Daten. Damit steht das Management vor der Frage, wie sich daraus sinnvolle Erkenntnisse für das Unternehmen gewinnen lassen. Immer öfter zeigt sich dabei, dass sich nur mit den passenden Intelligence-Lösungen Daten konsolidieren und Prozesse produktiver gestalten lassen. Um das zu erreichen gilt es, ein IT-Rahmenwerk auf die Beine zu stellen, das sich in alle Produktionsprozesse nahtlos integriert und so einen ganzheitlichen Blick auf den Fertigungszyklus erlaubt – vom Design über die Produktion bis hin zur Auslieferung und darüber hinaus.

In vielen Branchen steigt die Zahl der Produktvarianten immer mehr – nicht zuletzt aufgrund der zunehmenden Durchdringung der Erzeugnisse mit Elektronik-Komponenten und IT-Systemen. Das bedeutet eine nicht zu unterschätzende Herausforderung für die Abstimmung der Qualitätsprozesse entlang der Lieferketten. Bild: Apriso

Die Grundlagen der Produktion haben sich in den letzten 30 Jahren merklich verändert. Noch in den 80er-Jahren war es üblich, dass Arbeitskräfte in den Produktionshallen lediglich ein lokales Prozesswissen aufbauen mussten. Viele Angestellte befanden sich ihr gesamtes Arbeitsleben am selben Standort und konnten auf Basis eines soliden Know-hows meistens die richtigen Entscheidungen treffen. Gleichzeitig waren in den meisten Betrieben weder Produkte noch Herstellungsprozesse derart komplex wie heute. Produktion und Verkauf erfolgten lokal – dementsprechend gering war der Bedarf an standortübergreifender oder gar weltweiter Prozessstandardisierung. Dieser werkszentrierte Ansatz funktioniert jedoch nur so lange, bis die ersten Spezialisten in den Ruhestand gehen und ihr Wissen mit sich nehmen. Dann laufen Unternehmen Gefahr, dass ihre Prozesse nicht mehr unterbrechungsfrei funktionieren.

Mittlerweile stellt sich die Situation in den Betrieben zudem deutlich anders dar: Unternehmen produzieren und liefern weltweit und geraten durch den globalen Wettbewerb unter Profitabilitätsdruck – gleichzeitig aber nimmt die Komplexität der Produkte stetig zu. Ein Beispiel liefert die Automobilindustrie: Fahrzeuge sind schon lange nicht mehr nur rein mechanische Produkte mit geringen Auswahlmöglichkeiten hinsichtlich Farbe und Innenraum-Variationen. Heute reichen die Optionen der Modelle von Bluetooth-Kompatibilität über automatische Einparkhilfen bis hin zu Sprachsteuerung. Nicht zuletzt durch den steigenden IT-Anteil in den Produkten werden auch die involvierten Produktionsprogramme umfangreicher: Allein um ein Basismodell zu produzieren, müssen die Systeme bis zu anderthalb Millionen Zeilen Code pro Fahrzeug verwalten. Auch die Prozesse haben einen Wandel durchlaufen, wie etwa die Produktionsmethoden, die sich mehr und mehr von ‚Build-to-stock‘ hin zu ‚Build-to-order‘ bewegen.

Steigende Komplexität in der Fertigung bewältigen

Damit Firmen, die weltweit produzieren und verkaufen, nicht an dieser Komplexität scheitern, müssen sie ihre Abläufe präzise definieren und standardisieren. Das ist auch deshalb notwendig, weil gesetzliche Vorschriften und Compliance-Standards der Unternehmen zusätzlichen Druck auf die Prozesse ausüben. Sie vergrößern die Kosten und Komplexität weiter. Denkt man diesen Sachverhalt konsequent zu Ende, können auch die Systeme für das Management dieser Strukturen und Prozesse nicht mehr dieselben sein: Die Lösungen müssen in der Lage sein, Datenmengen zu verwalten, die exponentiell wachsen und diese in Echtzeit global verfügbar machen. Denn auf ihrer Informationsbasis erstellt das Management geschäftskritische Analysen, um über die Leistung ihres Unternehmens auf dem Laufenden zu sein.

Steigende Qualitätsstandards effizient unterstützen

Bei der Optimierung globaler Produktionsprozesse ist ein Faktor besonders wichtig: das Qualitätsmanagement. Wird darauf zu wenig Aufmerksamkeit verwendet, schaden Produkte mit schlechter Qualität der Marke. Um solche Fehler nicht immer wieder aufs Neue zu begehen, müssen die hinter den Abläufen stehenden IT-Systeme Initiativen und Programme zur kontinuierlichen Verbesserung (KVP) unterstützen. Dabei lediglich die Zahl der Qualitätsprüfungen zu erhöhen könnte zwar die Produktqualität verbessern, dieses Vorgehen würde jedoch die Produktion verlangsamen und erhöhte Arbeits- und Materialkosten verursachen. In effizienzgetriebenen Branchen sind solche Schritte daher nicht praktikabel. Bei Qualitätsproblemen ist Geschwindigkeit entscheidend. Schließlich sind die Produktionspläne straff organisiert und die Lagerlogistik ‚Just-in-time‘-getrieben.

Bei diesem Tempo können sich Kleinigkeiten schnell zu ernsthaften Bedrohungen für die Glaubwürdigkeit einer Marke entwickeln. Steuert das Management jedoch zeitnah gegen, lassen sich Folgeschäden am ehesten vermeiden. Das zeigt das Beispiel eines großen Automotive-Konzerns: Im Rahmen von Qualitätsprüfungen wurde ein Klappergeräusch in einem der Fahrzeugmodelle entdeckt. Der Fehler war schwierig zu identifizieren; zunächst sah es aus, als wäre nur eine Gruppe von Autos zufällig betroffen. Mit den passenden Analysetechniken zeigte sich aber: Ein am Produktionsprozess beteiligter Techniker besaß nicht die nötige Zertifizierung und hatte bei der Montage das falsche Drehmoment gewählt. Das Armaturenbrett, das er montierte, wurde deshalb nach und nach locker und verursachte das Klappern. Nachdem die Ursache gefunden war, konnte sie leicht behoben werden. Um nun den heiklen Spagat zwischen Qualität, Kostenkontrolle und Komplexitätsmanagement zu schaffen, müssen Unternehmen neue Wege zu mehr Effizienz finden, Prozesse verschlanken und kontinuierlich verbessern.

Bild: Apriso

Standardisierter Informationsfluss entlang der Lieferkette

Das lässt sich nur realisieren, indem Produktionsbetriebe Transparenz in ihre Prozesse und die ihrer Zulieferer und Partner bringen. Nur durch eine umfassende Standardisierung von Abläufen und Informationsflüssen lassen sich Lieferketten aufeinander abstimmen und das Einhalten von Qualitätsstandards im gesamten Wertschöpfungsnetzwerk gewährleisten. Geschieht das nicht, drohen im Fall von unvorhergesehenen Ereignissen irreversible Absatzeinbußen: So sahen sich manche Lieferanten als Folge des letzten wirtschaftlichen Abschwungs gezwungen, ihre Werke zu schließen. Die Hersteller wiederum standen damit auf einmal vor der Herausforderung, beträchtliche Lücken in ihren Lieferketten kurzfristig schließen zu müssen. Das war zum Teil gar nicht, zum Teil nur unter erhöhtem Kostenaufwand möglich. Um solchen Situationen frühzeitig begegen zu können, müssen Unternehmen Systeme implementieren, die Daten in Echtzeit zur Verfügung stellen und frühzeitig Warnsignale geben. Führende Unternehmen stellen dazu zusätzlich Pläne auf, die möglichst viele Eventualitäten einbeziehen – damit Kosten, Materialverfügbarkeit und Liefertreue im Blick bleiben.

Wissen wird zum zentralen Wettbewerbsfaktor

Hersteller stehen an einem Scheideweg: Wer sich im Wettbewerbsfeld behaupten will, muss Wege finden, umfassendes Datenmaterial zu sammeln, in nützliches Wissen umzuwandeln und automatisiert zu analysieren, um die Produktion zu verwalten und zu optimieren. Wer dieses Ziel nicht erreicht, kann Marktanteile an gezielter agierende Wettbewerber verlieren. Beim Herausfiltern der für die Produktion relevanten Informationen verlassen sich zum Beispiel viele Hersteller noch auf althergebrachte Business-Intelligence-Lösungen, die sich im Unternehmen im Einsatz befinden. Gerade Systeme der letzten Generation wurden allerdings meist für den Finanzbereich entwickelt und sind aufgrund langer Datenverarbeitungszyklen für die Produktion eher ungeeignet.

Durchgehende Prozesse für die Fabrik der Zukunft

Jedes IT-System im Unternehmen produziert Daten. Als problematisch erweisen sich dabei neben der reinen Informationsmenge auch die unterschiedlichen Formate und damit der drohende Integritätsverlust. Lösen lässt sich das Problem mit einem System, das in alle beteiligten Prozesse integriert ist, Produktionsdaten in Echtzeit analysiert und zeitnah zur Verfügung stellt. Liefert die Lösung die Informationen außerdem in standardisierten Formaten, hilft das dem Management, sie direkt weiter zu verarbeiten. Es ist notwendig, die Komplexität zu senken, die Qualität zu steigern und eine funktionierende ‚Manufacturing Intelligence‘ zu realisieren. Denn die Fabrik der Zukunft hat neben den Anforderungen des Betreibers auch Anforderungen der Kunden, Partner, Aktionäre und Mitarbeiter zu erfüllen. Dazu können Unternehmen bereits heute aus existierenden ‚Best Practice‘-Ansätzen Strategien für ein möglichst ideales Produktionsmodell ableiten. Als Ziel winken Leistungssteigerungen, Kostensenkungen und steigende Profitabilität für alle Beteiligten der Wertschöpfungskette.







  • MES-Integrator und 360-Grad-Partner für optimierte Fertigung

    Das Manufacturing Execution System (MES) HYDRA optimiert Produktionsprozesse für Fertigungsunternehmen, um Wettbewerbsvorteile zu erzielen.


  • Neue Vice President Channel & Marketing bei Schneider Electric DACH

    Mit der Zusammenlegung von Marketing und Channel-Organisation stellt Schneider Electric die Kommunikationsarbeit in der DACH-Region neu auf.


  • KI in Fertigungsbranche vorn

    Die neunte Ausgabe von Rockwell Automations „State of Smart Manufacturing“ Report liefert Einblicke in Trends und Herausforderungen für Hersteller. Dazu wurden über…


  • Digital Future Congress nimmt Techniktrends in den Blick

    Der zweitägige virtuelle Digital Future Congress stellt im April die Potenziale aktueller Technologietrends in den Mittelpunkt. Per Video-Chat können sich die Teilnehmer…


  • Ein Stück näher am Quanteninternet

    Das Quanteninternet verspricht signifikante Verbesserungen in verschiedenen technologischen Schlüsselbereichen. Um dieses jedoch im bestehenden Glaserfasernetz zu realisieren, sind Quantenfrequenzkonverter nötig, die die…