Anzeige
Anzeige
Anzeige
Beitrag drucken

Auf dem Weg zu agilen Qualitätsprozessen

Immer mehr Unternehmen sind international tätig – manche in zehn, andere in 100 oder mehr Ländern. Ihre meist von Standort zu Standort unterschiedlichen Systeme produzieren Unmengen an Daten. Damit steht das Management vor der Frage, wie sich daraus sinnvolle Erkenntnisse für das Unternehmen gewinnen lassen. Immer öfter zeigt sich dabei, dass sich nur mit den passenden Intelligence-Lösungen Daten konsolidieren und Prozesse produktiver gestalten lassen. Um das zu erreichen gilt es, ein IT-Rahmenwerk auf die Beine zu stellen, das sich in alle Produktionsprozesse nahtlos integriert und so einen ganzheitlichen Blick auf den Fertigungszyklus erlaubt – vom Design über die Produktion bis hin zur Auslieferung und darüber hinaus.


In vielen Branchen steigt die Zahl der Produktvarianten immer mehr – nicht zuletzt aufgrund der zunehmenden Durchdringung der Erzeugnisse mit Elektronik-Komponenten und IT-Systemen. Das bedeutet eine nicht zu unterschätzende Herausforderung für die Abstimmung der Qualitätsprozesse entlang der Lieferketten. Bild: Apriso

Die Grundlagen der Produktion haben sich in den letzten 30 Jahren merklich verändert. Noch in den 80er-Jahren war es üblich, dass Arbeitskräfte in den Produktionshallen lediglich ein lokales Prozesswissen aufbauen mussten. Viele Angestellte befanden sich ihr gesamtes Arbeitsleben am selben Standort und konnten auf Basis eines soliden Know-hows meistens die richtigen Entscheidungen treffen. Gleichzeitig waren in den meisten Betrieben weder Produkte noch Herstellungsprozesse derart komplex wie heute. Produktion und Verkauf erfolgten lokal – dementsprechend gering war der Bedarf an standortübergreifender oder gar weltweiter Prozessstandardisierung. Dieser werkszentrierte Ansatz funktioniert jedoch nur so lange, bis die ersten Spezialisten in den Ruhestand gehen und ihr Wissen mit sich nehmen. Dann laufen Unternehmen Gefahr, dass ihre Prozesse nicht mehr unterbrechungsfrei funktionieren.

Mittlerweile stellt sich die Situation in den Betrieben zudem deutlich anders dar: Unternehmen produzieren und liefern weltweit und geraten durch den globalen Wettbewerb unter Profitabilitätsdruck – gleichzeitig aber nimmt die Komplexität der Produkte stetig zu. Ein Beispiel liefert die Automobilindustrie: Fahrzeuge sind schon lange nicht mehr nur rein mechanische Produkte mit geringen Auswahlmöglichkeiten hinsichtlich Farbe und Innenraum-Variationen. Heute reichen die Optionen der Modelle von Bluetooth-Kompatibilität über automatische Einparkhilfen bis hin zu Sprachsteuerung. Nicht zuletzt durch den steigenden IT-Anteil in den Produkten werden auch die involvierten Produktionsprogramme umfangreicher: Allein um ein Basismodell zu produzieren, müssen die Systeme bis zu anderthalb Millionen Zeilen Code pro Fahrzeug verwalten. Auch die Prozesse haben einen Wandel durchlaufen, wie etwa die Produktionsmethoden, die sich mehr und mehr von ‚Build-to-stock‘ hin zu ‚Build-to-order‘ bewegen.

Steigende Komplexität in der Fertigung bewältigen

Damit Firmen, die weltweit produzieren und verkaufen, nicht an dieser Komplexität scheitern, müssen sie ihre Abläufe präzise definieren und standardisieren. Das ist auch deshalb notwendig, weil gesetzliche Vorschriften und Compliance-Standards der Unternehmen zusätzlichen Druck auf die Prozesse ausüben. Sie vergrößern die Kosten und Komplexität weiter. Denkt man diesen Sachverhalt konsequent zu Ende, können auch die Systeme für das Management dieser Strukturen und Prozesse nicht mehr dieselben sein: Die Lösungen müssen in der Lage sein, Datenmengen zu verwalten, die exponentiell wachsen und diese in Echtzeit global verfügbar machen. Denn auf ihrer Informationsbasis erstellt das Management geschäftskritische Analysen, um über die Leistung ihres Unternehmens auf dem Laufenden zu sein.

Steigende Qualitätsstandards effizient unterstützen

Bei der Optimierung globaler Produktionsprozesse ist ein Faktor besonders wichtig: das Qualitätsmanagement. Wird darauf zu wenig Aufmerksamkeit verwendet, schaden Produkte mit schlechter Qualität der Marke. Um solche Fehler nicht immer wieder aufs Neue zu begehen, müssen die hinter den Abläufen stehenden IT-Systeme Initiativen und Programme zur kontinuierlichen Verbesserung (KVP) unterstützen. Dabei lediglich die Zahl der Qualitätsprüfungen zu erhöhen könnte zwar die Produktqualität verbessern, dieses Vorgehen würde jedoch die Produktion verlangsamen und erhöhte Arbeits- und Materialkosten verursachen. In effizienzgetriebenen Branchen sind solche Schritte daher nicht praktikabel. Bei Qualitätsproblemen ist Geschwindigkeit entscheidend. Schließlich sind die Produktionspläne straff organisiert und die Lagerlogistik ‚Just-in-time‘-getrieben.

Bei diesem Tempo können sich Kleinigkeiten schnell zu ernsthaften Bedrohungen für die Glaubwürdigkeit einer Marke entwickeln. Steuert das Management jedoch zeitnah gegen, lassen sich Folgeschäden am ehesten vermeiden. Das zeigt das Beispiel eines großen Automotive-Konzerns: Im Rahmen von Qualitätsprüfungen wurde ein Klappergeräusch in einem der Fahrzeugmodelle entdeckt. Der Fehler war schwierig zu identifizieren; zunächst sah es aus, als wäre nur eine Gruppe von Autos zufällig betroffen. Mit den passenden Analysetechniken zeigte sich aber: Ein am Produktionsprozess beteiligter Techniker besaß nicht die nötige Zertifizierung und hatte bei der Montage das falsche Drehmoment gewählt. Das Armaturenbrett, das er montierte, wurde deshalb nach und nach locker und verursachte das Klappern. Nachdem die Ursache gefunden war, konnte sie leicht behoben werden. Um nun den heiklen Spagat zwischen Qualität, Kostenkontrolle und Komplexitätsmanagement zu schaffen, müssen Unternehmen neue Wege zu mehr Effizienz finden, Prozesse verschlanken und kontinuierlich verbessern.


Bild: Apriso

Standardisierter Informationsfluss entlang der Lieferkette

Das lässt sich nur realisieren, indem Produktionsbetriebe Transparenz in ihre Prozesse und die ihrer Zulieferer und Partner bringen. Nur durch eine umfassende Standardisierung von Abläufen und Informationsflüssen lassen sich Lieferketten aufeinander abstimmen und das Einhalten von Qualitätsstandards im gesamten Wertschöpfungsnetzwerk gewährleisten. Geschieht das nicht, drohen im Fall von unvorhergesehenen Ereignissen irreversible Absatzeinbußen: So sahen sich manche Lieferanten als Folge des letzten wirtschaftlichen Abschwungs gezwungen, ihre Werke zu schließen. Die Hersteller wiederum standen damit auf einmal vor der Herausforderung, beträchtliche Lücken in ihren Lieferketten kurzfristig schließen zu müssen. Das war zum Teil gar nicht, zum Teil nur unter erhöhtem Kostenaufwand möglich. Um solchen Situationen frühzeitig begegen zu können, müssen Unternehmen Systeme implementieren, die Daten in Echtzeit zur Verfügung stellen und frühzeitig Warnsignale geben. Führende Unternehmen stellen dazu zusätzlich Pläne auf, die möglichst viele Eventualitäten einbeziehen – damit Kosten, Materialverfügbarkeit und Liefertreue im Blick bleiben.

Wissen wird zum zentralen Wettbewerbsfaktor

Hersteller stehen an einem Scheideweg: Wer sich im Wettbewerbsfeld behaupten will, muss Wege finden, umfassendes Datenmaterial zu sammeln, in nützliches Wissen umzuwandeln und automatisiert zu analysieren, um die Produktion zu verwalten und zu optimieren. Wer dieses Ziel nicht erreicht, kann Marktanteile an gezielter agierende Wettbewerber verlieren. Beim Herausfiltern der für die Produktion relevanten Informationen verlassen sich zum Beispiel viele Hersteller noch auf althergebrachte Business-Intelligence-Lösungen, die sich im Unternehmen im Einsatz befinden. Gerade Systeme der letzten Generation wurden allerdings meist für den Finanzbereich entwickelt und sind aufgrund langer Datenverarbeitungszyklen für die Produktion eher ungeeignet.

Durchgehende Prozesse für die Fabrik der Zukunft

Jedes IT-System im Unternehmen produziert Daten. Als problematisch erweisen sich dabei neben der reinen Informationsmenge auch die unterschiedlichen Formate und damit der drohende Integritätsverlust. Lösen lässt sich das Problem mit einem System, das in alle beteiligten Prozesse integriert ist, Produktionsdaten in Echtzeit analysiert und zeitnah zur Verfügung stellt. Liefert die Lösung die Informationen außerdem in standardisierten Formaten, hilft das dem Management, sie direkt weiter zu verarbeiten. Es ist notwendig, die Komplexität zu senken, die Qualität zu steigern und eine funktionierende ‚Manufacturing Intelligence‘ zu realisieren. Denn die Fabrik der Zukunft hat neben den Anforderungen des Betreibers auch Anforderungen der Kunden, Partner, Aktionäre und Mitarbeiter zu erfüllen. Dazu können Unternehmen bereits heute aus existierenden ‚Best Practice‘-Ansätzen Strategien für ein möglichst ideales Produktionsmodell ableiten. Als Ziel winken Leistungssteigerungen, Kostensenkungen und steigende Profitabilität für alle Beteiligten der Wertschöpfungskette.


Das könnte Sie auch interessieren:

Ein im September 2019 als Weißdruck erschienener Standard des VDI soll helfen, die Potenziale von Formgedächtnislegierungen bei der Produktentwicklung zu nutzen. Der Hintergrund der neuen Richtlinienreihe VDI 2248 ist, dass feinwerktechnische Systeme immer kleinere leistungsfähigere Antriebe benötigen. Um dem gerecht zu werden, ist oft der Einsatz neuer Aktorprinzipien gefragt.‣ weiterlesen

Mit der neuen Cloud-Lösung Godesys One bietet der Mainzer ERP-Anbieter Godesys AG insbesondere kleineren Unternehmen mit fünf bis 25 Usern eine Einstiegslösung für digitales ERP. Die standardisierten Systemmodule sollen wichtige Funktionen abdecken und sich bedarfgerecht zusammenzustellen lassen.‣ weiterlesen

Das Zusammenspiel von IoT und Blockchain eröffnet neue Möglichkeiten: Mit Smart Contracts können etwa Zustandsdaten einer Maschine sicher an ihren Hersteller übermittelt werden. Und auch hinsichtlich des Energiebedarfs wird die Blockchain für die Industrie interessanter.‣ weiterlesen

Deutschland zählt mit einer Roboterdichte von 338 Einheiten pro 10.000 Arbeitnehmern im internationalen Vergleich zu den am stärksten automatisierten Volkswirtschaften. Nach Singapur und Südkorea rangiert die Bundesrepublik weltweit auf dem dritten Rang.‣ weiterlesen

Teil der Vision Industrie 4.0 ist es, Anlagekomponenten ohne Eingriff in die Steuerung austauschen zu können. Mit dem Konzept einer dienstbasierten Fertigung wollen das Fraunhofer IESE und weitere Projektpartner genau das praxistauglich ermöglichen.‣ weiterlesen

Über V2X-Kommunikation lassen sich Fahrzeuge untereinander und mit der umliegenden Infrastruktur vernetzen. Auf einmal müssen Anwendungsentwickler Komponenten berücksichtigen, deren Funktionalität sie nicht beeinflussen. Die passende Softwarearchitektur hilft, diese Herausforderung im Dschungel sich weltweit entwickelnder Standards zu lösen.‣ weiterlesen

Mit dem SMIT TestKit Shop hat Sven Mahn IT den Zugang zu ihrem Produkt zur Testoptimierung und Qualitätssicherung der ERP-Lösungen Microsoft Dynamics 365 for Finance and Operations und Dynamics AX vereinfacht.‣ weiterlesen

Die CRM-Lösung CAS GenesisWorld von CAS Software steht als Release x11 zur Verfügung. Neu hinzugekommen ist zum Beispiel, dass Anwender die intelligente Suchfunktion Picasso nun auch auf mobilen Endgeräten nutzen können.‣ weiterlesen

Mit dem Industrial Internet of Things steht Produzenten eine neue Infrastrukturebene zur Verfügung, um ihre Abläufe und Fertigungsprozesse zu optimieren. Thorsten Strebel von MPDV schildert, wie die Technologien auf die MES-Welt einwirken und wie der MES-Hersteller darauf reagiert.‣ weiterlesen

Mit dem neuen Geschäftsfeld Maxolution Maschinenautomatisierung adressiert SEW-Eurodrive den Markt mit maßgeschneiderten Systemlösungen. Gemeinsam mit dem Maschinenbauer EMAG hat der Antriebsspezialist nun einen Portalroboter vorgestellt, der ohne Energieführungsketten auskommt und auch anfallende Daten kabellos überträgt.‣ weiterlesen

Anzeige
Anzeige
Anzeige