Anzeige
Anzeige
Beitrag drucken

Production Intelligence

Informationssysteme am Puls der Produktion

Obwohl der Prozessgedanke ursprünglich aus der Fertigung stammt, hat es lange gebraucht, bis sich dort der Gedanke der intelligenten Prozesssteuerung etablieren konnte. Und dies hatte seine Ursachen vor allem in der technischen Infrastruktur und den bisher bevorzugten Steuerungsinstrumenten. Dies gilt für Geschäfts- und Produktionsplanungssysteme ebenso wie für die fertigungsnahen IT-Plattformen. Denn Unternehmenssoftware ist für längerfristige Planungen konzipiert und unterstützt nur begrenzt eine flexible Produktionssteuerung mit niedrigen Reaktionszeiten.

Bild: Felten / Fotolia-Miqul

Nicht zuletzt durch die Diskrepanz im Planungshorizont von Enterprise Resource Planning-Lösungen (ERP) und Manufacturing Execution-Systemen (MES) stellt die flexible Integration von automatisierten und manuellen Prozessen die IT-Abteilungen vieler Unternehmen vor große Herausforderungen. Besonders wenn eine hohe Planungskomplexität mit einer großen Zahl an Produkten und Produktionsstufen besteht und gleichzeitig kurzfristige Dispositionsentscheidungen getroffen werden müssen, wird die geringe Steuerungsflexibilität in der Praxis zu einem Problem.

Diese Restriktionen haben letztlich zu der Entwicklung des Production Intelligence-Ansatzes (PI) geführt, der sich am Ziel der Nullfehlertoleranz in den gesamten Leistungsprozessen orientiert. Abstrakt betrachtet versteht sich der Ansatz als ganzheitliche und prozessorientierte Methode für das Produktionsmanagement im Sinne einer Mehrwertstrategie zur maximalen Ausschöpfung der Effizienzpotenziale. Der Mehrwert wird insbesondere durch flexibel gestaltbare und kennzahlenbasierte Produktionsabläufe mit Integration in die Prozesse zur Business-Steuerung erreicht.

Damit geht PI einen deutlichen Schritt über die herkömmlichen Konzepte im Produktionsmanagement hinaus, die einerseits von einem Primat der Automatisierung geprägt sind und andererseits vielfach nicht über ausreichende Methoden zur Erfassung von produktionsrelevanten Kennzahlen oder ‚Key Performance Indicators‘ (KPI) noch über eine Integration mit den kommerziellen Geschäftsprozessen verfügen.

Von der Datenerfassung zum integrierten System

Für die konsequente Anwendung dieses Production Intelligence-Ansatzes reichen die bisherigen Systeme zur reinen Betriebsdatenerfassung (BDE) nicht mehr aus. Vielmehr ist eine umfassendere IT-Unterstützung in der Werkhalle im Sinne eines Total Productive Management (TPM) gefragt. „Lange Zeit haben die BDE-Systeme dem Produktionsmanagement einen guten Dienst erwiesen“, erläutert Werner Felten, Geschäftsführer der Felten Group. Doch inzwischen versprächen umfassende, auf TPM ausgerichteten Systeme wie die ‚Pilot‘-Lösung des Software-Anbieters höhere Leistungsqualität bei gleichzeitig wirkungsvolleren Kostendegression. Denn zusätzlich zur gezielten Bereitstellung und Visualisierung von Produktionsdaten stellen die Informationssysteme zahlreiche weitere Funktionen, darunter Kennzahlenreporting und Analysemodule, integriertes Maßnahmenmanagement und die Evaluierung der eingleiteten Prozessschritte zur Verfügung.

Prozessoptimierung rückt in den Vordergrund

Das Mehrwert-Potenzial von TPM-basierten Lösungen resultiert somit einerseits daraus, dass nicht nur wie bisher die Betriebs- und Maschinendaten, sondern zusätzlich auch die Prozessdaten ermittelt werden. Damit entsteht im Vergleich zur reinen Datenerfassung angesichts der heutigen Prozessorientierung eine bedarfsgerechtere und gesichertere Basis für die Produktionssteuerung. Andererseits sind entsprechende Lösungen auch in der Lage, die erfassten Daten visuell in einer sinnvollen Reihenfolge über ein Dashboard darzustellen.

Vor allem aber wird den Anwendern auch die Möglichkeit geboten, diese Informationen auszuwerten und zu analysieren. Zu diesem Zweck ist das TPM-System in der Lage, Kennzahlen zu berechnen und sie dem Benutzer übersichtlich aufbereitet zur Verfügung zu stellen. Die daraus resultierenden Erkenntnisse können dann als Grundlage zur Initiierung systematischer Kontinuierlicher Verbesserungsprozesse (KVP) dienen. Führen gestartete Maßnahmen nicht vollständig zu zufriedenstellenden Resultaten, werden dabei nach dem Prinzip des Regelkreises automatisch weitere Verbesserungsschritte eingeleitet, bis die gewünschten Ergebnisse erreicht werden.

Zur Unterstützung solcher Methoden bietet das Softwarehaus zudem Lösungen für die vollständige Dokumentation, Rückverfolgbarkeit und ein Reporting der KVP-Initiativen an. „Mittels einer TPM-Lösung wird somit nicht nur wie bisher bei den klassischen BDE-Lösungen ein Status abgebildet, sondern das Unternehmen erhält auf diese Weise quasi ein Navigationssystem, mit dem es auf intelligente Weise sicher zum Optimierungsziel geführt wird“, erklärt Felten.

Maßnahmenmanagement automatisiert Optimierung

Ein weiteres Kennzeichnen von TPM ist ein integrierbares Maßnahmenmanagement für die automatisierte Optimierungssteuerung. So lassen sich mit einer systematischen Vorgehensmethodik sowohl komplexe Projekte zur Produktivitätssteigerung als auch KVP-Projekte unterstützen. Dahinter verbirgt sich ein aus dem Qualitätsmanagement abgeleitetes Konzept, zu dessen übergeordneten Zielen vor allem die Steigerung der Anlagenverfügbarkeit, Minimierung von Verlusten und die Vermeidung von Doppelarbeit gehören. In der ersten Phase werden dafür die aktuellen Verbesserungspotenziale durch eine Analyse der Dashboard-Daten identifiziert sowie eine Auswahl der notwendigen Maßnahmen vorgenommen. Diese sind im System vordefiniert und mit entsprechenden Prüfparametern versehen. Anschließend startet ein Prozess, der alle weiteren Schritte des kontinuierlichen Verbesserungsprozesses koordiniert. Die Ausführung betrifft dann beispielsweise die Veränderung eines Prozessparameters beziehungsweise das Testen und Optimieren der Maßnahme. Nach einem vorher festgelegten Zeitraum werden im dritten Schritt die Folgen beziehungsweise Ergebnisse bewertet.

Bereichübergreifende Maßnahmenpakete

Durch eine wiederholte Analyse wird anschließend festgestellt, ob die durchgeführte Maßnahme eine Verbesserung des Prozesses bewirkt hat und wie diese Maßnahme auch auf andere Prozesse oder Bereiche transferiert werden kann, um den bestmöglichen Nutzen zu gewährleisten. Sofern die Maßnahme zu erfolgreichen Ergebnissen geführt hat, wird sie im vierten Schritt auf andere Prozesse und Bereiche – beispielsweise weitere Produktionslinien – übertragen, um Multiplikationseffekte zu erzeugen. Eine wichtige Rolle neben der Analyse spielt nach Aussagen von Felten auch die anschließende, softwaregestütze Koordination der Optimierungsmaßnahme und die Ermittlung der Ergebnisse.

TPM als Basis für Energiedatenmanagement

Solche analytischen Funktionen sind nicht nur zur Steigerung der Produktivität und Wirtschaftlichkeit in den Fertigungsprozessen wichtig, sondern ebenso beim Thema Energieeffizienz. Denn mittels TPM ist es auch möglich, die Energieverbraucher für ein systematisches Maßnahmenmanagement zu bewerten und kontinuierlich zu optimieren. Dabei wird nicht nur die Energieeffizienz von Produktions- und Gebäudesystemen betrachtet, sondern ebenso die der Prozesse. „Störfaktoren in den Prozessen, die zur Nacharbeit oder erhöhtem Ausschuss führen, wirken sich zwangsläufig auch negativ auf die Energiebilanz aus“, erläutert Felten. Die über schlankere und damit effizientere Prozesse zu erreichenden Effekte zur Reduzierung der Energieaufwände würden in der aktuellen Diskussion meist nicht die notwendige Beachtung finden. „Produktivitätsverbesserungen und eine Senkung der Energieverbräuche sind keine getrennten Themen, sondern sie ergänzen sich“, betont der Geschäftsführer des Softwarehauses. Denn intelligent angelegte Konzepte würden in Verbindung mit den notwendigen Techniken doppelte Effekte erzeugen. „Sie bewirken, dass ein vergleichsweise schneller Return on Investment bei den Optimierungsinvestitionen entsteht.“


Das könnte Sie auch interessieren:

Industrielle Trends wie IIoT und Digitalisierung setzen immense Datenströme voraus. Doch im Gegensatz zur IT-Security für Büros müssen Fabrikbetreiber auf wesentlich mehr Stolpersteine achten, damit ihre Anlagen nicht schon einfachen Angriffen zum Opfer fallen.‣ weiterlesen

Ab und zu fehlte ein Schlüssel im Kloster der Franziskanerinnen der ewigen Anbetung von Schwäbisch Gmünd. Beim letzten Mal gab das den Impuls, anstatt neue mechanische Zylinder in die rund 220 Türen des Komplexes einzubauen, die alte Technik durch das Bluesmart-System von Winkhaus zu ersetzen.‣ weiterlesen

Mit 100,5 Punkten hält sich das IAB-Arbeitsmarktbarometer im November stabil und liegt weiter im leicht über der neutralen Marke. Auf europäischer Ebene sank der Frühindikator allerdings erneut.‣ weiterlesen

In einer neuen Expertise des Forschungsbeirats Industrie 4.0 untersuchen das FIR an der RWTH Aachen und das Industrie 4.0 Maturity Center den Status-quo und die aktuellen Herausforderungen der deutschen Industrie bei der Nutzung und wirtschaftlichen Verwertung von industriellen Daten und geben Handlungsempfehlungen für Unternehmen, Verbände, Politik und Wissenschaft.‣ weiterlesen

Im Forschungsprojekt FabOS soll eine KI-Bin-Picking-Anwendung entstehen, die ein verbessertes Erkennen, Greifen und definiertes Ablegen von Blechteilen in der Produktion ermöglicht.‣ weiterlesen

Die Digitalisierung des Qualitätsmanagements stellt Unternehmen vor Herausforderungen. Daher haben das Fraunhofer IPT und die FH Südwestfalen im Forschungsvorhaben 'Qbility - Quality 4.0 Capability Determination Model' ein datengetriebenes Reifegradmodell entwickelt, das die Anforderungen eines digitalisierten Qualitätsmanagements bei KMU adressiert.‣ weiterlesen

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) empfiehlt sicherheitsrelevante Patches und Updates so schnell wie möglich, unter Abwägung des jeweiligen Risikos, einzuspielen, auch wenn im professionellen und insbesondere industriellen Umfeld automatisierte Software-Updates mit unerwünschten Einschränkungen der Funktionalität - etwa durch einen Neustart des Systems - verbunden sein können.‣ weiterlesen