Anzeige
Anzeige

Prozessindustrie

IT-Strategien für das Plant Life Cycle Management

Beitrag drucken
Erhöhter Kosten- und Zeitdruck macht eine Parallelisierung der Engineering-Arbeitsabläufe unabdingbar – etwa bei der Modernisierung von Anlagen. Betreiber benötigen daher die passende Unterstützung durch Software und IT-Infrastruktur, um Entwicklungs- und Wartungsprozesse disziplin- und gewerkeübergreifend steuern zu können. Bild: Siemens

Internationale Zusammenarbeit gewinnt an Bedeutung

Allerdings müssen zukunftsfähige IT-Infrakstrukturen in der Lage sein, stetig wachsenden Datenmengen oder ‚Big Data‘ performant zu beherrschen: Mittlerweile ist es durchaus üblich, Informationen im Terabyte-Bereich vorzuhalten, während ein Unternehmen vor drei bis fünf Jahren seine Datenablage noch in Gigabyte gemessen hat. Anwender sollten daher bei der Wahl der passenden Lösung auf eine Architektur achten, die langfristig das sichere und effektive Verwalten und die Analyse von Daten gestattet.

Hinzu kommen steigende Anforderungen an die Kollaborationsfähigkeit einer Software: Beim Entwurf einer Anlage entstehen riesige Datenmengen, oftmals verteilt über Entwicklungsstandorte etwa in Indien, China und Europa. Die Lösung muss daher sicherstellen, dass der Datenabgleich zuverlässig und schnell erfolgt: Auch verteilte Kompetenzteams müssen die passenden Informationen für ihre Gewerke zeitnah erhalten. Durch die Einbindung der Datenplattform in eine konsistente Systemarchitektur lassen sich weitere Vorteile erzielen – vom vereinfachten Versand von E-Mails über die Office-Umgebung über das Auslösen massenhafter Druckaufträge im Dokumentenmanagement bis zur Planung von Wartungsressourcen im Zusammenspiel mit dem Enterprise-Resource-Planning-System.

Prozessanalyse und Compliance: Unwichtige Daten gibt es nicht

Das Echtzeit-Management von Anlagendaten kommt im Betrieb noch eine weitere Bedeutung zu: Kann die Software Echtzeitdaten aus der Leittechnik auslesen, lassen sich Schlüsse für zeitsparende Wartungsstrategien ziehen und bestenfalls ungeplante Stillstände vermeiden? Als Ansatz für das Datenmanagement empfiehlt sich dabei eine stringente Kategorisierung: Kritische Messdaten die beispielsweise helfen, Gefahren für Mensch und Umwelt vorzubeugen, sollten im Sekunden- und Millisekundentakt aufgezeichnet werden. Alle anderen Daten können je nach Bedarf mit langfristigeren Messintervallen gefiltert und aufgezeichnet werden, beispielsweise um einer unsauberen Regelung durch Fouling bei Wärmetauschern und Ventilen vorzubeugen.

Dazu lässt sich anhand des Einschwingzustandes zum nächsten geeigneten Zeitpunkt ein Instandhaltungsauftrag für einen Partial Stroke Test im Leitsystem oder Distributed Control System (DCS) starten, um Fehlfunktionen und Beschädigung frühzeitig entgegen zu wirken. Auch für das Erfassen langfristiger Anlagenverbesserungen empfiehlt sich eine differenzierte Herangehensweise, um lediglich aussagekräftige Daten abzulegen: Für Standardequipment wie Ventile, Rohrleitungen oder Pumpen gibt es nur ‚den Blick nach vorne‘, neben der Überwachung etwa von Verschleiß anhand von Kavitations- und Vibrationsmessungen, ist eine Aufzeichnung nicht zwingend notwendig. Verbesserungen in Prozess- und Reaktionsschritten hingegen, etwa im Fermenter, tragen hohes Potenztial für Effizienzsteigerungen.

Unternehmen sollten hier alle drei bis fünf Jahre in den ‚Rückspiegel‘ schauen, um Prozesse besser in den Griff zu bekommen und Optimierungspotenzial zu erschließen. Entsprechend lange sollten detaillierte Daten archiviert werden, um beispielsweise ‚Grade Change‘-Prozesse in der Chemieanlage effizienter zu gestalten. Denn wenn eine Anlage statt acht Stunden nur drei Stunden ‚offspec‘ arbeitet, liegen die wirtschaftlichen Vorteile auf der Hand.

Vorsprung durch integriertes Engineering

Daher müssen Software-Lösungen, die solche Controlling- und Veränderungsprozesse durch aussagekräftige Datenanalysen unterstützen, die Frage nach der Amortisation nicht scheuen. Pauschalaussagen lassen sich hier allerdings nicht treffen, da die erzielbaren Effekte eines Systemeinsatzes von der jeweiligen Anlage abhängen. Ein Engineering-Beispiel aus jüngster Zeit zeigt etwa, dass sich durch ein umfassendes Controlling 2,5 Prozent der Entwicklungskosten einsparen ließen, entsprechend sanken Projektdauer und Engineeringkosten. Entscheidender für den deutschen Anlagenbetreiber waren aber Einsparungen durch die Erleichterung von Validierungs- und Qualifizierungswegen, denn entsprechend früher gehen die Anlagen an den Start.

Durch entsprechenden IT-Einsatz konnte beispielsweise Foster Wheeler 30-35 Prozent an Zeit und Engineering-Kosten sparen. Multipliziert man solche Summen mit jährlich 15-20 Projekten, betragen die Amortisationszeiträume ein Jahr und weniger. Zudem können Engineering- und Schulungsaufwände sinken, wenn ein Unternehmen durch IT-gestütztes Wissenmanagement seine Anlagen nach einem international einheitlichen ‚Best Practice‘-Prinzip errichtet und betreiben lässt. Der größte Gewinn bleibt aber der Zeitfaktor: Wer Produkte effizienter und kostengünstiger entwickelt und schneller auf den Markt bringt, und etwa durch kürzere Entwicklungs- und Validierungszeiten seine ‚time to market‘ und ‚cost to market‘ senkt, beeinflusst erfolgskritische Wettbewerbsfaktoren, um auf Dauer im internationalen Wettbewerb bestehen zu können.


Das könnte Sie auch interessieren:

Der Automobilzulieferer Hirschmann Automotive muss Produktionsdaten bis zu 15 Jahre lang aufheben. Eigentlich lästig, doch mit dem Rollout einer IIoT-Plattform wird die Aufbewahrungspflicht zum Sprungbrett für Optimierungen. Denn einlaufende Maschinendaten ermöglichen Applikationen wie Echtzeit-Monitoring, datenbasierte Problembewältigung und sogar KI-Analysen.‣ weiterlesen

Wer Produktion und Logistik in einer Echtzeit-Visualisierung abbildet, kann niedrigschwellig in die digitale Transformation einsteigen und viel Papier aus dem Shopfloor bannen. Ergänzt um zentrale MES-Funktionen lassen sich solche Visualisierungssysteme zur Operational Excellence-Plattform ausprägen, die bei fortlaufenden Prozessoptimierungen unterstützt.‣ weiterlesen

Zum 1. Januar übernimmt Jörg Tewes den Posten des CEO bei Exasol. Er kommt von Amazon zum Analytics-Spezialisten.‣ weiterlesen

Industrielle Trends wie IIoT und Digitalisierung setzen immense Datenströme voraus. Doch im Gegensatz zur IT-Security für Büros müssen Fabrikbetreiber auf wesentlich mehr Stolpersteine achten, damit ihre Anlagen nicht schon einfachen Angriffen zum Opfer fallen.‣ weiterlesen

Ab und zu fehlte ein Schlüssel im Kloster der Franziskanerinnen der ewigen Anbetung von Schwäbisch Gmünd. Beim letzten Mal gab das den Impuls, anstatt neue mechanische Zylinder in die rund 220 Türen des Komplexes einzubauen, die alte Technik durch das Bluesmart-System von Winkhaus zu ersetzen.‣ weiterlesen

Mit 100,5 Punkten hält sich das IAB-Arbeitsmarktbarometer im November stabil und liegt weiter im leicht über der neutralen Marke. Auf europäischer Ebene sank der Frühindikator allerdings erneut.‣ weiterlesen

In einer neuen Expertise des Forschungsbeirats Industrie 4.0 untersuchen das FIR an der RWTH Aachen und das Industrie 4.0 Maturity Center den Status-quo und die aktuellen Herausforderungen der deutschen Industrie bei der Nutzung und wirtschaftlichen Verwertung von industriellen Daten und geben Handlungsempfehlungen für Unternehmen, Verbände, Politik und Wissenschaft.‣ weiterlesen