Erhöhter Kosten- und Zeitdruck macht eine Parallelisierung der Engineering-Arbeitsabläufe unabdingbar – etwa bei der Modernisierung von Anlagen. Betreiber benötigen daher die passende Unterstützung durch Software und IT-Infrastruktur, um Entwicklungs- und Wartungsprozesse disziplin- und gewerkeübergreifend steuern zu können. Bild: Siemens

Internationale Zusammenarbeit gewinnt an Bedeutung

Allerdings müssen zukunftsfähige IT-Infrakstrukturen in der Lage sein, stetig wachsenden Datenmengen oder ‚Big Data‘ performant zu beherrschen: Mittlerweile ist es durchaus üblich, Informationen im Terabyte-Bereich vorzuhalten, während ein Unternehmen vor drei bis fünf Jahren seine Datenablage noch in Gigabyte gemessen hat. Anwender sollten daher bei der Wahl der passenden Lösung auf eine Architektur achten, die langfristig das sichere und effektive Verwalten und die Analyse von Daten gestattet.

Hinzu kommen steigende Anforderungen an die Kollaborationsfähigkeit einer Software: Beim Entwurf einer Anlage entstehen riesige Datenmengen, oftmals verteilt über Entwicklungsstandorte etwa in Indien, China und Europa. Die Lösung muss daher sicherstellen, dass der Datenabgleich zuverlässig und schnell erfolgt: Auch verteilte Kompetenzteams müssen die passenden Informationen für ihre Gewerke zeitnah erhalten. Durch die Einbindung der Datenplattform in eine konsistente Systemarchitektur lassen sich weitere Vorteile erzielen – vom vereinfachten Versand von E-Mails über die Office-Umgebung über das Auslösen massenhafter Druckaufträge im Dokumentenmanagement bis zur Planung von Wartungsressourcen im Zusammenspiel mit dem Enterprise-Resource-Planning-System.

Prozessanalyse und Compliance: Unwichtige Daten gibt es nicht

Das Echtzeit-Management von Anlagendaten kommt im Betrieb noch eine weitere Bedeutung zu: Kann die Software Echtzeitdaten aus der Leittechnik auslesen, lassen sich Schlüsse für zeitsparende Wartungsstrategien ziehen und bestenfalls ungeplante Stillstände vermeiden? Als Ansatz für das Datenmanagement empfiehlt sich dabei eine stringente Kategorisierung: Kritische Messdaten die beispielsweise helfen, Gefahren für Mensch und Umwelt vorzubeugen, sollten im Sekunden- und Millisekundentakt aufgezeichnet werden. Alle anderen Daten können je nach Bedarf mit langfristigeren Messintervallen gefiltert und aufgezeichnet werden, beispielsweise um einer unsauberen Regelung durch Fouling bei Wärmetauschern und Ventilen vorzubeugen.

Dazu lässt sich anhand des Einschwingzustandes zum nächsten geeigneten Zeitpunkt ein Instandhaltungsauftrag für einen Partial Stroke Test im Leitsystem oder Distributed Control System (DCS) starten, um Fehlfunktionen und Beschädigung frühzeitig entgegen zu wirken. Auch für das Erfassen langfristiger Anlagenverbesserungen empfiehlt sich eine differenzierte Herangehensweise, um lediglich aussagekräftige Daten abzulegen: Für Standardequipment wie Ventile, Rohrleitungen oder Pumpen gibt es nur ‚den Blick nach vorne‘, neben der Überwachung etwa von Verschleiß anhand von Kavitations- und Vibrationsmessungen, ist eine Aufzeichnung nicht zwingend notwendig. Verbesserungen in Prozess- und Reaktionsschritten hingegen, etwa im Fermenter, tragen hohes Potenztial für Effizienzsteigerungen.

Unternehmen sollten hier alle drei bis fünf Jahre in den ‚Rückspiegel‘ schauen, um Prozesse besser in den Griff zu bekommen und Optimierungspotenzial zu erschließen. Entsprechend lange sollten detaillierte Daten archiviert werden, um beispielsweise ‚Grade Change‘-Prozesse in der Chemieanlage effizienter zu gestalten. Denn wenn eine Anlage statt acht Stunden nur drei Stunden ‚offspec‘ arbeitet, liegen die wirtschaftlichen Vorteile auf der Hand.

Vorsprung durch integriertes Engineering

Daher müssen Software-Lösungen, die solche Controlling- und Veränderungsprozesse durch aussagekräftige Datenanalysen unterstützen, die Frage nach der Amortisation nicht scheuen. Pauschalaussagen lassen sich hier allerdings nicht treffen, da die erzielbaren Effekte eines Systemeinsatzes von der jeweiligen Anlage abhängen. Ein Engineering-Beispiel aus jüngster Zeit zeigt etwa, dass sich durch ein umfassendes Controlling 2,5 Prozent der Entwicklungskosten einsparen ließen, entsprechend sanken Projektdauer und Engineeringkosten. Entscheidender für den deutschen Anlagenbetreiber waren aber Einsparungen durch die Erleichterung von Validierungs- und Qualifizierungswegen, denn entsprechend früher gehen die Anlagen an den Start.

Durch entsprechenden IT-Einsatz konnte beispielsweise Foster Wheeler 30-35 Prozent an Zeit und Engineering-Kosten sparen. Multipliziert man solche Summen mit jährlich 15-20 Projekten, betragen die Amortisationszeiträume ein Jahr und weniger. Zudem können Engineering- und Schulungsaufwände sinken, wenn ein Unternehmen durch IT-gestütztes Wissenmanagement seine Anlagen nach einem international einheitlichen ‚Best Practice‘-Prinzip errichtet und betreiben lässt. Der größte Gewinn bleibt aber der Zeitfaktor: Wer Produkte effizienter und kostengünstiger entwickelt und schneller auf den Markt bringt, und etwa durch kürzere Entwicklungs- und Validierungszeiten seine ‚time to market‘ und ‚cost to market‘ senkt, beeinflusst erfolgskritische Wettbewerbsfaktoren, um auf Dauer im internationalen Wettbewerb bestehen zu können.