- IT&Production - https://www.it-production.com -

Heterogene Systeme flexibel verschmelzen

Grundlagen für Optimierung und neue Geschäftsmodelle

Heterogene Systeme flexibel verschmelzen

IT ermöglicht immer individuellere Produkte und kürzere Entwicklungszyklen. Hinzu kommen verstärkt neue Geschäftsmodelle auf der Basis von datengetriebenen Diensten. Mit dem richtigen Mix aus Technologie, Strategie und Mitarbeiterwissen lässt sich maßvoll aber konsequent eine offene IT-Architektur einrichten, die mit den Anforderungen wächst.

 (Bild: ©ipopba/AdobeStock.com) [1]

(Bild: ©ipopba/AdobeStock.com)

Damit Fertigungsunternehmen auch weiter am Markt bestehen können, ist für viele eine umfassende Digitalisierung von Geschäftsprozessen notwendig. Eine flexiblere Produktion erfordert jedoch auch eine deutlich flexiblere Infrastruktur. Ermöglicht wird dies vor allem durch leistungsfähigere Hard- und Software-Komponenten sowie eine umfassende Integration der Unternehmens-IT (IT), der Produktions-IT bzw. Operations Technology (OT) und dem Internet der Dinge (IoT). Historisch bedingt haben sich diese drei Bereiche weitgehend unabhängig voneinander entwickelt und ihre Integration stellt viele Unternehmen heute vor Herausforderungen. Während in der IT neue Konzepte wie z.B. Microservices und Open Source Einzug gehalten haben, erfolgt der Wandel bei der OT wegen der erheblichen Investitionen in Fertigungsanlagen und der großen Vielfalt an Herstellern und Standards deutlich langsamer. Wie kann unter diesen Voraussetzungen also eine nachhaltige erfolgreiche Digitalisierung von Fertigungs- und Geschäftsprozessen gelingen?

Durchgängige Integration

Der wichtigste Aspekt ist dabei die durchgängige Integration innerhalb und außerhalb eines Unternehmens – etwa mit Partnern und Kunden. Mit einer flexiblen Infrastruktur werden sich ändernde Geschäftsprozesse erst ermöglicht, denn in einer digitalisierten Fabrik werden immer mehr Maschinen untereinander und mit dem Internet verbunden sein. Zudem müssen viele IT- und OT-Systeme – beispielsweise ERP-, PLM-Systeme, SCADA, Steuerungen und Sensoren- über viele Protokolle angebunden werden, auch wenn eine Standardisierung angestrebt wird. Beispiele dafür sind die Auswertung von Sensordaten in Echtzeit, der direkte Zugriff von ME-Systemen auf Bestandsinformation in SAP oder die Nutzung von Qualitätsdaten bei der Entwicklung neuer Produkte.

Integration kontrollieren

Umso größer ist die Bedeutung einer flexiblen und kontrollierbaren Integration von IT und OT. Die kann mit Hilfe des Plant Service Bus (PSB) gelingen. Dieser unterstützt eine Reihe von Standard-Protokollen aus dem IT- und OT-Umfeld – von OPC-UA, MQTT und REST, über Datenbanken und Adapter zu Datenbanken und Standardanwendungen, ERP, MES bis hin zu EDIFACT und Mainframes. Bei bislang noch nicht unterstützten speicherprogrammierbaren Steuerungen (SPS) besteht die Möglichkeit, einen Adapter neu zu entwickeln oder ein Gateway einzusetzen, das dieses Protokoll (i.d.R. Feldbus) in ein Standard-Protokoll umsetzt. Für den Transport großer Datenströme können beispielweise IBM Streams eingesetzt werden, eine Stream-Computing-Plattform mit eingeschränkten Service-Bus-Funktionen. Durch die Verwendung von Virtualisierungsmethoden (Container) und umfassende Automatisierung ist es zudem möglich, die Lösung in mehreren Werken umzusetzen. Mit dem Plant Service Bus kann zudem das Risiko bei der Kommunikation mit externen Systemen, z.B. mit der Cloud oder mit Geschäftspartnern, reduziert werden.

Daten aufbereiten

Die Menge an Sensordaten und ihre Heterogenität verursachen einen beträchtlichen Aufwand wenn es darum geht, die Ursachen von Fehlermustern, Anomalien oder Ausfällen zu finden. Immer häufiger ersetzen Advanced-Analytics- und KI-Techniken die traditionelle Business Intelligence (BI) – nicht zuletzt wegen der großen Datenmengen aus unterschiedlichsten Quellen. Diese sollten vorher idealerweise in eine für die Analysen geeignete Form transformiert und gegebenenfalls vorverarbeitet sowie bereinigt werden. Je nach Umfang oder der benötigten Antwortzeit empfiehlt es sich, die Daten nicht nur in der zentralen Unternehmens-IT auszuwerten, sondern bereits in einem Edge Device bzw. Gateway an der Maschine.

Unternehmensübergreifend

Neben der Steigerung der Anlagenverfügbarkeit, der Qualität oder des Durchsatzes ist die unternehmensübergreifende Zusammenarbeit ein weiterer Trend, bei dem die Auswertung von Daten hilfreich ist. Hersteller können so beispielsweise erfahren, wie ihre Produkte eingesetzt werden und sie daraufhin optimieren. Der Kosmetikhersteller L’Oreal ist dafür ein Beispiel: Um die Produktqualität sicherzustellen, nutzt das Unternehmen integrierte IoT-Sensoren in seinen Fertigungslinien. Mit Hilfe der Design-Thinking-Methode wurden dabei Schwachstellen wie etwa die Umrüstzeiten identifiziert und eine Architektur entwickelt, die diese adressiert.

Grundlagen für Optimierung und neue Geschäftsmodelle

Heterogene Systeme flexibel verschmelzen

Grundriss einer modernen IT-Architektur (Bild: IBM Deutschland GmbH) [2]

Grundriss einer modernen IT-Architektur (Bild: IBM Deutschland GmbH)

Daten sichtbar machen

Für eine erfolgreiche Umsetzung von Analyseprojekten ist eine agile und iterative Herangehensweise empfehlenswert sowie der kontinuierliche Austausch zwischen Fachbereich und Analysten und eine sukzessive Erhöhung der analytischen Komplexität. Zunächst gilt es, die Daten zu visualisieren – z.B. auch auf mobilen Endgeräten. Aufbauend darauf lassen sich in weiteren Phasen komplexe Zusammenhänge, Vorhersagen, Optimierungen und Handlungsempfehlungen entwickeln. Mit vortrainierten KI-Lösungen können gängige IoT-Fragestellungen abgedeckt und Projekte im eigenen Unternehmen beschleunigt werden. Dazu zählen beispielsweise die vorausschauende Wartung oder die Produktionsoptimierung. Ein Werkzeug, dass Data Scientists bei der Analyse vielfältiger Daten unterstützen kann, ist beispielsweise Watson Studio. Basierend auf Open-Source-Standards können damit große Datenmengen ausgewertet werden.

Anwendungen entwickeln

Die daraus gewonnen Erkenntnisse können dann in Anwendungen einfließen, die in den Fachbereichen schnell in einem Pilotprojekt erstellt werden können. Mit den Daten werden neue Geschäftsmodelle sowie eine kommerzielle Verwertung möglich. Die Entwicklung industrieller Anwendungen erfolgt dabei oft schrittweise auf Basis der Anwenderanforderungen. Nicht zuletzt, weil andere Unternehmensbereiche ähnlich vorgehen. Erst im späteren Verlauf stellt sich dann die Frage der Integration untereinander und mit der Unternehmens-IT. Die Herausforderung ist dann, dynamisch zu bleiben und die Lösungen ökonomisch zu betreiben, immer häufiger ganz unabhängig von den verschiedenen Softwareanbietern. In vielen Fällen wollen die Unternehmen die Anwendungen etwa aus Sicherheitsgründen im eigenen Haus betreiben und trotzdem die Vorzüge der Cloud nutzen. Einige Plattformen auf dem Markt adressieren genau diese Anforderung, indem sie häufig benötigte Infrastruktur-Funktionen bereits beinhalten. Unternehmen können sich so auf die eigentliche Anwendung fokussieren und die Implementierung beschleunigen. Wichtig ist dabei, dass das Projekt aus Geschäftssicht getrieben wird, um mit minimalem Aufwand frühzeitig Ergebnisse zu bekommen und die Entwicklung flexibel steuern zu können. Anwender haben damit die Möglichkeit, die für sie wichtigen Microservices sehr granular und unabhängig von Plattform-Anbietern auszuwählen.

Offene Architektur

Durchgängige IT-Infrastrukturen und standardisierte Schnittstellen sind Schlüsselelemente für den Erfolg von Industrie-4.0-Projekten. Durch die Vernetzung heterogener Systeme verschiedener Anbieter durch gemeinsame Standards kann eine robuste und offene Architektur für unterschiedliche Anwendungsfälle entwickelt werden, die sich in die vorhandene Umgebung integrieren lassen und anpassbar sind, wenn sich die Anforderungen ändern.


Peter Schleinitz ist Executive Architect /
The Open Group Distinguished IT Architect
bei der IBM Deutschland GmbH.