Anzeige
Anzeige
Beitrag drucken

Kommunikationsstandard für Industrie 4.0

Eine Technologie wächst über sich hinaus

OPC UA bringt als etablierter Standard die besten Voraussetzungen mit, um Anlagen der Industrie 4.0 zu vernetzen, und ist in seiner funktionalen Gesamtheit aktuell alternativlos. Grund genug, den Werdegang und Ist-Stand der Technologie in den Mittelpunkt zu stellen.



OPC UA erweitert den Anwendungsbereich der OPC Technologie über die gesamte Automatisierungspyramide. Bild: Unified Automation GmbH

Die OPC Foundation wurde 1996 von einer Gruppe bestehend aus vier amerikanischen Firmen als Non Profit Organisation gegründet. Ziel war es, für die Vielfalt der proprietären, herstellerspezifischen Kommunikationsprotokolle in der industriellen Automatisierungstechnik eine einheitliche Schnittstelle für den Datenzugriff zu definieren. Es galt eine Schnittstelle zu finden, die, ähnlich wie ein Druckertreiber, einfach installiert wird und dann allen Softwareanwendungen, gerade HMI/Scada-Anwendungen, einen einfachen und standardisierten Zugang zu den Daten der Geräte, hier insbesondere Industriesteuerungen, ermöglicht. Zehn Jahre später hatte die OPC Foundation über 400 Mitglieder, darunter alle großen Hersteller wie ABB, Emerson, Honeywell, Mitsubishi, Rockwell und Siemens. Der OPC Data Access-Standard (heute ‘OPC classic’ genannt) verband Geräte von verschiedenen Herstellern mit Visualisierungs- und BDE-Systemen aller Art. OPC bot über sogenannte Items/Tags einen variablenbasierten Zugriff auf Prozesswerte in der Steuerung. Die klassische OPC DA-Schnittstelle mit den Funktionen ‘Browsen’, ‘Lesen’ und ‘Schreiben’ sowie ‘Beobachten’ wurde in mehr als 1.000 Produkten der Mitgliedsfirmen und einschlägigen Studien zufolge in weiteren 15.000 Produkten von Nichtmitgliedern umgesetzt. Ohne jemals eine DIN oder IEC-Norm zu sein, war OPC DA der Quasistandard und ist bis heute millionenfach in Produktionsanlagen auf der ganzen Welt im Einsatz.

Der große Erfolg der klassischen OPC-Schnittstelle ist sicher auch in ihrer Einfachheit begründet. Basierend auf der COM/DCOM-Technologie von Microsoft konnte OPC auf dem weit verbreiteten Windows-Betriebsystem einfach implementiert werden, inklusive der entsprechenden Toolunterstützung (MS Visual Studio) und C++ ATL (Active Template Library). Neben OPC DA folgten weitere spezialisierte OPC-Schnittstellen, wie OPC A&E (Alarm&Events) und OPC HDA (Historical Data Access). Dabei war die Bindung an COM/DCOM und damit an x86-Architekturen mit Betriebssystemen von Microsoft Fluch und Segen zugleich. Obwohl sie immens zur Verbreitung beigetragen hat, war sie auch der limitierende Faktor. Spätestens mit dem erscheinen von .net und der absehbaren Ablösung von COM/DCOM musste die OPC Foundation reagieren und die OPC Technologie auf eine breitere, generischere Basis stellen. Eine Basis, die unabhängig vom Betriebsystem und der Transporttechnologie ist und die gleichzeitig die verschiedenen Funktionalitäten aller bisherigen OPC-Schnittstellen vereinigt und zusammenführt (Unified).

Technische Neuausrichtung

Im Jahr 2004 nahm die ‘OPC Unified Architecture’-Arbeitsgruppe ihre Arbeit auf und definierte eine neue gesamtheitliche Architektur. In einem abstrahierten Schichtenmodell wurden der Transport, die Verschlüsselung und die Codierung der Daten sauber von ihrer Repräsentation und der semantischen Beschreibung der Information getrennt. Unter Berücksichtigung der Anforderungen an Betriebsystemunabhängigkeit, Programmiersprachenunabhängigkeit und Protokollunabhängigkeit wurde die OPC-Technologie neu erfunden. 2007 wurde die erste OPC UA-Spezifikation freigegeben und als internationaler IEC Standard angemeldet (IEC62541). Funktional umschreibt OPC UA heute nicht nur ein Kommunikationsprotokoll oder eine Schnittstelle, es ist vielmehr eine Technologie, ein Framework zur Beschreibung und zum Transport von Informationen, welche über Dienste verschiedene Funktionalitäten bereitstellt und welche in ihrer Generik so flexibel ist, dass sie weit über ihre ursprüngliche Verwendung in der industriellen Automatisierung hinaus neue Anwendungsfelder erschließt.

Zunächst einmal führt OPC UA funktional alle, auch die alten, klassischen OPC-Spezifikationen zusammen und vereint damit Data Access, Alarms&Events, Historical Data Access, Complex Data und Commands in einem einzigen Modell. Damit stellt OPC UA für Sensoren, Geräte, Steuerungen, Maschinen, Anlagen und ganze Fabriken ein einheitliches Set an Funktionen – oder Diensten – bereit. Zusätzlich wurde ein mehrschichtiges Sicherheitskonzept implementiert, das neben dem üblichen Verschlüsseln und Signieren von Nachrichten vor allem auch Authentifizierung von Anwendung und Nutzern erlaubt. Weiterhin ist eine rollenbasierte Vergabe von Zugriffsrechten auf Datenpunktebene im Kern der Technologie verankert, inklusive Auditierung beziehungsweise Protokollierung von Interaktionen. Neben der geschriebenen Spezifikation wurden parallel in den drei Programmiersprachen (ANSI C, C# .net, und Java sogenannte Referenzimplementierungen erstellt. Die daraus entstandenen UA-Stacks bilden heute die Grundlage für kommerzielle Toolkits und Entwicklerframeworks, welche die Implementierung und Integration der OPC UA-Technologie in Gerätefirmware und Softwareanwendungen erheblich beschleunigen und vereinfachen. Mittlerweile sind auch Open Source-Implementierungen in funktional unterschiedlichen Tiefe- und Reifegraden verfügbar.



OPC UA Anwendung mit Client/Server (links) und mit Publisher/Subscriber Verfahren (rechts). Bild: Unified Automation GmbH


Kernfunktionalität

Die beiden wohl wesentlichsten Elemente der OPC UA-Technologie sind das objektorientierte Informationsmodell und das Sicherheitskonzept basierend auf dem ‘Security-in-Depth’-Ansatz. An dieser Stelle wird auch der Unterschied zu vielen anderen Protokollen am deutlichsten und es zeigt sich, dass OPC UA eben nicht nur ‘noch ein neues Protokoll’ ist. Das Informationsmodell enthält sowohl die Gesamtheit aller Informationen die ein OPC UA-Server anbietet als auch deren Beschreibung. Die OPC Foundation hat ein Metamodell und ein Regelwerk geschaffen, mit denen man jede Art von Informationen abbilden und beschreiben kann, ähnlich einer Sprache. Ein Knotenpunkt (Node) im Adressraum des OPC-Servers ist also nun nicht mehr nur eine Variable oder ein Prozesswert, flach in einem Ordner liegend, sondern es ist ein Objekt mit Eigenschaften, Alarmen und Methoden, das einen Zustand hat und das mit anderen Objekten über Referenzen verbunden ist. Somit sind die Stellung dieses Objektes und seine Eingliederung im Gesamtsystem beschreibbar und generisch auslesbar. Auf diese Weise gleicht das virtuelle Abbild der Anlage oder Maschine im OPC-Server exakt der Realität. Es kann von einem Cyber-physical System (CPS) gesprochen werden, das von jedem OPC-Client gelesen und verstanden werden kann.

Der Zugriff auf diese Informationen erfolgt immer über die gleichen, fest definierten UA-Dienste und ist so stets interoperabel und kompatibel – Plug-and-Play ohne zusätzliche Konfiguration, also ohne externes Wissen. Gerätetypen und deren Abbildung in OPC UA werden vereinheitlicht. Die Flexibilität liegt in der Informationsmodellierung und diese wird branchenweise weiter standardisiert. In sogenannten Zusatzspezifikationen (Companion Specifications) einigten sich zum Beispiel bereits Hersteller von Großküchengeräten, Spritzgussmaschinen, RFID-Lesegeräten oder Industriesteuerungen auf eine einheitliche Abbildung basierend auf dem OPC UA-Regelwerk. Neben der Sicherheit, die über die Transportschicht hergestellt wird, bietet OPC UA weitere Sicherheitsfeatures auf Anwendungsebene. Die Transportschicht verschlüsselt und signiert den Inhalt der Nachricht. Diese kann damit über verschiedene, auch unsichere Transportkanäle, übertragen werden. Es wird eine Ende-zu-Ende-Sicherheit erreicht, indem nur vertrauenswürdige Anwendungen miteinander kommunizieren können. Dies ist ein wesentlicher Unterschied zu VPN-Tunneln oder Fernzugriffslösungen. Zusätzlich bietet OPC UA dem Anbieter der Daten die Möglichkeit, die Zugriffsrechte bis hinunter auf Datenpunktebene einzelner Nodes rollenbasiert festzulegen. Somit dürfen nur Nutzer bestimmter Gruppen einen Datenpunkt ‘schreiben’ oder ‘lesen’, andere dürfen ihn nicht einmal ‘sehen’. Jede Art von ‘verändertem Zugriff’ lässt sich zusätzlich protokollieren. In sogenannten Auditlogs kann dann nachvollzogen werden, wer zu welchem Zeitpunkt in die Anlage eingegriffen hat und welcher Datenpunkt manipuliert wurde. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat in diesem Jahr sein Untersuchungsergebnis zur Sicherheit von OPC UA veröffentlicht. Die Analyse hat bestätigt dass OPC UA ‘keine systematischen Sicherheitslücken enthält’.


Das könnte Sie auch interessieren:

Das neue Zentrum für Klimaneutrale Produktion und Ganzheitliche Bilanzierung unterstützt Unternehmen aus Baden-Württemberg auf dem Weg zur eigenen Klimaneutralität. Die Bewerbungsphase läuft noch bis zum 31. März 2023.‣ weiterlesen

Das übergreifende Manufacturing Operations Management wird oft als Weiterentwicklung klassischer MES-Konzepte verstanden. Reichern Betreiber ihre MOM-Systeme mit Sensordaten an, werden vielfältige Optimierungen auf der Basis von Echtzeit-Daten möglich. Im Beispiel eines japanischen Produzenten waren es etwa die Reduzierung von Stillstandszeiten und Kosten.‣ weiterlesen

Insgesamt 15,6Mrd. Stunden betrug das Arbeitsvolumen im dritten Quartal 2022. Laut IAB ein Anstieg von 0,1 Prozent gegenüber dem Vorquartal. Die Zahl der Erwerbstätigen erreichte im dritten Quartal einen neuen Höchststand.‣ weiterlesen

Forschende des CISPA Helmholtz-Zentrum für Informationssicherheit und des Instituts Kastel am Karlsruher Instituts für Technologie (KIT) haben die Ergebnisse ihrer Machbarkeitsstudie zum Thema ’Encrypted Computing’ an die Agentur für Innovation in der Cybersicherheit (Cyberagentur) übergeben.‣ weiterlesen

Komplexe Materialien auf Basis von Seltenen Erden sind wichtig für Hightech-Anwendungen, wie etwa für Permanentmagnete oder in Bildschirme. Die Chemie molekularer und nanoskaliger Verbindungen der Seltenen Erden sowie ihre physikalischen Eigenschaften untersucht nun der neue Sonderforschungsbereich SFB ’4f for Future’, den das Karlsruher Institut für Technologie (KIT) koordiniert.‣ weiterlesen

Sorgen sich Unternehmen bei der Analyse ihrer steigenden Datenmengen um Performance und IT-Sicherheit, sollten sie sich das Edge Computing-Konzept anschauen. Denn diese Zwischenschicht entlastet Netzwerke und anonymisiert Daten für ihre rechtssichere Cloud-Verarbeitung.‣ weiterlesen

Laut Ifo Institut ist die Zahl der Kurzarbeiter wieder leicht gestiegen – insbesondere in der Industrie. Im Vergleich zur Corona-Krise sei das Niveau jedoch noch sehr gering, so die Wirtschaftsforscher.‣ weiterlesen

Zwar laufen die Geschäfte der IT- und Telekommunikationsunternehmen besser als erwartet, laut Branchenverband Bitkom bleiben Unsicherheiten für die kommenden Monate hoch.‣ weiterlesen

Im Materialplanungslauf stellen Firmen sicher, ihren Materialbedarf zu decken. Aufgrund verschiedener Einflüsse errechnen die Systeme dabei oft größere Mengen, als benötigt werden - auch bei akutem Bedarf. Das neue Critical-Part-Information-System in der Dispositionssoftware von SCT soll das verhindern.‣ weiterlesen

Der europäische Cloudanbieter OVHcloud baut sein Portfolio in den Bereichen High-Performance Object Storage und Standard Object Storage aus. Die Speichersysteme gliedert der Anbieter in fünf Produktgruppen.‣ weiterlesen

Die Open Industry 4.0 Alliance kooperiert ab sofort mit Eclass. Die Allianz will den Standard als Informationsmodell einsetzen.‣ weiterlesen