Anzeige
Anzeige
Beitrag drucken

Deterministisches Verhalten in Multicore-Edge-Systemen

Die einsatzkritische Netzwerkperipherie

In der vertikalen Industrieautomatisierung herrscht weitgehend Einigkeit darüber, dass sich der Einsatz moderner Rechenressourcen mit Cloud-nativen Modellen des Software-Lifecycle-Managements immer mehr durchsetzen wird. Mit dem Prinzip Mission-Critical-Edge lassen sich dabei besonders die Herausforderungen an der Schnittstelle zwischen Embedded-Technologie und Informationstechnologie angehen.

Abbildung 1 (Bild: Lynx Software Technologies, Inc.)

Abbildung 1 (Bild: Lynx Software Technologies, Inc.)

In den Anwendungen für die Fabrikvernetzung existiert Edge Computing vor allem, um Eigenschaften und Anforderungen zu erfüllen, die Cloud-native Paradigmen nicht abdecken können. Dazu zählen insbesondere diejenigen, die in den unteren OT-fokussierten Ebenen der industriellen Pyramide benötigt werden:

Heterogene Hardware – Typische industrielle Automatisierungsumgebungen haben unterschiedliche Architekturen, x86, Arm, sowie eine Vielzahl von Rechen-Konfigurationen.
Sicherheit – Die Sicherheitsanforderungen und deren Abmilderungen sind von Gerät zu Gerät unterschiedlich und müssen sorgfältig gehandhabt werden.
Innovation – Während einige industrielle Anwendungen mit dem alten Paradigma weitermachen können, das seit über einem Jahrzehnt gleich geblieben ist, erfordert der Großteil der industriellen Welt nun zusätzlich moderne Datenanalyse und Überwachung der Anwendungen in ihren Anlagen.
Datenschutz – Wie in anderen Bereichen der IT wird die Verwaltung von Datenberechtigungen in vernetzten Maschinen immer komplexer und muss bereits bei der Entstehung der Daten geregelt werden.
Echtzeit und Determinismus – Der von Steuerungen bereitgestellte Echtzeit-Determinismus bleibt für die Sicherheit des Betriebs entscheidend.

Kritische Anwendungen

Im nachfolgend beschriebenen Mission Critical Edge-Konzept wurden Anforderungen gestellt, die typisch für Embedded Computing sind (Sicherheit, Echtzeit und ­sicheres, deterministisches Verhalten) und in ein Szenario für vernetztes, virtualisiertes, containerisiertes Softwarelifecycle-Management versetzt. Es geht die Herausforderungen der IT/OT-Schnittstelle an, indem es wesentliche, aber fragmentierte Legacy-Systeme durch technologische Möglichkeiten wie Datenanalyse und künstliche Intelligenz (KI) ergänzt. Die in Abbildung 1 dargestellte Architektur würde Folgendes bieten:

Verteilte und zusammengeschaltete, gemischtkritische, virtualisierte Multicore-Rechenknoten (System of Systems).
Netzwerkunterstützung für IT-Kommunikation und deterministische Legacy-Feldbusse, die sich in Richtung eines verbesserten Determinismus durch IEEE Time Sensitive Networking (TSN) bewegen, sowie öffent­liche und private 4G/5G.
Unterstützung für die Datenverteilung innerhalb und zwischen den Knoten, basierend auf Standard-Middleware (OPC UA, MQTT, DDS und mehr) wird auch Determinismus anstreben (OPC UA über TSN).
Als virtuelle Maschinen und Container verpackte ­Anwendungen.

Abbildung 2: Testfeld mit vier Gästen (Bild: Lynx Software Technologies, Inc.)

Abbildung 2: Testfeld mit vier Gästen (Bild: Lynx Software Technologies, Inc.)

Im industriellen Testfeld

Mit diesem Zielbild haben die Firmen Codesys, Exor, Lynx, und Next Stel ein industrielles Testbed errichtet. Wie in Abbildung 2 dargestellt, wurde LynxSecure mit vier Gästen konfiguriert. Damit diese Konfiguration funktioniert, muss sich die Systemperformance auf dem anspruchsvollen Niveau der Betriebstechnik bewegen. Das hängt vor allem von der Leistungsfähigkeit der virtualisierten Anwendungen ab.

Erste Testergebnisse

Da eine typische industrielle Steuerung auf einer zyklischen Regelung basiert, muss ein Steuerungssystem sicherstellen, alle Berechnungen an den Endpunkten des Regelkreises und alle in jedem Regelzyklus erforderlichen Kommunikationen zwischen diesen Punkten vor Beginn des nächsten Zyklus abgeschlossen sind. Dafür wurden im Testbed drei Messreihen durchgeführt – mit Codesys, das auf Bare-Metal-Hardware läuft, mit Codesys, das auf LynxSecure läuft, und schließlich mit Codesys, das auf LynxSecure mit störenden Workloads läuft. In allen drei Fällen wurde die Codesys-Kontaktplananwendung mit einer Zykluszeit von 250 µs (Mikrosekunden) betrieben. Es gab nur eine sehr geringe Verschlechterung der Echtzeit-Performance, wenn die Codesys-Anwendung von der Bare-Metal- auf die LynxSecure-Umgebung migriert wird, und keine nennenswerte Verschlechterung der Echtzeit-Performance der Codesys-Anwendung, die auf LynxSecure läuft, mit oder ohne störenden Workloads.

Abbildung 3: Schema einer Lösung am kritischen Rand eines Netzes (Bild: Lynx Software Technologies, Inc.)

Abbildung 3: Schema einer Lösung am kritischen Rand eines Netzes (Bild: Lynx Software Technologies, Inc.)

Die Echtzeit-Leistungsanalyse

Angesichts dieser Ergebnisse testete Next-Stel Solutions die Leistung noch gründlicher, um zu bewerten, wie die gewählte Architektur den Echtzeit-Netzwerkverkehr bewältigen würde. In einer umfangreichen Analyse unter Berücksichtigung von Jitter, Scheduling-Latenz und Netzwerk-Stack-Latenz ergab die Studie, dass der LynxSecure-Hypervisor kritische Echtzeit-Aktivitäten effektiv von anderen Aktivitäten isoliert, die auf demselben System gehostet werden, und fügte gleichzeitig bis zu 50 Mikrosekunden zu dem Jitter hinzu, der im Vergleichsaufbau, aber ohne Virtualisierung, beobachtet wurde. Es wurde gefolgert, dass die minimale Zykluszeit, die mit dieser Lösung gehandhabt werden kann, 250 Mikrosekunden sowohl für EtherCAT als auch für Profinet beträgt. Noch schnellere Zykluszeiten sind wahrscheinlich möglich, wenn Para-Virtualisierung oder ein anderes RTOS als Debian RT eingesetzt wird.

Der Praxistransfer

Diese Ergebnisse legen nahe, dass Edge-Computung-Systeme durchaus in der Lage sind, die klassischen Aufgaben an der IT/OT-Schnittstelle zu bewältigen und gleichzeitig die von OT-Anwendungen geforderte deterministische Echtzeitleistung bereitzuhalten. Die Sicherheitsprobleme, die durch die Verschmelzung beider Systemwelten entstehen, lassen sich wie gehabt durch Domänentrennung und Least-Privilege-Prinzipien lösen. Abbildung 3 schematisiert eine Infrastruktur am missionskritischen Rand, eingebettet in die Betriebstechik einer Fabrik. Es gibt eine verteilte Menge von Knoten, einige ganz in der Nähe der Anlage, einige weit entfernt. Im Endeffekt ist dies wie ein verteiltes Rechenzentrum, enthält jedoch einen weitaus heterogeneren, miteinander verbundenen, virtualisierten Satz von Rechenressourcen, die die Anwendungen dort hosten können, wo und wann sie benötigt werden. Diese werden in Form von virtuellen Maschinen und Containern bereitgestellt, die aus der Cloud oder lokal orchestriert werden. Deterministisches Verhalten in den Systemen ermöglicht es dabei, Anwendungen auf einzelne Multicore-Prozessoren zu konsolidieren, ohne das Verhalten zeitkritischer Funktionen zu beeinträchtigen.

 


Das könnte Sie auch interessieren:

Wer Produktion und Logistik in einer Echtzeit-Visualisierung abbildet, kann niedrigschwellig in die digitale Transformation einsteigen und viel Papier aus dem Shopfloor bannen. Ergänzt um zentrale MES-Funktionen lassen sich solche Visualisierungssysteme zur Operational Excellence-Plattform ausprägen, die bei fortlaufenden Prozessoptimierungen unterstützt.‣ weiterlesen

Industrielle Trends wie IIoT und Digitalisierung setzen immense Datenströme voraus. Doch im Gegensatz zur IT-Security für Büros müssen Fabrikbetreiber auf wesentlich mehr Stolpersteine achten, damit ihre Anlagen nicht schon einfachen Angriffen zum Opfer fallen.‣ weiterlesen

Ab und zu fehlte ein Schlüssel im Kloster der Franziskanerinnen der ewigen Anbetung von Schwäbisch Gmünd. Beim letzten Mal gab das den Impuls, anstatt neue mechanische Zylinder in die rund 220 Türen des Komplexes einzubauen, die alte Technik durch das Bluesmart-System von Winkhaus zu ersetzen.‣ weiterlesen

Mit 100,5 Punkten hält sich das IAB-Arbeitsmarktbarometer im November stabil und liegt weiter im leicht über der neutralen Marke. Auf europäischer Ebene sank der Frühindikator allerdings erneut.‣ weiterlesen

In einer neuen Expertise des Forschungsbeirats Industrie 4.0 untersuchen das FIR an der RWTH Aachen und das Industrie 4.0 Maturity Center den Status-quo und die aktuellen Herausforderungen der deutschen Industrie bei der Nutzung und wirtschaftlichen Verwertung von industriellen Daten und geben Handlungsempfehlungen für Unternehmen, Verbände, Politik und Wissenschaft.‣ weiterlesen

Im Forschungsprojekt FabOS soll eine KI-Bin-Picking-Anwendung entstehen, die ein verbessertes Erkennen, Greifen und definiertes Ablegen von Blechteilen in der Produktion ermöglicht.‣ weiterlesen

Die Digitalisierung des Qualitätsmanagements stellt Unternehmen vor Herausforderungen. Daher haben das Fraunhofer IPT und die FH Südwestfalen im Forschungsvorhaben 'Qbility - Quality 4.0 Capability Determination Model' ein datengetriebenes Reifegradmodell entwickelt, das die Anforderungen eines digitalisierten Qualitätsmanagements bei KMU adressiert.‣ weiterlesen