Produktionsdaten vorverarbeiten

Edge Computing im eigenen IoT-Framework

Sorgen sich Unternehmen bei der Analyse ihrer steigenden Datenmengen um Performance und IT-Sicherheit, sollten sie sich das Edge Computing-Konzept anschauen. Denn diese Zwischenschicht entlastet Netzwerke und anonymisiert Daten für ihre rechtssichere Cloud-Verarbeitung.

(Bild: ©Jiw Ingka/stock.adobe.com)
(Bild: ©Jiw Ingka/stock.adobe.com)

Künstliche Intelligenz braucht meist noch große Datenmengen, aus denen sie lernen kann. Wenn das Industrial Internet of Things (IIoT) im Maschinen- und Anlagenbau heute Daten am laufenden Band produziert, werden diese deshalb oft mittels KI in der Public Cloud ausgewertet. Denn der Speicherung großer Datenmengen dort sind allenfalls finanzielle Grenzen gesetzt, zudem gibt es Out-of-the-Box-Lösungen für KI in der Cloud. Zwei Gründe lassen viele Unternehmen gleichwohl zögern. Sie sind zum einen rechtlicher Natur: Es gibt eine Reihe von Geschäftsprozessen, bei denen sich eine Datenauslagerung in die Cloud aus Governance-Gründen verbietet. IIoT-Daten beherbergen Intellectual Property, das heißt Wissen über Produkte und Produktionsverfahren, welches Geheimhaltungspflichten unterliegt. Das zweite Problem ist technischer Natur und hängt zusammen mit den immer höheren Datenvolumina. Generiert eine Anlage Tausende von Datenpunkten im Millisekunden-Bereich, wird eine Echtzeitverarbeitung in der Cloud aus Latenzgründen immer schwieriger.

Rechtssicher anonymisieren

Edge Computing bietet sich hier als Lösung an. Ein Edge-Device kann Daten für den Versand in die Cloud vorbereiten. Diese On-premises-Lösung auf dem Edge, also nahe an den Datenerzeugern installiert, bietet meist Funktionen für Analytik, Vorverarbeitung und dezentrale Rechenleistung, die sich mit der Cloud zusammenschalten lässt. Findet Edge Computing in Cloudnähe statt, spricht man von Near Edge, bei Maschinennähe von Far Edge. In diesem Edge-Cloud-Kontinuum lassen sich skalierbare Architekturen einrichten. IoT-Daten werden am Edge so aggregiert und anonymisiert, dass sie in der Cloud verwendet werden können – das ist der rechtliche Aspekt. Voraussetzung dafür sind Konnektoren zwischen Edge und Cloud zur Datenübertragung sowie Datenmodelle, die auf beiden Seiten Datenintegration unterstützen. Was die technischen Vorteile angeht, lassen sich durch neue und skalierbare Technologien auch hohe Datenvolumina am Edge ohne Latenzprobleme bearbeiten. Echtzeitanalysen werden möglich. Eine Warnung, dass die Maschine aufgrund Überschreitens kritischer Grenzen in wenigen Minuten ausfallen könnte, wird schnellstmöglich visualisiert, ebenso wie der sofortige Produktionsstopp etwa im Rahmen einer datenbasierten Qualitätskontrolle, die jedes einzelne Werkstück unmittelbar nach seiner Herstellung zur Prüfung vorsieht.

 (Bild: X-INTEGRATE Software & Consulting GmbH)
(Bild: X-INTEGRATE Software & Consulting GmbH)

Künstliche Intelligenz optional

Für das Aufbereiten der Daten (Aggregation, Anonymisierung und Analyse) wird keine künstliche Intelligenz benötigt. X-Integrate etwa verfolgt den Lösungsansatz Data in Motion. Damit können Maschinen-Sensordaten in nahezu Echtzeit erfasst, vorverarbeitet und analysiert werden. Auf der anderen Seite werden beim ‚Data at Rest‘-Ansatz zusätzlich Rohdaten oder bereits vorverarbeitete Daten zur Prozessdokumentation, für nachgelagerte oder komplexe Analysen in Verbindung mit an anderer Stelle erhobenen Daten gespeichert. Letztere dienen auch als Input für unüberwachtes Machine Learning zur Mustererkennung sowie für überwachtes Lernen zur Ableitung von Prognosen für unbekannte Daten. Inzwischen gibt es auch Algorithmen, die ein verstärkendes Lernen ‚on Edge‘ erlauben und durch die Interaktion mit der Umgebung zur Modelloptimierung beitragen. Hiervon profitieren insbesondere weitgehend abgeschottete Edge-Umgebungen, die auch längerfristig cloud-unabhängig funktionieren müssen. Aktuelle Edge-Lösungen sind vergleichsweise einfach skalierbar, da Producer-Bestandteile zur Datenaufnahme, Analytics-Komponenten sowie Consumer-Komponenten (zum Ausleiten der Daten) containerisiert verfügbar sind. Das erleichtert die anwendungsspezifische Zusammenstellung der Systemkomponenten. So lässt sich auf Basis von Open-Source-Applikationen eine Alternative zu den IoT-Frameworks kommerzieller Anbieter schaffen, die einen schnellen und kostengünstigen Einstieg in die IoT-Welt und somit in digitale Geschäftsmodelle verspricht.

Kurzfristig interessante Daten

Beim Data-in-Motion-Ansatz werden Daten nicht zunächst abgespeichert und später analysiert, wie bei Data at Rest, sondern direkt nach ihrer Generierung in nahezu Echtzeit verarbeitet. Anlagenmonitoring und Alarmsysteme sind klassische Applikationen, die auf diesem Ansatzes basieren. Dies ist insofern sinnvoll, als viele Daten nur kurzfristig für eine Verarbeitung interessant sind. Anwender können also genau wählen, was nach der Analyse gelöscht und was bis zur späteren Verwendung aufbewahrt wird. In diesem Fall steht am Ende die Speicherung in einer Datenbank oder in einem Data Lake, je nach Use Case on-premises oder in der Cloud.

Büro und Fabrik integriert

In die Cloud wird dann nur ein kleiner Teil der Produktionsdaten verschoben, um ihn dort etwa mit ERP/CRM-Systemdaten zu integrieren. Dies funktioniert beispielsweise über herstellerneutrale Open-Source-Frameworks wie den Open Integration Hub des Kölner Cloud EcoSystem e.V. Dieser umfasst Technologie, Standard-Datenmodelle, Regelwerke und eine Reihe von Konnektoren. Im Rahmen des vom BMWK geförderten Projekts OIHplus wurde das Framework um Komponenten zur industriellen Interoperabilität erweitert. KMU können dadurch ihre Anlagenprozesse und IoT-Daten vereinfacht digitalisieren und mit Daten aus dem Officefloor integrieren.