Anzeige
Anzeige
Anzeige
Beitrag drucken

Produktionsdaten vorverarbeiten

Edge Computing im eigenen IoT-Framework

Sorgen sich Unternehmen bei der Analyse ihrer steigenden Datenmengen um Performance und IT-Sicherheit, sollten sie sich das Edge Computing-Konzept anschauen. Denn diese Zwischenschicht entlastet Netzwerke und anonymisiert Daten für ihre rechtssichere Cloud-Verarbeitung.

(Bild: ©Jiw Ingka/stock.adobe.com)

(Bild: ©Jiw Ingka/stock.adobe.com)

Künstliche Intelligenz braucht meist noch große Datenmengen, aus denen sie lernen kann. Wenn das Industrial Internet of Things (IIoT) im Maschinen- und Anlagenbau heute Daten am laufenden Band produziert, werden diese deshalb oft mittels KI in der Public Cloud ausgewertet. Denn der Speicherung großer Datenmengen dort sind allenfalls finanzielle Grenzen gesetzt, zudem gibt es Out-of-the-Box-Lösungen für KI in der Cloud. Zwei Gründe lassen viele Unternehmen gleichwohl zögern. Sie sind zum einen rechtlicher Natur: Es gibt eine Reihe von Geschäftsprozessen, bei denen sich eine Datenauslagerung in die Cloud aus Governance-Gründen verbietet. IIoT-Daten beherbergen Intellectual Property, das heißt Wissen über Produkte und Produktionsverfahren, welches Geheimhaltungspflichten unterliegt. Das zweite Problem ist technischer Natur und hängt zusammen mit den immer höheren Datenvolumina. Generiert eine Anlage Tausende von Datenpunkten im Millisekunden-Bereich, wird eine Echtzeitverarbeitung in der Cloud aus Latenzgründen immer schwieriger.

Rechtssicher anonymisieren

Edge Computing bietet sich hier als Lösung an. Ein Edge-Device kann Daten für den Versand in die Cloud vorbereiten. Diese On-premises-Lösung auf dem Edge, also nahe an den Datenerzeugern installiert, bietet meist Funktionen für Analytik, Vorverarbeitung und dezentrale Rechenleistung, die sich mit der Cloud zusammenschalten lässt. Findet Edge Computing in Cloudnähe statt, spricht man von Near Edge, bei Maschinennähe von Far Edge. In diesem Edge-Cloud-Kontinuum lassen sich skalierbare Architekturen einrichten. IoT-Daten werden am Edge so aggregiert und anonymisiert, dass sie in der Cloud verwendet werden können – das ist der rechtliche Aspekt. Voraussetzung dafür sind Konnektoren zwischen Edge und Cloud zur Datenübertragung sowie Datenmodelle, die auf beiden Seiten Datenintegration unterstützen. Was die technischen Vorteile angeht, lassen sich durch neue und skalierbare Technologien auch hohe Datenvolumina am Edge ohne Latenzprobleme bearbeiten. Echtzeitanalysen werden möglich. Eine Warnung, dass die Maschine aufgrund Überschreitens kritischer Grenzen in wenigen Minuten ausfallen könnte, wird schnellstmöglich visualisiert, ebenso wie der sofortige Produktionsstopp etwa im Rahmen einer datenbasierten Qualitätskontrolle, die jedes einzelne Werkstück unmittelbar nach seiner Herstellung zur Prüfung vorsieht.

 (Bild: X-INTEGRATE Software & Consulting GmbH)

(Bild: X-INTEGRATE Software & Consulting GmbH)

Künstliche Intelligenz optional

Für das Aufbereiten der Daten (Aggregation, Anonymisierung und Analyse) wird keine künstliche Intelligenz benötigt. X-Integrate etwa verfolgt den Lösungsansatz Data in Motion. Damit können Maschinen-Sensordaten in nahezu Echtzeit erfasst, vorverarbeitet und analysiert werden. Auf der anderen Seite werden beim ‚Data at Rest‘-Ansatz zusätzlich Rohdaten oder bereits vorverarbeitete Daten zur Prozessdokumentation, für nachgelagerte oder komplexe Analysen in Verbindung mit an anderer Stelle erhobenen Daten gespeichert. Letztere dienen auch als Input für unüberwachtes Machine Learning zur Mustererkennung sowie für überwachtes Lernen zur Ableitung von Prognosen für unbekannte Daten. Inzwischen gibt es auch Algorithmen, die ein verstärkendes Lernen ‚on Edge‘ erlauben und durch die Interaktion mit der Umgebung zur Modelloptimierung beitragen. Hiervon profitieren insbesondere weitgehend abgeschottete Edge-Umgebungen, die auch längerfristig cloud-unabhängig funktionieren müssen. Aktuelle Edge-Lösungen sind vergleichsweise einfach skalierbar, da Producer-Bestandteile zur Datenaufnahme, Analytics-Komponenten sowie Consumer-Komponenten (zum Ausleiten der Daten) containerisiert verfügbar sind. Das erleichtert die anwendungsspezifische Zusammenstellung der Systemkomponenten. So lässt sich auf Basis von Open-Source-Applikationen eine Alternative zu den IoT-Frameworks kommerzieller Anbieter schaffen, die einen schnellen und kostengünstigen Einstieg in die IoT-Welt und somit in digitale Geschäftsmodelle verspricht.

Kurzfristig interessante Daten

Beim Data-in-Motion-Ansatz werden Daten nicht zunächst abgespeichert und später analysiert, wie bei Data at Rest, sondern direkt nach ihrer Generierung in nahezu Echtzeit verarbeitet. Anlagenmonitoring und Alarmsysteme sind klassische Applikationen, die auf diesem Ansatzes basieren. Dies ist insofern sinnvoll, als viele Daten nur kurzfristig für eine Verarbeitung interessant sind. Anwender können also genau wählen, was nach der Analyse gelöscht und was bis zur späteren Verwendung aufbewahrt wird. In diesem Fall steht am Ende die Speicherung in einer Datenbank oder in einem Data Lake, je nach Use Case on-premises oder in der Cloud.

Büro und Fabrik integriert

In die Cloud wird dann nur ein kleiner Teil der Produktionsdaten verschoben, um ihn dort etwa mit ERP/CRM-Systemdaten zu integrieren. Dies funktioniert beispielsweise über herstellerneutrale Open-Source-Frameworks wie den Open Integration Hub des Kölner Cloud EcoSystem e.V. Dieser umfasst Technologie, Standard-Datenmodelle, Regelwerke und eine Reihe von Konnektoren. Im Rahmen des vom BMWK geförderten Projekts OIHplus wurde das Framework um Komponenten zur industriellen Interoperabilität erweitert. KMU können dadurch ihre Anlagenprozesse und IoT-Daten vereinfacht digitalisieren und mit Daten aus dem Officefloor integrieren.


Das könnte Sie auch interessieren:

Viele ERP-Lösungen wurden einst von Spezialisten entwickelt und danach nur noch angepasst, erweitert und mit Updates versorgt. Doch steigende Digitalisierungsanforderungen, schnellere Produkteinführungen sowie der Fachkräftemangel schrauben die Anforderungen in die Höhe. Könnte Low-Code-Softwareentwicklung die Lösung sein?‣ weiterlesen

Mit einem Anstieg von 1,6 Punkte im Januar liegt das IAB-Arbeitsmarktbarometer bei 102,9 Punkten und damit über der neutralen Marke von 100. Für die Arbeitsmarktforscher deutet dies auf positive Entwicklungen auf dem Arbeitsmarkt hin.‣ weiterlesen

Mit ProKI, einem Demonstrations- und Transfernetzwerk für künstliche Intelligenz (KI) in der Produktion, soll die Anwendung von KI bei kleinen und mittleren Unternehmen (KMU) weiter vorangetrieben werden.‣ weiterlesen

Wolfgang Boos hat zum Jahreswechsel die Geschäftsführung des FIR an der RWTH Aachen übernommen. Er tritt die Nachfolge von Volker Stich an.‣ weiterlesen

Mit den Produkten der Marke Smartblick will F&M Werkzeug und Maschinenbau gerade kleineren Unternehmen ermöglichen, Fertigungsprozesse anhand von Maschinendaten zu analysieren und zu optimieren. Jetzt hat die Firma ein Modul vorgestellt, das mit künstlicher Intelligenz 'on Edge' prädiktive Qualitätsanalysen erstellt, also Predictive Quality ermöglicht.‣ weiterlesen

Die GSG Genii Software Gruppe hat die Übernahme der Camos Software und Beratung GmbH bekanntgegeben, einem Software-Spezialisten im Bereich Configure Price Quote (CPQ).‣ weiterlesen

Lichttechnische Messungen gehören bei der Produktion von Displays zum Standard. Während der Entwicklung müssen jedoch auch sehr unterschiedliche Messungen, meist detaillierter als in der Serienfertigung, durchgeführt werden. Das Zusammenspiel von Displayansteuerung, Messequipment und Auswertung der Messwerte ist dabei oft zeitaufwendig und fehlerbehaftet. Eine voll- oder teilautomatisierte Messung kann die Arbeit vereinfachen.‣ weiterlesen

Mit einem Mix aus Liefer- und Projektgeschäft wappnet sich die Firma Unterfurtner aus Österreich gegen Marktschwankungen. Dabei verursachten die unterschiedlichen Prozesse der Geschäftsbereiche früher viel Aufwand, den das alte ERP-System kaum abfederte. Der Rollout von AMS.ERP änderte das, denn die Software ist auf solche Anforderungen zugeschnitten.‣ weiterlesen

ERP-Integrationen sind herausfordernde Projekte. Oft vergrößern überbordende Funktionswünsche das Risiko des Scheiterns. Eine Alternative ist die Ausarbeitung einer langfristigen ERP-Strategie samt Roadmap.‣ weiterlesen

Julia C. Arlinghaus, Nicole Dreyer-Langlet, Katharina Hölzle, Daniel Hug, Dieter Meuser und Björn Sautter verstärken den Forschungsbeirat Industrie 4.0. Das von Acatech koordinierte Gremium berät strategisch und unabhängig, insbesondere das Bundesministerium für Bildung und Forschung (BMBF).‣ weiterlesen

Softwareanbieter Sage stellt neue Werkzeuge bereit, die eine Brücke zwischen der eigenen Systemumgebung und der Azure-Cloud von Microsoft bilden sollen.‣ weiterlesen