Anzeige
Anzeige
Beitrag drucken

Schlüsseltechnologie für das Industrial Internet of Things

Warum Edge Computing wichtig ist

Mit stärkerer Vernetzung steigt die Menge übertragener Sensordaten und damit die Anforderungen an IIoT-angebundene Geräte, Maschinen und Anlagen. Dabei gewinnt die Echtzeitverarbeitung dieser Daten an Bedeutung, obwohl das gerade bei großen Datenmengen weitere Herausforderungen stellt. Mit Edge Computing stellen Industrieunternehmen sicher, dass erfasste Daten entlang der Wertschöpfungskette keine Prozesse blockieren.

Bild: Schubert System Elektronik GmbH

Bild: Schubert System Elektronik GmbH

Als Edge (zu Deutsch Kante) bezeichnet man den Rand eines technischen Informationsnetzwerks, an dem virtuelle und reale Welt aufeinander treffen. In einer dezentralen IT-Architektur werden anfallende Daten nicht im Rechenzentrum, sondern direkt an diesem Übergang verarbeitet und bei Bedarf in die Cloud verschoben. Edge Computing ermöglicht an dieser Stelle die Datenvorverarbeitung in Echtzeit: Gesammelte Daten werden lokal nach definierten Kriterien verdichtet. Erste Analyseergebnisse können nun direkt an die Endgeräte rückgekoppelt oder weiterverarbeitet werden. Anschließend besteht die Möglichkeit, nur relevante und damit kleinere Datenpakete in die Cloud zu transferieren, die nicht für sich allein nutzbar sind. Durch die Reduzierung der Datenmenge werden stationäre Server entlastet, aber auch die laufenden Kosten für die Datenübertragung und die Cloud reduziert. Diese dezentrale Verarbeitung schont nicht nur Ressourcen, sondern reduziert auch das Risiko des Datenverlustes außerhalb der Anlage beziehungsweise bei Cyber-Attacken auf die Cloud. Mittels Edge Computing können Latenzzeiten verkürzt, Datenströme optimiert und Produktionsflüsse sowie Prozesse verbessert werden.

Schlüsseltechnologie für die Industrie 4.0

Im Industrie 4.0-Reifegradmodell der Acatech ist die Vorverarbeitung von Daten auf der 3. Stufe zu verorten: Sensoren erfassen eine Vielzahl an Datenpunkten und bilden damit Prozesse von Anfang bis Ende ab. Im nächsten Schritt werden die Daten sichtbar, die in der Vorverarbeitung nach ersten Relevanzkriterien analysiert werden. Die Erkenntnisse aus dieser Datenauswertung werden auf der 4. und 5. Stufe des Modells automatisiert in die Prozesse gespiegelt und finden dort Anwendung, um Wirkungszusammenhänge ableiten und die Prognosefähigkeit verstärken zu können (beispielsweise für Predictive Maintenance). Mobile Arbeitsmaschinen (Automated Guided Vehicles, Automated Guided Cars) beispielsweise nutzen das Edge Computing zur lokalen Datenanalyse und schicken nur Änderungsdaten in Echtzeit in die Cloud. Von dort erhalten sie weitere Aufgaben oder das Update für ihre Navigationsdaten.

Gateways zur Datenverwaltung nah an der Maschine

Bei der Integration eines IIoT müssen OT (Operational Technology) und IT (Informational Technology) zunehmend stärker miteinander verbunden werden. Hier kommt das Edge Gateway zum Einsatz. Die Ebenen Steuerung und Datenverarbeitung sowie die Schnittstelle zur Cloudebene können auf einem Gerät vereint werden. Diese Edge Gateways bündeln fünf wichtige Funktionalitäten: Daten, die aus der Maschine extrahiert werden, die Steuerung/HMI und die Datenvorverarbeitung beschreiben das eigentliche Edge Computing. Das Gateway übernimmt zusätzlich die Cloud-Anbindung und den Remote-Zugriff bis auf die Sensorebene. Die Komprimierung auf ein Gerät bedeutet Kostenersparnis, weniger Maintenance- und Ressourcen-Aufwand und mehr Platz im Schaltschrank. Die Anwender haben statt mehrerer nur einen Ansprechpartner für Steuerung, Cyber Security sowie die Datenverarbeitung. Letztere ist durch die Edge-Computing-Lösung unabhängig von der eigentlichen Prozessaufgabe der Maschine. Damit läuft die Maschine weiter, wenn die Cloud beziehungsweise Internetanbindung einmal ausfallen sollte. Die benötigten Daten werden in diesem Fall lokal zwischengespeichert und gesichert, bis sie wieder in die Cloud transferiert werden können. Durch die Vorverarbeitung bleiben Rohdaten außerdem bei der ursprünglichen Quelle. Unternehmenskritische oder sensible Daten sind leichter zu schützen, das Risiko des Datenmissbrauchs wird reduziert. Die prozessnahe Datenanalyse vereinfacht außerdem die vorausschauende Wartung und Qualitätssicherung. Dies verspricht neben der Erfüllung der Echtzeitanforderungen einen unmittelbaren, positiven Effekt auf die Produktivität.


Das könnte Sie auch interessieren:

PerfectPattern hat die kostenlose Basisversion von Insights App vorgestellt. Mit der Software können Prozessingenieure, Produktionsexperten und Datenwissenschaftler die von PerfectPattern entwickelte KI-Technologie Aivis nutzen, um Einblicke in Produktionsprozesse zu erhalten.‣ weiterlesen

Die Buss-Unternehmensgruppe ist in vielen unterschiedlichen Geschäftsfeldern tätig. Eine Herausforderung, stand doch ein Wechsel des ERP-Systems ins Haus - mit mehr als 80 Unternehmen innerhalb der Gruppe. Gemeinsam mit dem IT-Dienstleister Sven Mahn IT gelang es, das Projekt innerhalb von 14 Wochen umzusetzen.‣ weiterlesen

Werden neue Technologien wie beispielsweise künstliche Intelligenz Teil des Arbeistalltages wünscht sich ein Großteil der unter 31-Jährigen, darüber informiert zu werden. Dies geht aus einer Studie des IT-Security-Anbieters Kaspersky hervor. Auch ein menschliches Antlitz könnte laut Studie für mehr Akzeptanz sorgen.‣ weiterlesen

Schlechtere Stimmung als noch im Juni. Geschäftsklima-Index des Ifo Instituts hat in der aktuellen Erhebung im Vergleich zum Vormonat nachgegeben.‣ weiterlesen

Die Sprints zu Covid19-Impfstoffen zeigen den Leistungsdruck, unter dem die Technologieentwicklung steht. In kürzester Zeit sollen Forscher und Ingenieure Lösungen für die kritischen Probleme unserer Zeit finden. Der Accelerated-Discovery-Ansatz soll helfen, Forschungs- und Entwicklungsprozesse mit KI, Hybrid Cloud und schließlich Quantencomputern um das zehn- bis hundertfache des heute Möglichen zu beschleunigen.‣ weiterlesen

Trebing + Himstedt hat die Partnerschaft mit Celonis bekanntgegeben. Die Unternehmen wollen zukünftig beim Thema Process Mining zusammenarbeiten.‣ weiterlesen

Im Rahmen einer Partnerschaft wollen Crate.io und Zühlke zukünftig gemeinsam an Smart Factory- und Industrie 4.0-Lösungen arbeiten.‣ weiterlesen

Die Dualis GmbH IT Solution hat für Lean-Manufacturing-Aufgabenstellungen ein Add-on zur 3D-Simulationsplattform Visual Components entwickelt. Basierend auf Process Modelling können damit automatisch branchengängige Standardized Work Sheets generiert werden.‣ weiterlesen

Um verschiedene Daten aufzubereiten und den Mitarbeitern nutzenbringend bereitzustellen, ist nicht immer ein großes IT-Projekt nötig. Wer schnell Daten für die Beschäftigten visualisieren möchte, sollte sich einmal näher mit Dashboards befassen.‣ weiterlesen

Die Simulation am digitalen Zwilling macht die Inbetriebnahme von Anlagen und Maschinen mit automatisierten Bewegungen sicherer. Fehler fallen früher auf und können behoben werden, bevor die Anlage aufgebaut ist. So lassen sich Schäden und Verzögerungen vermeiden. Auch als Schulungstool für Bediener und Programmierer ist die digitale Maschine hilfreich.‣ weiterlesen

ISPE, APV, Concept Heidelberg und die VDI/VDE Gesellschaft Mess- und Automatisierungstechnik richten am 30. November bis zum 1. Dezember 2021 im Dorint Kongresshotel in Mannheim die 14. Offizielle GAMP 5 Konferenz aus.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige