Beitrag drucken

IIoT-Dienste überwachen und absichern

Rechnen ‚on the Edge‘

IT-Infrastruktur, Plattformdienste und Software flexibel und bedarfsgerecht beziehen – auf diese Vorteile setzt bereits jedes fünfte Unternehmen aus dem produzierenden Gewerbe. Die Rede ist von cloudbasierten Anwendungen und Diensten. Müssen Daten jedoch quasi in Echtzeit und mit einer geringen Bandbreite übertragen werden, wird der Cloud per Edge Computing eine dezentrale Infrastruktur vorgeschaltet. Um den Betrieb dieser sensiblen IT-Ebene im Werk abzusichern, gibt es spezialisierte Service-Assurance-Lösungen.

Die geringeren Latenzzeiten sind einer der größten Vorteile des Edge Computings gegenüber dem Cloud Computing. (Bild: ©John Carlisle / unsplash.com)

Die geringeren Latenzzeiten sind einer der größten Vorteile des Edge Computings gegenüber dem Cloud Computing.
Bild: ©John Carlisle / unsplash.com

Für Anwendungen, die verschiedene Daten aus unterschiedlichen Quellen benötigten und vergleichsweise wenig Bandbreite brauchen, können Cloudlösungen sinnvoll sein. Müssen Datenmengen jedoch schnell oder gar in Echtzeit, mit geringer Latenzzeit und bei wenig Bandbreite, verarbeitet werden, ist Cloud-Computing nicht die optimale Lösung. Dies gilt besonders dann, wenn Informationen aus dem industriellen internet of Things (IIoT) – sei es im Rahmen von Machine-to-Machine-Kommunikation (M2M) oder bei Prozessen in der Smart Factory – übertragen und analysiert werden müssen. Geht es etwa um Maschinen, die schnell und selbstständig Entscheidungen treffen müssen, erweist sich die Verarbeitung ihrer Daten in der Cloud oft als Flaschenhals oder Nadelöhr. Beispielsweise darf es bei autonomen Fahrzeugen nur zu äußerst geringen Latenzzeiten kommen, damit das Auto jederzeit auf unvorhergesehene Ereignisse reagieren kann. Die Zeit, um die Fahrzeugdaten zur Verarbeitung in die Cloud und wieder zurück zu übertragen, ist oft schlicht nicht vorhanden.

Edge- oder Cloudlösung?

Wenn Daten also nahezu in Echtzeit oder bei geringer Bandbreite übertragen werden müssen, ist Edge Computing das Mittel der Wahl. Im Gegensatz zur Cloud zeichnet sich Edge Computing dadurch aus, dass Informationen für ihre Verarbeitung nicht erst von der intelligenten Maschine oder dem Netzwerk in die Wolke und wieder zurück transferiert werden müssen. Die Daten werden dezentral und damit direkt am Entstehungsort, also am Rande des Netzwerks (Edge), verarbeitet. Auf diese Weise verringern sich Übertragungsstrecke und damit Übertragungszeit. Auch mögliche Fehlerquellen, die während der Übertragung zur Cloud auftauchen können, können durch Edge Computing reduziert werden.

Nicht nur Vorteile

Doch auch Edge Computing hat gewisse Nachteile. So benötigt das Konzept zahlreiche Technologien wie Sensornetze, mobile Datenerfassung, mobile Signaturanalyse, Peer-to-Peer- und Ad-hoc-Vernetzung. Dies macht es für Unternehmen schwierig, die komplette Anwendungs- und Servicekette im IIoT zu überwachen. Doch dies ist wichtig, damit Unternehmen jederzeit Einblick haben, ob Daten von Maschinen und Sensoren im IIoT von Produktions- und Steuerungssystemen korrekt verarbeitet und fristgerecht für weitere Anwendungen und Maschinen bereitgestellt werden. Außerdem benötigen Maschinen und Endgeräte beim Edge Computing einen höheren Schutz vor möglichen Ausfällen und Missbrauch. Denn sie verarbeiten Daten eben direkt und erfordern oft eine hohe Verfügbarkeit für weitere systemabhängige Komponenten. Darüber hinaus erschweren hybride Strukturen, also die gleichzeitige Nutzung von Cloud und Edge Computing, die Überwachung der Datenverarbeitung. Experten gehen allerdings davon aus, dass beide Formen in Unternehmen auch mittelfristig koexistieren werden. Dem Edge Computing wird dann die Aufgabe zukommen, Daten zu bündeln und zumindest ausgewählte Datenteile zur Weiterverarbeitung an die Cloud weiterzuleiten. Laut Analystenhaus IDC könnten die IT-Ausgaben für Edge-Infrastrukturen bis 2020 fast 18 Prozent der Gesamtausgaben für IoT-Infrastrukturen ausmachen.

Belastung für die IT-Struktur

Doch mit jeder Veränderung – egal ob Update, eine neue Verbindung oder eine zu integrierende Drittanwendung – erhöht sich die Komplexität eines hybriden Systems. Zugleich bedeutet die hohe Abhängigkeit einzelner Prozesse im IIoT voneinander, dass ein Ausfall einer Komponente weitaus gravierendere Auswirkungen zur Folge hat. Dadurch steigt der Druck, jederzeit die ungestörte Übertragung und Verarbeitung von Daten zu gewährleisten. Die Bedeutung von Service Assurance, also der Absicherung von IIoT-Diensten durch genaue Überwachung der Servicebereitstellungsinfrastruktur, kann so zu einem erfolgskritischen Faktor werden. Doch gängige Tools zur Netzwerküberwachung reichen oft nicht mehr aus: Monitoring-Tools für einzelne Infrastruktur-Komponenten bieten meist zu wenig Informationen über das gesamte Edge- und Cloud-Computing-System und die Abhängigkeiten zwischen den einzelnen Elementen sowie zwischen internen und externen Ressourcen. Genau dort setzt Service Assurance an. Das Konzept soll einen ganzheitlichen Blick auf die gesamte Servicebereitstellungsinfrastruktur ermöglichen – vom Rand des Netzwerks über das Kernnetz bis in die Cloud. Über Monitoring-Daten und Analysen von Traffic-Daten aus dem hybriden Netzwerk können Unternehmen zudem in Echtzeit sehen, ob Dienste und Maschinen einwandfrei funktionieren und die Datenübertragung gewährleistet ist. Unternehmen sind somit in der Lage, ein besseres Verständnis dafür zu entwickeln, wie IIoT-Geräte und Verbindungen mit dem Netzwerk interagieren. Mögliche Anomalien wie Stör- und Fehlerquellen, die den Geschäftsbetrieb beeinträchtigen, können schneller identifiziert und isoliert werden.

Latenzzeit erfolgskritisch

Die deutlich verkürzte Latenzzeit ist der größte Vorteil des Edge Computings gegenüber Cloud Computing. Doch um diese Potenziale voll nutzen zu können, müssen IT- und Netzwerk-Experten einen transparenten Einblick in die Datenverarbeitung am Rande des Netzwerkes sicherstellen. Durch den Einsatz einer Service-Assurance-Lösung können Unternehmen ihre hybriden Systeme aus Cloud- und Edge-Komponenten vollständig überwachen und potenzielle Störquellen identifizieren.


Das könnte Sie auch interessieren:

Christian Thönes, Vorstandsvorsitzender bei DMG Mori, hat am Donnerstag sein Amt niedergelegt. Sein Vertrag wurde im Rahmen einer Aufsichtsratssitzung einvernehmlich beendet. Alfred Geißler wurde vom Aufsichtsrat zum Nachfolger bestellt.‣ weiterlesen

Microsoft feiert 40. Geburtstag in Deutschland und eröffnet ein europäisches Experience Center in München. Es ist eines von vier Experience Centern weltweit.‣ weiterlesen

Expertinnen und Experten der Plattform Lernende Systeme beleuchten in einem neuen Whitepaper, wie es um die Entwicklung europäischer bzw. deutscher KI-Sprachmodelle bestellt ist.‣ weiterlesen

Cyber-physikalische Systeme (CPS), wie etwa Autos oder Produktionsanlagen, stecken voller elektronischer und mechanischer Komponenten, die von Software gesteuert werden. Jedoch ist es eine Herausforderung, die Systemarchitekturen solcher Systeme fortwährend konsistent zu halten. Neue Methoden dafür soll ein Sonderforschungsbereich (SFB) am Karlsruher Institut für Technologie (KIT) entwickeln.‣ weiterlesen

Mit der Akquisition der Pod Group hat G+D bereits 2021 sein Portfolio im IoT-Bereich erweitert. Durch den Erwerb von Mecomo geht das Unternehmen nun einen weiteren Schritt in Richtung IoT-Komplettanbieter im Transport- und Logistikbereich.‣ weiterlesen

Die Grimme-Gruppe produziert individuell konfigurierte Landmaschinen. Was für den Wettbewerb Vorteile bringt, ist allerdings mit großem Aufwand verbunden - so verwaltete Grimme Kundenanfragen lange über ein Excel-Tool. Mit dem Softwareanbieter Slashwhy zusammen wurde dies durch ein webbasiertes Anfragemanagement-Programm abgelöst.‣ weiterlesen

Die Software Moryx hilft der Fertigungssteuerung, Maschinen schnell auf einen neuen Kurs zu bringen oder sie für den nächsten Auftrag anzupassen. Mit seinen einheitlichen Bedienoberflächen und seiner niedrigen Einstiegshürde ist das Tool von Phoenix Contact insbesondere auf den Einsatz in Fertigungen mit der Losgröße 1 ausgerichtet.‣ weiterlesen

Eine Umfrage von Gartner unter CEOs und leitenden Angestellten hat ergeben, dass künstliche Intelligenz (KI) die Top-Technologie ist, von der die Befragten glauben, dass sie ihre Branche in den nächsten drei Jahren erheblich beeinflussen wird. 21 Prozent der Studienteilnehmer geben dies an.‣ weiterlesen