Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Leistungsfähiges Edge Computing

Hohe Latenz kann richtig teuer werden

Edge Computing ist für die industrielle IT grundsätzlich nichts Neues. Seit Jahrzehnten werden Geräte und Monitore in der Produktion weit entfernt von zentralen Rechenzentren betrieben. Das aktuelle Revival des Begriffes ist auch technologischen Innovationen geschuldet, die Latenzen auf wenige Millisekunden senken.

(Bild: ©putilov_denis/stock.adobe.com)

(Bild: ©putilov_denis/stock.adobe.com)


Was tatsächlich neu ist an der gegenwärtigen Definition von Edge, das ist der Umfang und die Bedeutung. Geräte werden jetzt neben vernetzten Knotenpunkten mit IP-Heartbeats betrieben, die riesige Datenmengen generieren, verarbeiten, sammeln oder analysieren, um tiefere Einblicke zu gewinnen. So definiert Gartner z.B. Edge Computing als eine verteilte Computertopologie, bei der die Informationsverarbeitung in der Nähe des Ortes angesiedelt ist, an dem Dinge und Menschen diese Informationen produzieren oder beziehen.

Sensoren und das IoT

Dabei spielen Sensoren und andere Geräte eine fundamentale Rolle, gleichzeitig nimmt das Internet der Dinge (IoT) deutlich an Fahrt auf. Es wird erwartet, dass die Zahl der IoT-Geräte bis 2022 weltweit auf über 50 Milliarden anstei n den Bereichen Konstruktion, Herstellung und Fertigung sowie Logistik im Einsatz sind und Rückmeldungen über Prozesse geben, die Leistung sowie die Einhaltung der Vorgaben überwachen und Systemausfälle antizipieren, werden ein integraler Bestandteil hinsichtlich der Unternehmenseffizienz, der Lieferzuverlässigkeit, der Sicherheit und der Instandhaltung sein.

IoT-Projekte scheitern (oft)

Laut Untersuchungen der Firma Cisco gelten 76 Prozent der IoT-Projekte als gescheitert, weil sich die Mehrheit der Initiativen komplexer als erwartet darstellten. Zwar rechnete Gartner damit, dass IoT in Verbindung mit Edge Computing bis 2020 rund 60 Prozent der industriellen Analytik ausmacht – wobei es sich dabei meist um klar definierte Initiativen handelt. Gleichzeitig wurde den Unternehmen zur Vorsicht geraten. Es stellte sich laut Gartner heraus, dass die Hälfte der Edge-Computing-Szenarien, die als Proof-of-Concept funktioniert haben, in der Produktion letztendlich fehlschlagen.

Daten werden gebraucht

Doch was ist der Grund für dieses Scheitern? Der Bedarf an Edge-Computing ist datengetrieben: Diese Daten werden von Systemen erzeugt oder erfasst, um den IT-Betrieb zu untermauern. Zu diesem Zweck wird laut Gartner bis 2022 mehr als die Hälfte der Unternehmensdaten außerhalb des traditionellen Rechenzentrums erstellt und verarbeitet werden. Das bedeutet, dass die Datenmenge zunimmt, die außerhalb der Cluster und Multi-Core-Systemen auf schnellen Netzwerkstrukturen laufen. Gleichzeitig müssen diese Remote-Edge-Systeme in der Lage sein, die niedrige Latenz und hohe Verfügbarkeit bereit zu stellen, die von den Analytics-Anwendungen und Künstlichen Intelligenz benötigt werden.


Das könnte Sie auch interessieren:

Im Werkzeugmanagement eröffnet das Kennzeichnen von Assets mit Data Matrix Codes die Möglichkeit, Werkzeuge zu tracken und mit ihren Lebenslaufdaten zu verheiraten.‣ weiterlesen

Google Cloud gab kürzlich die Einführung der beiden Lösungen Manufacturing Data Engine und Manufacturing Connect bekannt. Mit den Tools lassen sich Assets einer Fertigungsumgebung vernetzen, Daten verarbeiten und standardisieren.‣ weiterlesen

Virtuelle multicloudfähige Plattformen können in Fertigungsbetrieben das Fundament bilden, um IT-Infrastruktur und Betriebsabläufe zu modernisieren und effizient zu betreiben. Denn das nahtlose Zusammenspiel von Cloud-Anwendungen, Softwarebereitstellung sowie Remote Work lassen sich mit digitalen Plattformen vergleichsweise einfach und global orchestrieren.‣ weiterlesen

Wibu-Systems ist Anwendungspartner im Projekt KoMiK. Im Mai wurde das Projekt abgeschlossen und der Karlsruher Lizensierungsspezialist hat zusammen mit den Projektpartnern aus Wirtschaft und Wissenschaft Empfehlungen zur Auswahl eines digitalen Kooperationssystems erarbeitet, inklusive eines Screening-Tools.‣ weiterlesen

MES-Lösungen verfügen über unterschiedliche Erweiterungsmodule, etwa für das Qualitätsmanagement. Der Ausbau der Basisfunktionen sorgt jedoch oft für Aufwand. Eine Alternative versprechen Cloudlösungen.‣ weiterlesen

Bei ihrer digitalen Transformation adaptieren Fertigungsunternehmen Technologien wie künstliche Intelligenz, Machine Learning und digitale Zwillinge. Cloud Computung hilft, dafür erforderliche Kapazitäten skaliert bereitzustellen.‣ weiterlesen

Mit mehreren neuen Partnern erweitert der Softwareanbieter ZetVisions sein Partnerangebot. Unter anderem sollen Pikon und People Consolidated das Beratungsangebot des Heidelberger Unternehmens ergänzen.‣ weiterlesen

Viele Deep-Learning- und Machine-Vision-Anwendungen stellen hohe Ansprüche an die eingesetzten Industrie-Rechner. Für den Einsatz in diesem Umfeld hat Hardware-Spezialist Spectra die PowerBox 4000AC C621A ins Programm genommen.‣ weiterlesen

Mit Hybrid Cloud-Lösungen wollen Firmen die Vorteile des privaten und öffentlichen Cloud-Betriebs erschließen. Managed Cloud Service Provider sind darin geschult, Fallstricke bei der Cloud-Nutzung solcher Infrastrukturen zu bewältigen.‣ weiterlesen

Per Low-Code-Tool können Anwender Prozesskonfigurationen selbst umsetzen. Im MES-Bereich ist dieser Ansatz noch selten zu finden, doch einige Lösungen gibt es bereits.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige