Anzeige
Anzeige
Beitrag drucken

Dezentrales Edge-Computing

Fertigungssysteme ohne Nervenzentrum

 (Bild: Actyx AG)

(Bild: Actyx AG)

Edge Computing

Die zweite Entwicklung ist das Edge Computing selbst. Hierbei handelt es sich um einen Trend, der durch das Internet der Dinge (IoT) stark an Bedeutung gewonnen hat. Beim Edge Computing werden Daten lokal verarbeitet. So können beispielsweise Maschinendaten auf einem Gateway vorverarbeitet und ausgewertet werden, statt sie an einen Server schicken zu müssen, um Störungen oder Wartungsarbeiten zu detektieren. Die Auswertung kann dadurch schnell und zuverlässig ausgeführt werden. Klassischerweise werden die Daten anschließend an einen zentralen Server weitergeleitet, der sich bei IoT-Anwendungen in der Regel in der Cloud befindet. Berechnungen werden nicht mehr ausschließlich zentral gemacht, weswegen man auch von verteiltem Rechnen spricht.

Daten tauschen ohne Server

Einen Schritt weiter geht das dezentrale Rechnen, bei dem es keinerlei zentrale Komponenten gibt. Computer werden zu einem Netzwerk verbunden, Daten werden direkt peer-to-peer ausgetauscht und Berechnungen ausschließlich dezentral ausgeführt. Der Ausfall eines Computers führt nicht zum Ausfall des Gesamtsystems. Dezentrale Systeme sind extrem ausfallsicher und hochskalierbar. Blockchains nutzen diese Architektur, um dezentrale Entscheidungen zu treffen. Dezentrale System haben aber auch zwei Nachteile, sie sind schwieriger zu programmieren und schwieriger zu betreiben als zentrale Systeme. In den letzten Jahren gab es enorme Fortschritte bei Kommunikationsprotokollen und Entwicklerwerkzeugen, welche die Programmierung mittlerweile massiv vereinfachen. Diese Entwicklung nahm ihren Ursprung Anfang der 2000er mit der BitTorrent Bewegung und hat in den letzten Jahren durch die Blockchain und Web3/dweb deutlich an Geschwindigkeit aufgenommen. Der Betrieb dezentraler Systeme ist inhärent schwieriger, da nicht nur ein zentraler Server geupdatet und überwacht werden muss, sondern alle Rechner, die sich im Netzwerk befinden. Auch hier bieten moderne DevOps Werkzeuge für automatisierte Updates, integriertes Logging und Debugging Unterstützung. Vollständig reduzieren lässt sich die Komplexität nicht.

Analysen im Datenfluss

Der vierte Trend, der zwar nur indirekt mit den vorherigen Technologien etwas zu tun hat, aber in Kombination mit Edge Computing und Dezentralität sehr mächtig ist: Event Streaming Technologien. Teilnehmer eines Streamingnetzwerkes können Daten abonnieren und publizieren (Pub/Sub). Dabei sind Sender und Empfänger entkoppelt, es kann beliebig viele Empfänger für einen Sender geben und anders herum. Diese Architektur ermöglicht es, sehr modulare Systeme zu bauen. Neue Empfänger und Sender können dem System hinzugefügt werden, ohne bestehende Komponenten anzupassen. Von besonderer Bedeutung ist hier das Prinzip, dass jeder Teil des Systems sogenannte Events verschickt, womit in sich abgeschlossene Datenpakete gemeint sind, die beobachtete Fakten beschreiben und somit keine Koordination verlangen. Die Interpretation dieser Events obliegt dem jeweiligen Empfänger. Diese Art der Kommunikation führt zu einer signifikanten Vereinfachung, weil alle Teilnehmer den für sie relevanten Datenbestand mit seiner Historie zur Verfügung haben. So ergibt sich beispielsweise der derzeitige Zustand einer Maschine samt Wartungsintervallen aus den von dieser Maschine über die Zeit gemeldeten Zustandsänderungen.

Lösung altbekannter Probleme

Durch die Kombination dieser Technologien entstehen Systeme, welche die bereits erwähnten Anforderungen wie Zuverlässigkeit, Modularität, Skalierbarkeit und Flexibilität abbilden. Im Kontext von Fabriken ermöglichen solche Infrastrukturen, schnell kleine Lösungen zu implementieren, beispielsweise an einer Produktionslinie. Später lassen sich die Lösungen vergleichsweise einfach funktional erweitern und auf weitere Produktionslinien ausrollen. Investitionen in hoch-redundante zentrale Server und Netzwerkinfrastruktur sind bei der Architektur nicht notwendig. Die einzige installierte Infrastruktur in der Fabrik sind die Endgeräte, die mit Menschen und Maschinen interagieren. Die Vision einer autonomen, dezentral gesteuerten Fabrik wird durch diese Technologie greifbar.


Das könnte Sie auch interessieren:

Seit 1. Juli ist die Desys Gruppe Teil des PLM- und Engineering Spezialisten Technia. Das Unternehmen will mit dem Zusammenschluss seine Rolle als globaler Partner von Dassault Systèmes unterstreichen, heißt es in der Pressemeldung.‣ weiterlesen

Die Anlagen des Sondermaschinenbauers Albert & Hummel werden komplexer, sollen aber gleichzeitig möglichst schnell geliefert werden. Um diesen Zielkonflikt aufzulösen, orchestriert der Hersteller das Zusammenspiel von Mechanik und Software mit der Anwendung iPhysics zur virtuellen Inbetriebnahme.‣ weiterlesen

Version 9 des ERP-Systems Proalpha ist auf dem Markt. Das Release soll als Wegmarke des Software-Herstellers zum Anbieter einer Technologieplattform gelten, die künftig die Lösungen anderer Softwarefirmen der Unternehmensgruppe verknüpft. ‣ weiterlesen

Um der steigenden Nachfrage nach Kunststoff-Hybrid-Bauteilen gewachsen zu sein, setzt der Automobilzulieferer KE seit September 2021 auf eine verkettete Anlage mit zwei Spritzgießmaschinen und sechs Robotern. Dadurch ist es gelungen, den Output signifikant zu steigern.‣ weiterlesen

Zerspaner müssen sich intensiv mit hoher Variantenvielfalt, kleinen Losgrößen und langen Rüstzeiten befassen, um wettbewerbsfähig zu fertigen. MES-Software mit Advanced Planning and Scheduling-Funktionalität hilft, die Herausforderungen der Branche anzugehen.‣ weiterlesen

Weltweit steckt der Einsatz von künstlicher Intelligenz (KI) noch in den Kinderschuhen. Die Mehrheit der Unternehmen, die KI einsetzen, experimentieren laut einer Accenture-Untersuchung in diesem Bereich noch. 12 Prozent nutzen die Technologie mit einem KI-Reifegrad, der einen starken Wettbewerbsvorteil bringt, so das Ergebnis der Studie.‣ weiterlesen

Thomas Herrguth verantwortet seit 1. Juli das Deutschlandgeschäft bei VMware. Sein Vorgänger Armin Müller konzentriert sich nun auf seine Rolle als Vice President CEMEA bei VMware.‣ weiterlesen

Bei Predictive-Quality-Anwendungen kann es sich auszahlen, nicht auf die Cloud, sondern auf Edge Computing zu setzen – vor allem dann, wenn es schnell gehen muss, erläutert Data-Science-Spezialist LeanBI.‣ weiterlesen

Der ERP-Auswahlberater Trovarit begleitete Buhmann Systeme bei seiner Software-Neuausrichtung von der Prozessanalyse bis zur Systemauswahl. Ein zentrales Element war der Anforderungskatalog mit 850 Punkten. Im Marktvergleich bot die Software AMS.ERP die höchste Abdeckung - und ihr Hersteller erhielt den Zuschlag.‣ weiterlesen

Gemeinsam wollen Siemens und Nvidia das industrielle Metaverse erschließen. Die Unternehmen wollen dafür ihre Partnerschaft ausbauen und durch die Verknüpfung von Nvidia Omniverse und Siemens Xcelerator realitätsgetreue digitale Zwillinge ermöglichen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige