Anzeige
Anzeige
Beitrag drucken

Distributed Clouds für das Edge Computing

Kleine Lokallösungen groß orchestriert

Sollen Cloud-Anwendungen als Microservices implementiert werden, unterteilen Entwickler größere Applikationen bereits bei der Erstellung in Module. Bereitgestellt werden Microservices meist über Distributed Clouds, die durch ihre vernetzten und verteilten Server hochperformant und reaktionsschnell arbeiten.

 (Bild: ©Astibuag/stock.adobe.com)

(Bild: ©Astibuag/stock.adobe.com)

Das Modell der Distributed Cloud verringert die Distanz zwischen System und Anwender. Das Ergebnis: Latenzen werden kürzer und Reaktionszeiten der Applikation verbessert. Schon kleine Verzögerungen, etwa bei Rückmeldungen an der Maschine kosten in Summe Zeit und Nerven von Angestellten. Langsame Eingaben in Shopsystemen können zu Frust oder Zweifel bei den Anwendern führen, ob ein Kauf überhaupt störungsfrei möglich ist.

Latenzen, Performance und Ausfallsicherheit

In einer Distributed Cloud gibt es kein zentrales Rechenzentrum, sondern eine Architektur, die Rechnerlast auf kleine regionale Clouds aufteilt. Zwischen den dezentralisierten Rechenzentren können dann in einer Art Cloud-Netzwerk die Informationen ausgetauscht werden. Ein weiterer Effekt neben der niedrigen Latenz und der Systemleistung ist die hohe Ausfallsicherheit, da die einzelnen Regional-Clouds unabhängig voneinander arbeiten können. Sollte ein Cloud-Server ausfallen, zieht dies nicht den Ausfall des gesamten Systems nach sich. Werden die Microservices zusätzlich noch georedundant betrieben, also in mehreren Rechenzentren gespiegelt, steigt die Ausfallsicherheit weiter.

Distributed Cloud für Edge Computing

In Edge-Computing-Applikationen kann eine Distributed Cloud die Aufgabe erfüllen, Server und Applikationen näher an den Ort zu bringen, wo die Daten entstehen, und so deren Verarbeitungszeit zu verkürzen oder sogar Datenverarbeitung in Quasi-Echtzeit zu ermöglichen. Die Nachfrage nach Distributed Cloud und Edge Computing wird vor allem durch datenintensive Anwendungen wie dem Internet der Dinge (IoT) vorangetrieben. Z.B. nehmen vernetzte Überwachungskameras permanent Videomaterial in hoher Auflösung auf. Es entstehen also große Datenmengen. Sie permanent an ein zentrales Rechenzentrum zu schicken, wäre nicht praktikabel, weil es viel zu lange dauern und die Bandbreite belasten würde. Als Lösung werden diese Daten oft lokal oder auf dezentralen Servern in räumlicher Nähe zum System selbst, etwa im gleichen Land, verarbeitet. So ähnlich arbeitet übrigens auch Google. So nutzt das Unternehmen bei Suchanfragen nicht nur einen zentralen Rechner in den USA, sondern ein Netzwerk von vielen, die über den Globus verteilt sind. Erst diese Infrastruktur ermöglöocht Antwortzeiten in Sekundenbruchteilen.

Für den Datenschutz

Die Nutzung von regional verteilten Rechenzentren hilft Anwendern auch beim Datenschutz, wenn es um die Verarbeitung personenbezogener Daten geht – etwa um das Speichern von Namen, Wohnort und Geburtsdatum beim Ausfüllen eines Registrierungsformulars. Dieser Prozess muss entsprechend der Vorgaben der DSGVO erfolgen. Hostet ein Service-Provider seine Systeme in einer zentralen Cloud auf Servern in Ländern außerhalb des Geltungsbereichs der DSGVO, kann die Verarbeitung personenbezogener Daten, die aus einem Land stammen, das sich im Geltungsbereich der DSGVO befindet, mit zahlreichen Herausforderungen verbunden sein. Hier sind Service-Provider, die aus Ländern außerhalb des Geltungsbereichs der DSGVO stammen, im Vorteil, wenn sie auf eine Distributed Cloud setzen und in diesem Zusammenhang auch Rechenzentren in Ländern innerhalb des Geltungsbereichs der DSGVO betreiben. Microsoft setzt bei seiner globalen Azure-Infrastruktur auf genau diese Effekte einer Distributed Cloud.

Sicherheitsanforderungen dezentraler Architekturen

Der Betrieb einer Distributed Cloud bringt Herausforderungen mit: In heterogenen Systemen kommt es zu mehr Datenverkehr und es gibt mehr Schnittstellen. Die Anforderungen an die Wartung der Cloud-Infrastruktur steigen. Gleichzeitig gewinnt bei dezentralen Systemarchitekturen und der dezentralen Verarbeitung von Daten die Frage nach deren Sicherheit an Bedeutung. Hier sind die Service-Provider in der Pflicht, ihren Anwendern eine entsprechend sichere Umgebung für deren Daten zur Verfügung zu stellen. Die Auswahl der Rechenzentren, insbesondere auch unter dem Gesichtspunkt der dort implementierten Sicherheitsmechanismen, ist in diesem Zusammenhang ein entscheidender Faktor..

Technik im Aufwind

Trotz der genannten Herausforderungen wird das Thema Distributed Cloud auch im Fahrwasser von Edge Computing an Bedeutung gewinnen, da der Bedarf nach anpassbarer und per Cloud verknüpfter Software steigt. Es zeichnet sich vor diesem Hintergrund der Trend ab, dass auch bei Cloud-Infrastrukturen der monolithische Ansatz an Grenzen stößt. Immer mehr Anwender ziehen das orchestrierte Zusammenspiel vieler kleiner Lokallösungen der großen Systeminsel vor.


Das könnte Sie auch interessieren:

Zerspaner müssen sich intensiv mit hoher Variantenvielfalt, kleinen Losgrößen und langen Rüstzeiten befassen, um wettbewerbsfähig zu fertigen. MES-Software mit Advanced Planning and Scheduling-Funktionalität hilft, die Herausforderungen der Branche anzugehen.‣ weiterlesen

Weltweit steckt der Einsatz von künstlicher Intelligenz (KI) noch in den Kinderschuhen. Die Mehrheit der Unternehmen, die KI einsetzen, experimentieren laut einer Accenture-Untersuchung in diesem Bereich noch. 12 Prozent nutzen die Technologie mit einem KI-Reifegrad, der einen starken Wettbewerbsvorteil bringt, so das Ergebnis der Studie.‣ weiterlesen

Thomas Herrguth verantwortet seit 1. Juli das Deutschlandgeschäft bei VMware. Sein Vorgänger Armin Müller konzentriert sich nun auf seine Rolle als Vice President CEMEA bei VMware.‣ weiterlesen

Bei Predictive-Quality-Anwendungen kann es sich auszahlen, nicht auf die Cloud, sondern auf Edge Computing zu setzen – vor allem dann, wenn es schnell gehen muss, erläutert Data-Science-Spezialist LeanBI.‣ weiterlesen

Der ERP-Auswahlberater Trovarit begleitete Buhmann Systeme bei seiner Software-Neuausrichtung von der Prozessanalyse bis zur Systemauswahl. Ein zentrales Element war der Anforderungskatalog mit 850 Punkten. Im Marktvergleich bot die Software AMS.ERP die höchste Abdeckung - und ihr Hersteller erhielt den Zuschlag.‣ weiterlesen

Gemeinsam wollen Siemens und Nvidia das industrielle Metaverse erschließen. Die Unternehmen wollen dafür ihre Partnerschaft ausbauen und durch die Verknüpfung von Nvidia Omniverse und Siemens Xcelerator realitätsgetreue digitale Zwillinge ermöglichen.‣ weiterlesen

Amazon Web Services hat auf dem AWS Summit in San Francisco drei Services angekündigt, die sich vor allem an produzierende Betriebe richten. Mit AWS IoT TwinMaker können Entwickler digitale Zwillinge etwa von Gebäuden, Fabriken, Industrieanlagen und Produktionslinien erstellen.‣ weiterlesen

Wachstum hatte die Personalarbeit bei Schuler Präzisionstechnik vor Herausforderungen gestellt. Die manuelle Bearbeitung von Vorgängen kostete Zeit und war umständlich. Daher wurde ein digitales Personalmanagement-System auf Basis einer Software für Enterprise Content Management (ECM) aus der Taufe gehoben.‣ weiterlesen

Die Berliner Fraunhofer Institute haben im Auftrag von German Edge Cloud und dem Innovationscluster 5G Berlin eine 5G-Infrastruktur in Betrieb genommen. Diese steht Kunden und Partnern aus Industrie und Forschung für Projekte zur Verfügung.‣ weiterlesen

PTC hat das neunte Major Release der CAD-Software Creo vorgestellt. Das Unternehmen mit Hauptsitz in Boston hat in die Weiterentwicklung der Modellierungsumgebung investiert, um die Benutzerfreundlichkeit und Produktivität zu erhöhen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige