Distributed Clouds für das Edge Computing

Kleine Lokallösungen groß orchestriert

Sollen Cloud-Anwendungen als Microservices implementiert werden, unterteilen Entwickler größere Applikationen bereits bei der Erstellung in Module. Bereitgestellt werden Microservices meist über Distributed Clouds, die durch ihre vernetzten und verteilten Server hochperformant und reaktionsschnell arbeiten.

 (Bild: ©Astibuag/stock.adobe.com)
(Bild: ©Astibuag/stock.adobe.com)

Das Modell der Distributed Cloud verringert die Distanz zwischen System und Anwender. Das Ergebnis: Latenzen werden kürzer und Reaktionszeiten der Applikation verbessert. Schon kleine Verzögerungen, etwa bei Rückmeldungen an der Maschine kosten in Summe Zeit und Nerven von Angestellten. Langsame Eingaben in Shopsystemen können zu Frust oder Zweifel bei den Anwendern führen, ob ein Kauf überhaupt störungsfrei möglich ist.

Latenzen, Performance und Ausfallsicherheit

In einer Distributed Cloud gibt es kein zentrales Rechenzentrum, sondern eine Architektur, die Rechnerlast auf kleine regionale Clouds aufteilt. Zwischen den dezentralisierten Rechenzentren können dann in einer Art Cloud-Netzwerk die Informationen ausgetauscht werden. Ein weiterer Effekt neben der niedrigen Latenz und der Systemleistung ist die hohe Ausfallsicherheit, da die einzelnen Regional-Clouds unabhängig voneinander arbeiten können. Sollte ein Cloud-Server ausfallen, zieht dies nicht den Ausfall des gesamten Systems nach sich. Werden die Microservices zusätzlich noch georedundant betrieben, also in mehreren Rechenzentren gespiegelt, steigt die Ausfallsicherheit weiter.

Distributed Cloud für Edge Computing

In Edge-Computing-Applikationen kann eine Distributed Cloud die Aufgabe erfüllen, Server und Applikationen näher an den Ort zu bringen, wo die Daten entstehen, und so deren Verarbeitungszeit zu verkürzen oder sogar Datenverarbeitung in Quasi-Echtzeit zu ermöglichen. Die Nachfrage nach Distributed Cloud und Edge Computing wird vor allem durch datenintensive Anwendungen wie dem Internet der Dinge (IoT) vorangetrieben. Z.B. nehmen vernetzte Überwachungskameras permanent Videomaterial in hoher Auflösung auf. Es entstehen also große Datenmengen. Sie permanent an ein zentrales Rechenzentrum zu schicken, wäre nicht praktikabel, weil es viel zu lange dauern und die Bandbreite belasten würde. Als Lösung werden diese Daten oft lokal oder auf dezentralen Servern in räumlicher Nähe zum System selbst, etwa im gleichen Land, verarbeitet. So ähnlich arbeitet übrigens auch Google. So nutzt das Unternehmen bei Suchanfragen nicht nur einen zentralen Rechner in den USA, sondern ein Netzwerk von vielen, die über den Globus verteilt sind. Erst diese Infrastruktur ermöglöocht Antwortzeiten in Sekundenbruchteilen.

Für den Datenschutz

Die Nutzung von regional verteilten Rechenzentren hilft Anwendern auch beim Datenschutz, wenn es um die Verarbeitung personenbezogener Daten geht – etwa um das Speichern von Namen, Wohnort und Geburtsdatum beim Ausfüllen eines Registrierungsformulars. Dieser Prozess muss entsprechend der Vorgaben der DSGVO erfolgen. Hostet ein Service-Provider seine Systeme in einer zentralen Cloud auf Servern in Ländern außerhalb des Geltungsbereichs der DSGVO, kann die Verarbeitung personenbezogener Daten, die aus einem Land stammen, das sich im Geltungsbereich der DSGVO befindet, mit zahlreichen Herausforderungen verbunden sein. Hier sind Service-Provider, die aus Ländern außerhalb des Geltungsbereichs der DSGVO stammen, im Vorteil, wenn sie auf eine Distributed Cloud setzen und in diesem Zusammenhang auch Rechenzentren in Ländern innerhalb des Geltungsbereichs der DSGVO betreiben. Microsoft setzt bei seiner globalen Azure-Infrastruktur auf genau diese Effekte einer Distributed Cloud.

Sicherheitsanforderungen dezentraler Architekturen

Der Betrieb einer Distributed Cloud bringt Herausforderungen mit: In heterogenen Systemen kommt es zu mehr Datenverkehr und es gibt mehr Schnittstellen. Die Anforderungen an die Wartung der Cloud-Infrastruktur steigen. Gleichzeitig gewinnt bei dezentralen Systemarchitekturen und der dezentralen Verarbeitung von Daten die Frage nach deren Sicherheit an Bedeutung. Hier sind die Service-Provider in der Pflicht, ihren Anwendern eine entsprechend sichere Umgebung für deren Daten zur Verfügung zu stellen. Die Auswahl der Rechenzentren, insbesondere auch unter dem Gesichtspunkt der dort implementierten Sicherheitsmechanismen, ist in diesem Zusammenhang ein entscheidender Faktor..

Technik im Aufwind

Trotz der genannten Herausforderungen wird das Thema Distributed Cloud auch im Fahrwasser von Edge Computing an Bedeutung gewinnen, da der Bedarf nach anpassbarer und per Cloud verknüpfter Software steigt. Es zeichnet sich vor diesem Hintergrund der Trend ab, dass auch bei Cloud-Infrastrukturen der monolithische Ansatz an Grenzen stößt. Immer mehr Anwender ziehen das orchestrierte Zusammenspiel vieler kleiner Lokallösungen der großen Systeminsel vor.