Leistung und Latenzen einer Distributed Cloud

Eine Cloud mit vielen Clouds

Die Cloud hat sich zu einer beinahe alltäglichen Technologie entwickelt. Jedoch stoßen klassische Ansätze zuweilen an ihre Grenzen, wenn größerere Datenmengen in Echtzeit verarbeitet und ausgewertet werden sollen. Der Griff zu einer sogenannten Distributed Cloud könnte dieses Problem lösen.

 (Bild: Apiida AG)
(Bild: Apiida AG)

Mit neuen Technologiekonzepten müssen sich auch die verwendeten Infrastrukturen und Netzwerke weiterentwickeln, um auf dem neuesten Stand zu bleiben. Bestehende Systeme stoßen hinsichtlich Latenzgarantien und dedizierten Bandbreiten bereits an ihre Grenzen. Durch Zukunftskonzepte wie Smart Cities oder autonome Fabriken nehmen erforderliche Rechenleistung und entstehende Datenmengen noch zu. Ein Beispiel ist das selbstfahrende Auto, für das auf verschiedene Services zugegriffen wird. Diese verarbeiten die von verschiedenen Fahrzeugsensoren erfassten Daten und melden die Ergebnisse an die Fahrzeuge zurück, um in den jeweiligen Fahrsituationen richtig zu reagieren. Aufgrund der Latenz wäre die Kommunikation mit einem Cloudserver auf Basis der klassischen Cloudtechnologien ineffizient.

Dezentralisierte Services

Zum Einsatz kommen in diesem Bereich stattdessen sogenannte Distributed Clouds. Diese stellt ihre Ressourcen nicht mehr nur zentral zur Verfügung, sondern bieten dezentralisierte Services mit geringerer Distanz zwischen Service-Quelle und Service-Nutzer. Sie berechnet, speichert und vernetzt Teilnehmer im Rahmen einer Mikrocloud außerhalb der zentralisierten Cloud, etwa beim Multi-Access Edge Computing (MEC) und Fog oder Edge Computing.

Weiterentwicklung der Cloud

Distributed-Cloud-Computing stellt somit eine Weiterentwicklung des Cloud Computings dar. Die Idee dahinter: Ein flexibleres System, das aus einer zentralen Cloud, aber auch aus kleineren regionalen Clouds oder Edge Clouds in vielen Regionen besteht. Durch Letztere lassen sich die Daten, der Speicher und die Berechnung näher an den Benutzer heranbringen, sprich zum Rand des Netzwerks – und zwar wann immer dies sinnvoll ist. Jeder Knoten ist mit allen anderen Knoten, also anderen Mikroclouds, der zentralen Cloud oder Edge Clouds verbunden.

Beispiel Produktion: In der Produktion geht es oft darum, Daten möglichst schnell zu verarbeiten, um beispielsweise auf ein Problem an einer Maschine zu reagieren. Eine Distributed Cloud kann Netzwerkverbindungen mit geringer Latenz zwischen Geräten und Analyseendpunkten herstellen und Real-Time-Anwendungen ermöglichen. Schließlich ist aufgrund der Nähe des Benutzers zum Edge-Server auch die Latenz des Netzwerks sehr gering.





  • Innovationstreiber Thin[gk]athon: Kollaborative Intelligenz trifft auf Industrie-Expertise

    Der Thin[gk]athon, veranstaltet vom Smart Systems Hub, vereint kollaborative Intelligenz und Industrie-Expertise, um in einem dreitägigen Hackathon innovative Lösungsansätze für komplexe Fragestellungen…


  • MES und Lean-Management im Zusammenspiel

    Fertigungsunternehmen suchen stets nach Möglichkeiten, ihre Workflows zu optimieren, Verschwendung zu reduzieren und Ressourcen optimal einzusetzen. Der Lean-Ansatz ist hier ein bewährtes…


  • Mit KI und Plattform-Ansatz Potenziale heben

    Flexibilität wird im Qualitätsmanagement immer wichtiger. Der Zertifizierungsdruck steigt weiter an und Lieferkettenprobleme erfordern häufiger die Qualifizierung alternativer Zulieferer. Digitale QM-Plattformen können…


  • Die Digitalisierung in Deutschlands Industrie

    Eine aktuelle Studie von Reichelt Elektronik betrachtet den aktuellen Stand der Digitalisierung und stellt die Frage, wie Deutschland im Vergleich zu anderen…


  • Management-Tool für KI-Use Cases

    Im EU AI Act wurden kürzlich Regeln für die Anwendung und Entwicklung von künstlicher Intelligenz festgelegt. Spätestens jetzt sollten Unternehmen ihre KI-Use-Cases…