Anzeige
Anzeige
Beitrag drucken

Leistung und Latenzen einer Distributed Cloud

Eine Cloud mit vielen Clouds

Die Cloud hat sich zu einer beinahe alltäglichen Technologie entwickelt. Jedoch stoßen klassische Ansätze zuweilen an ihre Grenzen, wenn größerere Datenmengen in Echtzeit verarbeitet und ausgewertet werden sollen. Der Griff zu einer sogenannten Distributed Cloud könnte dieses Problem lösen.

 (Bild: Apiida AG)

(Bild: Apiida AG)

Mit neuen Technologiekonzepten müssen sich auch die verwendeten Infrastrukturen und Netzwerke weiterentwickeln, um auf dem neuesten Stand zu bleiben. Bestehende Systeme stoßen hinsichtlich Latenzgarantien und dedizierten Bandbreiten bereits an ihre Grenzen. Durch Zukunftskonzepte wie Smart Cities oder autonome Fabriken nehmen erforderliche Rechenleistung und entstehende Datenmengen noch zu. Ein Beispiel ist das selbstfahrende Auto, für das auf verschiedene Services zugegriffen wird. Diese verarbeiten die von verschiedenen Fahrzeugsensoren erfassten Daten und melden die Ergebnisse an die Fahrzeuge zurück, um in den jeweiligen Fahrsituationen richtig zu reagieren. Aufgrund der Latenz wäre die Kommunikation mit einem Cloudserver auf Basis der klassischen Cloudtechnologien ineffizient.

Dezentralisierte Services

Zum Einsatz kommen in diesem Bereich stattdessen sogenannte Distributed Clouds. Diese stellt ihre Ressourcen nicht mehr nur zentral zur Verfügung, sondern bieten dezentralisierte Services mit geringerer Distanz zwischen Service-Quelle und Service-Nutzer. Sie berechnet, speichert und vernetzt Teilnehmer im Rahmen einer Mikrocloud außerhalb der zentralisierten Cloud, etwa beim Multi-Access Edge Computing (MEC) und Fog oder Edge Computing.

Weiterentwicklung der Cloud

Distributed-Cloud-Computing stellt somit eine Weiterentwicklung des Cloud Computings dar. Die Idee dahinter: Ein flexibleres System, das aus einer zentralen Cloud, aber auch aus kleineren regionalen Clouds oder Edge Clouds in vielen Regionen besteht. Durch Letztere lassen sich die Daten, der Speicher und die Berechnung näher an den Benutzer heranbringen, sprich zum Rand des Netzwerks – und zwar wann immer dies sinnvoll ist. Jeder Knoten ist mit allen anderen Knoten, also anderen Mikroclouds, der zentralen Cloud oder Edge Clouds verbunden.

Beispiel Produktion: In der Produktion geht es oft darum, Daten möglichst schnell zu verarbeiten, um beispielsweise auf ein Problem an einer Maschine zu reagieren. Eine Distributed Cloud kann Netzwerkverbindungen mit geringer Latenz zwischen Geräten und Analyseendpunkten herstellen und Real-Time-Anwendungen ermöglichen. Schließlich ist aufgrund der Nähe des Benutzers zum Edge-Server auch die Latenz des Netzwerks sehr gering.


Das könnte Sie auch interessieren:

PerfectPattern hat die kostenlose Basisversion von Insights App vorgestellt. Mit der Software können Prozessingenieure, Produktionsexperten und Datenwissenschaftler die von PerfectPattern entwickelte KI-Technologie Aivis nutzen, um Einblicke in Produktionsprozesse zu erhalten.‣ weiterlesen

Die Buss-Unternehmensgruppe ist in vielen unterschiedlichen Geschäftsfeldern tätig. Eine Herausforderung, stand doch ein Wechsel des ERP-Systems ins Haus - mit mehr als 80 Unternehmen innerhalb der Gruppe. Gemeinsam mit dem IT-Dienstleister Sven Mahn IT gelang es, das Projekt innerhalb von 14 Wochen umzusetzen.‣ weiterlesen

Werden neue Technologien wie beispielsweise künstliche Intelligenz Teil des Arbeistalltages wünscht sich ein Großteil der unter 31-Jährigen, darüber informiert zu werden. Dies geht aus einer Studie des IT-Security-Anbieters Kaspersky hervor. Auch ein menschliches Antlitz könnte laut Studie für mehr Akzeptanz sorgen.‣ weiterlesen

Schlechtere Stimmung als noch im Juni. Geschäftsklima-Index des Ifo Instituts hat in der aktuellen Erhebung im Vergleich zum Vormonat nachgegeben.‣ weiterlesen

Die Sprints zu Covid19-Impfstoffen zeigen den Leistungsdruck, unter dem die Technologieentwicklung steht. In kürzester Zeit sollen Forscher und Ingenieure Lösungen für die kritischen Probleme unserer Zeit finden. Der Accelerated-Discovery-Ansatz soll helfen, Forschungs- und Entwicklungsprozesse mit KI, Hybrid Cloud und schließlich Quantencomputern um das zehn- bis hundertfache des heute Möglichen zu beschleunigen.‣ weiterlesen

Trebing + Himstedt hat die Partnerschaft mit Celonis bekanntgegeben. Die Unternehmen wollen zukünftig beim Thema Process Mining zusammenarbeiten.‣ weiterlesen

Im Rahmen einer Partnerschaft wollen Crate.io und Zühlke zukünftig gemeinsam an Smart Factory- und Industrie 4.0-Lösungen arbeiten.‣ weiterlesen

Die Dualis GmbH IT Solution hat für Lean-Manufacturing-Aufgabenstellungen ein Add-on zur 3D-Simulationsplattform Visual Components entwickelt. Basierend auf Process Modelling können damit automatisch branchengängige Standardized Work Sheets generiert werden.‣ weiterlesen

Um verschiedene Daten aufzubereiten und den Mitarbeitern nutzenbringend bereitzustellen, ist nicht immer ein großes IT-Projekt nötig. Wer schnell Daten für die Beschäftigten visualisieren möchte, sollte sich einmal näher mit Dashboards befassen.‣ weiterlesen

Die Simulation am digitalen Zwilling macht die Inbetriebnahme von Anlagen und Maschinen mit automatisierten Bewegungen sicherer. Fehler fallen früher auf und können behoben werden, bevor die Anlage aufgebaut ist. So lassen sich Schäden und Verzögerungen vermeiden. Auch als Schulungstool für Bediener und Programmierer ist die digitale Maschine hilfreich.‣ weiterlesen

ISPE, APV, Concept Heidelberg und die VDI/VDE Gesellschaft Mess- und Automatisierungstechnik richten am 30. November bis zum 1. Dezember 2021 im Dorint Kongresshotel in Mannheim die 14. Offizielle GAMP 5 Konferenz aus.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige