Leistung und Latenzen einer Distributed Cloud
Eine Cloud mit vielen Clouds
Mehrere Standorte verbinden
Eine Distributed Cloud ermöglicht also, dass Daten sowohl in Echtzeit erfasst als auch verarbeitet werden können und darüber hinaus keine Abhängigkeiten von zentralen Cloudkomponenten entstehen. Zudem können Daten und Anwendungen von mehreren geografischen Standorten miteinander verbunden werden. Gleiches gilt für große Infrastruktureinrichtungen wie beispielsweise Flughäfen oder Bahnhöfe.
Kosten der verteilten Cloud
Die anfänglichen Kosten für den Einsatz einer Distributet Cloud erscheinen zunächst hoch. Jedoch entfallen durch Cloud Computing die Anschaffungskosten für Hardware und Software sowie deren Wartung und Lizenzierung. Zu Buche schlägt auch die Tatsache, dass sich durch die verteilte Cloudarchitektur die Bedürfnisse der User besser als in einer zentralen Cloud abbilden lassen. Das trifft auch auf die Skalierbarkeit der Netzwerk-Performance und die Services selbst zu. Nicht zuletzt verfügen verteilte Clouds über standardisierte und buchbare Automatisierungsmechanismen zur Datensicherung wie Backups, Disaster Recovery, Loss Prevention oder Business Continuity. Und auch die Pflege des Rechenzentrums übernimmt der jeweilige Anbieter. Die neunte Ausgabe von Rockwell Automations „State of Smart Manufacturing“ Report liefert Einblicke in Trends und Herausforderungen für Hersteller. Dazu wurden über 1.500 Fertigungsunternehmen befragt, knapp 100 der befragten Unternehmen kommen aus Deutschland. ‣ weiterlesen
KI in Fertigungsbranche vorn
Herausforderungen bewältigen
Neben den Vorteilen müssen jedoch auch Herausforderungen angegangen werden. Im Falle der Distributed Cloud zählt dazu vor allem die Komplexität, da sie aus vielen, verteilten Clouds in verschiedenen Regionen besteht. Dadurch gestaltet sich die Implementierung einer solchen Infrastruktur als schwierig. Zudem entsteht ein heterogenes Umfeld, das es zu verwalten gilt. Das betrifft allerdings hauptsächlich die Cloudanbieter und nicht die Unternehmen selbst. Darüber hinaus benötigen verteilte Cloudinfrastrukturen eine ständige Internetverbindung, um den Zugriff auf die Ressourcen zu ermöglichen. Ein Ausfall der Internetverbindung bedeutet daher auch Ausfallzeiten der Cloud. Mit dem Anbieter sollte daher ein Service-Level-Agreement (SLAs) vereinbart werden. Zudem kommt es auf einen hohen Grad an Automatisierung an, da innerhalb des Netzwerks mehrere Milliarden Devices miteinander interagieren. Zusätzlicher Aufwand sollte dadurch reduziet werden. Damit es an dieser Stelle gelingt, ein automatisiertes Lebenszyklus-Management zu schaffen, spielen Gateways und Proxy-Server eine wichtige Rolle. Zwar lassen sich Aktualisierungen und neue Releases recht einfach verfolgen, Migrationslösungen wie etwa Apiida API-Gateway-Manager können jedoch dabei helfen, die Aktualisierungen von den Entwicklungsumgebungen bis zur Produktion zuverlässig ausrollen. Der Thin[gk]athon, veranstaltet vom Smart Systems Hub, vereint kollaborative Intelligenz und Industrie-Expertise, um in einem dreitägigen Hackathon innovative Lösungsansätze für komplexe Fragestellungen zu generieren. ‣ weiterlesen
Innovationstreiber Thin[gk]athon: Kollaborative Intelligenz trifft auf Industrie-Expertise
Ablösung in Sicht
Alles, was vernetzt werden kann, wird auch vernetzt werden. Die Voraussetzung dafür ist, dass die Datenmengen erfasst, verarbeitet und weitergeleitet werden – für viele Services und Dienste in Echtzeit. In vielen dieser Fälle dürften verteilte Cloudstrukturen die klassischen Cloudarchitekturen als Lösungsansatz ablösen, da erst sie die passende Leistung und Latenzen mitbringen.