- IT&Production - https://www.it-production.com -

Viele Wolken unter einem Himmel

Multi-Cloud-Umgebungen verwalten

Viele Wolken unter einem Himmel

Viele Firmen sehen zwar die Vorteile im Cloud Computing, fürchten auf der anderen Seite jedoch den Verlust sensibler Unternehmensdaten. Wenn einige zentrale Aspekte berücksichtigt werden, könnte der Multi-Cloud-Ansatz dieses Problem lösen.

 (Bild: ©ra2 studio/stock.adobe.com) [1]

(Bild: ©ra2 studio/stock.adobe.com)

In der Industrie 4.0 ist die Cloud aus der Produktion nicht wegzudenken. Einer von Bitkom Research im Auftrag KPMG unter 553 Unternehmen ab 20 Mitarbeitern durchgeführten, branchenunabhängigen Studie zufolge nutzen 55 Prozent der Teilnehmer die Private Cloud, 35 Prozent setzen auf das öffentliche Pendant. 80 Prozent der Public-Cloud-Nutzer sehen eine schnelle Skalierbarkeit ihrer IT-Leistungen als Vorteil, allerdings fürchten sich 73 Prozent der Nichtnutzer vor einem Hack sensibler Unternehmensdaten. Dieses Dilemma lässt sich mit einer Multi Cloud lösen. Sie verbindet die Vorteile der Public Cloud mit der Sicherheit der Private Cloud. Managed-Cloud-Service-Provider beachten beim Betrieb dieser Cloud-Variante vor allem fünf zentrale Aspekte.

Intra- und Intersecurity

Die zwei Dimensionen der Sicherheit von IT-Systemen und -Services in der Multi-Cloud sind die Intra- und die Inter-Security. Bei der ersten gilt es eine autorisierte Kommunikation zwischen verschiedenen Clouds zu ermöglich, wenn verschiedene Plattformen direkt miteinander verbunden sind. Benötigt wird dafür ein einheitlicher Sicherheitsstandard über alle Ebenen hinweg. Eine Möglichkeit, dieser Herausforderung zu begegnen, wäre der Einsatz eines Platform Security Offices, mit dem sich eine einheitliche Governance-Rolle für alle Sicherheitsaspekte einer Plattform realisieren ließe. Bei der Inter Security liegt der Fokus wiederum auf dem Schutz der Multi Cloud gegen Angriffe von außen durch unterschiedliche Einzel-Services. Die Herausforderung liegt darin, die verschiedenen Architekturen und Systeme zu einem Gesamtsystem zu formen. Je mehr Systeme an der Verteidigung mitwirken, desto wichtiger wird ein übergeordneter Blick, um Schwachstellen zu identifizieren. Dafür bietet sich ein Security Operations Center (SOC) an, in dem Security-Maßnahmen und -Kompetenz gebündelt werden. Das SOC überwacht zentral die IT-Ressourcen und Daten und koordiniert, sofern nötig, die Gegenmaßnahmen.

Die Multi Cloud verbindet die Vorteile der Public Cloud mit der Sicherheit der Private Cloud. (Bild: ©sarayut_sy/stock.adobe.com) [2]

Die Multi Cloud verbindet die Vorteile der Public Cloud mit der Sicherheit der Private Cloud. (Bild: ©sarayut_sy/stock.adobe.com)

Passende Schnittstellen

Schnittstellen (APIs) sind für die Interoperabilität der einzelnen Services und Systeme innerhalb eines Multi-Cloud-Betriebs elementar, gehören aber zugleich zu den potenziellen Schwachstellen. Denn einerseits lassen sich Dienste innerhalb einer Multi Cloud ohne passende APIs nicht miteinander vernetzen. Andererseits können Schnittstellen Funktionen einschränken. Der API-Einsatz von Hyperscalern ist daher unbedingt in Betracht zu ziehen. Wer allerdings einzig auf eine Hersteller-API setzt, riskiert einen Vendor-Lock-in. Um das zu vermeiden, hilft die ‚Seamless‘-Orchestrierung direkt über APIs. Sie schafft Interoperabilität und somit den direkten Zugriff auf die gewünschten Funktionen. Dies ermöglicht einen schnellen Zugriff etwa auf Features, die nur von einem Hyperscaler angeboten werden wie beispielsweise KI-Funktionen oder ein GPU-Access. Gleichzeitig sorgt die Orchestrierung dafür, dass immer gleiche Ergebnisse erzielt werden – unabhängig vom Hyperscaler. So ist die Nutzung verschiedener Hyperscaler möglich, welche die API-Nutzung und das Hinzufügen von Hyperscaler-spezifischen Diensten erlauben.

Latenz minimieren

Um die Latenz zu minimieren, bedarf es einer direkten Verbindung über Dienste und Schnittstellen – beispielsweise einem DirectLink bzw. Cloud Connect. So lassen sich Services von Rechenzentren mit Cloud-Ressourcen und Services verschiedener Anbieter direkt miteinander verbinden. Der Datenaustausch zwischen Rechenzentrum und Cloud-Anbieter erfolgt über eine dedizierte Verbindung, die konsistenten Netzwerkparametern unterliegt. Die Datenpakete folgen immer einem vordefinierten Weg, sodass die Latenz gleich niedrig bleibt. Auch die Bandbreitenkosten aus der Cloud in ein Legacy-Rechenzentrum sind geringer als über das Public-Internet-Gateway eines global agierenden Cloud-Anbieters. Ein DirectLink ist jedoch kompliziert einzurichten und fordert eine Infrastruktur, die vorbereitet und administriert werden muss.

Der Performance-Aspekt

Die Gesamt-Performance abzustimmen, ist komplex, aber grundlegend für den zuverlässigen Betrieb. Laufen Applikationen nicht stabil, sinkt die Akzeptanz der Nutzer. Im Betrieb sollte der Fokus stets auf die Applikationen gerichtet sein, die den Umsatz bringen. Diese sollten so strukturiert sein, dass die Leistung auch dann nicht gemindert ist, wenn es infrastrukturelle Probleme bei einem oder bei mehreren Hyperscalern gibt. Spezielle Monitoring-Tools liefern eine Infrastruktur-agnostische Analyse der Gesamtperformance. Diese sollten auch einen direkten Durchgriff in die Applikation ermöglichen. Durch Federated Microservices und die damit einhergehende Partitionierung von Diensten werden mögliche Probleme eingegrenzt, ohne das Gesamtkonstrukt zu beeinflussen. Spezialisten für die IT-Sicherheit sollten das Gesamtkonstrukt vor dem Go-live Penetrations- und Lasttests unterziehen, um es in Bezug auf Sicherheit und Leistung beurteilen zu können.

End-to-End Verantwortung

Der Aufbau und die technologischen Eigenschaften einer Multi Cloud muss sich den Prozessen und Zielen des Unternehmens unterordnen. Eine End-to-End-Verantwortung mit Blick auf die Services ist daher essentiell. Erst der damit einhergehende gesamtheitliche Überblick über die die in Microservices gesplittete Architektur ermöglicht es, das Ziel einer hundertprozentigen Verfügbarkeit in den Blick zu nehmen. Das können am Ende des Tages keine automatisierten Services alleine bieten. Es wird auch ein Team mit Verantwortungsgefühl für das große Ganze benötigt. Nur so ist z.B. der parallele Ausfall mehrerer Microservices zu lösen. Im Rahmen von Szenarien wie etwa einem Kanarienvogel-Test läuft beispielsweise ein neuer Dienst im Testbetrieb über einen begrenzten Zeitraum mit einigen Prozent des zu erwartenden Traffics. So kann die Funktionalität und Skalierung getestet werden.