Anzeige
Anzeige
Anzeige
Beitrag drucken

Datacenter-Trends für 2020

Steigende Datenmengen, europäische Cloud-Infrastrukturen, neue Hardware und der Energieverbrauch von Rechenzentren – dies sind aus Sicht des Herborner Unternehmens Rittal zentrale Datacenter-Trends des Jahres 2020.

(Bild: Rittal GmbH & Co. KG)

Im Jahr 2025 könnten Menschen und Maschinen bereits 175 Zettabyte an Daten erzeugen, prognostizieren die Marktforscher von IDC. Das jährliche Datenwachstum um durchschnittlich 27 Prozent sorgt auch für steigende Anforderungen an die IT-Infrastruktur. Da es sich kaum ein Unternehmen leisten kann, die eigenen Datenspeicher jährlich um knapp ein Drittel zu erhöhen, setzen IT-Manager immer häufiger auf IT-Services aus der Cloud. Ob Storage oder Computing, der Trend hin zur Cloud ist längst in Deutschland angekommen: Eine im Sommer 2019 veröffentlichte Umfrage vom ITK-Branchenverband Bitkom und KPMG hat gezeigt, dass bereits drei von vier Unternehmen Cloud-Lösungen nutzen. Wer Cloud-Lösungen von Drittanbietern nutzt, gibt jedoch ein Stück weit die Kontrolle über seine Unternehmensdaten ab. So ermöglicht beispielsweise der US-amerikanische Cloud-Act (Clarifying Lawful Overseas Use of Data) den Zugriff von US-Behörden auf Daten, die in der Cloud gespeichert sind – sogar wenn lokale Gesetze am Ort des Datenspeichers dies verbieten.

Trend 1: Datensouveränität

„Unternehmen werden ihre Daten immer stärker wertschöpfend nutzen – zunehmend in Echtzeit, etwa im Produktionsumfeld“, sagt Dr. Karl-Ulrich Köhler, CEO von Rittal International. „Datensouveränität wird zum kritischen Erfolgsfaktor für internationale Wettbewerbsfähigkeit.“ Der selbstbestimmte Umgang mit Daten wird für Unternehmen somit zu einem zentralen Wettbewerbsfaktor. Firmen stehen vor der Frage, wie sie ihre Daten sicher und effizient verarbeiten können, und ob sie ihr eigenes Rechenzentrum modernisieren, in Edge-Infrastrukturen investieren oder die Cloud nutzen.

Digitalprojekt Gaia-X

Das europäische Projekt Gaia-X, eine Initiative des Bundesministeriums für Wirtschaft und Energie, soll im Jahr 2020 starten. Ziel ist der Aufbau einer europäischen Cloud zur Digitalisierung und Vernetzung der Industrie und als Basis für neue KI-Anwendungen. Die Fraunhofer Gesellschaft hat in diesem Kontext die Initiative ‚International Data Spaces‘ geschaffen. Dieser virtuelle Datenraum ermöglicht Unternehmen den abgesicherten Datenaustausch. Kompatibilität einer eigenen Lösung mit etablierten IT-Plattformen soll ebenfalls gegeben sein. So könnten geographisch verteilte kleinere Rechenzentren mit offenen Cloud-Stacks eine neue Klasse von industriellen Anwendungen schaffen, die am Ort der Datenentstehung eine erste Datenanalyse vornehmen und die Cloud für nachgelagerte Analysen nutzen.

Trend 2: Standardisierung

Die OCP-Technologie (Open Compute Project) mit zentraler Gleichstrom-Verteilung im IT-Rack wird für immer mehr CIOs zu einer interessanten Alternative beim Ausbau des Rechenzentrums. Denn mit Gleichstromkomponenten können die Kosten sinken. So erfolgt die Energieversorgung aller IT-Komponenten zentral mit n+1-Netzteilen pro Rack. Da weniger Netzteile vorhanden sind, ist weniger Kühlung erforderlich. Gleichzeitig vereinfachen sich Wartung und Ersatzteilmanagement. Den Effizienzgewinn gibt Rittal mit durchschnittlich etwa fünf Prozent des Gesamtstroms an. Der Anbieter rechnet damit, dass sich OCP im Jahr 2020 als durchgängige Systemplattform im Rechenzentrum weiter etablieren wird. Neue OCP-Produkte für die Rack-Kühlung, die Stromversorgung oder das Monitoring werden den schnellen Ausbau mit Gleichstromkomponenten ermöglichen. Außerdem werden neue Produkte das herkömmliche Konzept einer zentralen Notstromversorgung unterstützen, bei dem durch eine zentrale USV die Stromversorgung abgesichert wird.

Trend 3: Wärmerückgewinnung und direkte CPU-Kühlung

Von Rechenzentren werden hohe Energiemengen in Form von Abwärme an die Umwelt abgegeben. Mit Zunahme der Leistungsdichte im Datacenter steigen auch die Wärmemengen, die sich potenziell für andere Zwecke nutzen lassen. Bislang ist die Nutzung der Abwärme jedoch zu teuer, zum Beispiel weil sich selten Abnehmer in unmittelbarer Umgebung des Standortes finden. Auch ist eine Abwärme von 40 Grad, wie sie luftbasierte IT-Kühlsysteme erzeugen, deutlich zu niedrig, um diese wirtschaftlich sinnvoll zu verwenden. Insbesondere im Bereich High Performance Computing (HPC) erzeugen IT-Racks hohe Wärmelasten, die häufig mehr als 50 kW betragen. Für HPC ist die direkte Prozessorkühlung mit Wasser deutlich effizienter als eine Luftkühlung, sodass Rücklauftemperaturen von 60 bis 65 Grad zur Verfügung stehen. Bei diesen Temperaturen ist beispielsweise die Erwärmung von Brauchwasser möglich oder die Nutzung von Wärmepumpen bis hin zur Einspeisung in ein Fernwärmenetz. CIOs sollten jedoch beachten, dass selbst bei einer direkten CPU-Wasserkühlung nur etwa 80 Prozent der Abwärme aus einem IT-Rack geführt werden kann. Für die restlichen 20 Prozent wird weiterhin eine IT-Kühlung für das Rack benötigt.

Auf dem Digital-Gipfel 2019 der Bundesregierung wurde in der entsprechenden Arbeitsgruppe das Thema Wärmerückgewinnung diskutiert, die hohen Handlungsbedarf aufzeigte. Daher geht Rittal davon aus, dass sich im Jahr 2020 deutlich mehr CIOs damit beschäftigten werden, wie sich die bislang ungenutzte Abwärme des Datacenters wirtschaftlich nutzen lässt.

Trend 4: Integration von Multi-Cloud-Umgebungen

Unternehmen benötigen die Sicherheit, dass sie ihre Cloud-Anwendungen auf gängigen Plattformen und in beliebigen Ländern betreiben können. Dafür ist eine Multi-Cloud-Strategie erforderlich. Das heißt: Unternehmen wählen für ihre Dienste je nach Geschäftsanforderungen weltweit eine oder mehrere Verfügbarkeitszonen. Das Einhalten von Datenschutzvorgaben erfolgt zum Beispiel über einen spezialisierten lokalen Anbieter in dem jeweiligen Zielmarkt. Eine anbieteroffene Multi-Cloud-Strategie erlaubt die Funktionsdichte und Skalierbarkeit von Hyperscalern mit der Datensicherheit von lokalen und spezialisierten Anbietern zu vereinen. Das macht Multi-Cloud-Strategien zu einem der Megatrends in den nächsten Jahren. Denn die Wirtschaft wird weitere Schritte der Digitalisierung gehen und mit Cloud-nativen Technologien – für die Cloud-Computing-Architektur konzipierte und entwickelte Anwendungen –, die Geschwindigkeiten der eigenen Continuous Integration (CI) und Continuous Delivery (CD)-Pipelines weiter steigern. Die Automatisierung der Integrations- und Auslieferungsprozesse ermöglicht dann schnelle, zuverlässige und wiederholbare Bereitstellung von Software (Deployments).


Das könnte Sie auch interessieren:

Die europäischen Produktionsstandorte des Embedded-Spezialisten Kontron sollen zu einem EMS/ODM-Verbund zusammengeschlossen werden.‣ weiterlesen

Im Rahmen einer Partnerschaft vertreibt Siemens zukünftig die Lösung Moby.Check des Digitalisierungsspezialisten Log.Go.Motion.‣ weiterlesen

Der Softwarekonzern SAP hat seine Zahlen für das dritte Quartal 2020 veröffentlicht. Demnach erzielte der Softwarekonzern weniger Umsatz als noch im Vorjahresquartal. Das Cloudgeschäft legte hingegen zu.‣ weiterlesen

Die Komplexität vieler Produkte erfordert mehr denn je die interdisziplinäre Zusammenarbeit der Produktentwickler und eine engmaschige Kundenkommunikation. Dabei fokussiert die kollaborative Engineering-Software auf dem Markt bislang meist das Projektmanagement und die Verwaltung von Design-, Entwicklungs- und Fertigungsdaten. Virtual-Reality- und Augmented-Reality-Technologie kann die Zusammenarbeit wirkungsvoll um visuelle Aspekte ergänzen.‣ weiterlesen

Zum 1. November wird Dr. Marianne Janik die Leitung von Microsoft Deutschland von Sabine Bendiek übernehmen, die zu SAP wechseln wird.‣ weiterlesen

Unter der Überschrift ‘KI-noW‘ (Künstliche Intelligenz (KI) für eine nachhaltig optimierte Wertschöpfung) wollen Forscher des Fraunhofer IPA neueste Erkenntnisse der angewandten Forschung in die industrielle Praxis überführen. Zur Veranschaulichung zeigt ein extra eingerichteter Showroom eine Auswahl an Demostationen. ‣ weiterlesen

Die Corona-Krise beschäftigt Produktionsunternehmen weltweit und hat zu erheblichen Störungen im Produktionsalltag geführt. Betriebe mussten ihre Produktion zurückfahren oder sogar ganz einstellen. Nun ist Abstandhalten angesagt - auch in der Produktion. Oft ist dies jedoch nur schwer umzusetzen. Sensoren können dabei helfen, das Risiko für die eigenen Mitarbeiter zu minimieren.‣ weiterlesen

Früher war Scada oft nur zweckmäßiges Instrument zur Anlagen- und Prozessverwaltung. Doch im Zeitalter des Internet of Things und damit verbundenen neuen Geschäftsmodellen rückt auch die Bedeutung der Scada-Plattform an eine bedeutendere Stelle.‣ weiterlesen

Viele große Unternehmen investieren derzeit in Digitaltechnik, um Transparenz in ihre Lieferketten zu bringen - und so Kosten einzusparen. Mit Radio-Frequency-Identification(RFID)-Technik von Kathrein werden die Durchläufe bei einem Stuttgarter Automobilhersteller besser planbar und Wartezeiten kürzer.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige