Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Software-Management

Die Komplexität im IT-Betrieb reduzieren

Der Bedarf nach einer einheitlichen Entwicklungs- und Betriebslösung für physische, virtuelle, Private- und Public-Cloud-Umgebungen ist eine verständliche Reaktion auf die stetig wachsende Komplexität der Unternehmens-IT.



Bild: RedHat, Inc.

Die IT-Infrastrukturen in den Unternehmen sind in den letzten Jahren zunehmend unübersichtlich geworden. Zusätzlich zu physischen und virtualisierten Umgebungen nutzen einzelne Fachbereiche in den Unternehmen auch unterschiedliche Arten von Private und Public Clouds. Alle diese vielfältigen Umgebungen sind aufgrund konkreter IT- und Geschäftsanforderungen unabhängig voneinander entstanden. Das Ergebnis ist eine heterogene Infrastruktur klar voneinander getrennter IT-Silos. Eine Trendumkehr ist bereits erkennbar. Die einstmals autonom voneinander entstandenen IT-Inseln in den Fachbereichen suchen Anschluss – nicht zuletzt deshalb, weil der Aufwand für das erforderliche Maß an IT-Sicherheit, den Betrieb und die Verwaltung für einzelne Organisationseinheiten kaum noch zu leisten und überdies ineffizient ist. Dazu kommt, dass im Alltag die Grenzen zwischen den vier IT-Bereitstellungsmodellen – physisch, virtuell, Private und Public Clouds – immer häufiger verschwimmen. Vielfach ist im Laufe der Zeit ein Beziehungsgeflecht zwischen den anfänglich getrennten Architekturen entstanden. Für IT-Abteilungen und CIOs bedeutet dies, dass sie nach Möglichkeiten suchen, um die unterschiedlichen Bereitstellungsmodelle mit einer einheitlichen Management-Lösung steuern und verwalten zu können. Ein entscheidender Punkt dabei: Für die Benutzer aus den einzelnen Fachbereichen sollte sich die konsolidierte Infrastruktur als eine durchgängige Einheit präsentieren. Modellmäßig entsteht dabei ein gemeinsam genutzter Ressourcenpool, der den Anwendern in den Fachbereichen die Server-, Speicher- und Netzwerk-Services für alle Applikationen bereitstellt. Ergänzend dazu benötigt die IT-Abteilung eine Lösung, um die Anwendungen und Ressourcen effizient zu verwalten – und zwar unabhängig davon, in welchem der vier Bereitstellungsmodelle eine Applikation läuft.

Konvergenz und gemeinsame Verwaltung

Die Fundamente einer durchgängigen Lösung, wie sie einige Unternehmen zur Steuerung und Administration ihrer Rechenzentren einsetzen, bilden Platform-as-a-Service- (PaaS)- und Infrastructure-as-a-Service (IaaS)-Umgebungen. Mit der erster sind Entwickler in der Lage, Applikationen effizienter und schneller zu schreiben und Anwendern bereitzustellen. Eine PaaS-Umgebung wie OpenShift von Red Hat unterstützt Entwickler bei der Erstellung von Software-as-a-Service (SaaS)-, PaaS- und On-Premise-Applikationen. Sie muss in der Lage sein, sich schnell und flexibel an neue Anforderungen eines Unternehmens anzupassen. Komplementär dazu zählt zu den zentralen Aufgaben einer IaaS-Umgebung wie der Red Hat Enterprise Linux OpenStack Platform ein skalierbarer und ausfallsicherer Betrieb der gesamten Server-, Speicher- und Netzwerk-Services.



Platform-as-a-Service vereint wichtige Trends für den Aufbau einer Cloud-Infrastruktur, die Architektur verteilter Anwendungen (Microservices), die Bereitstellung von Containern sowie die Entwicklung und den Betrieb von Anwendungen (DevOps).
Bild: RedHat, Inc.

Applikationen bewegen

Die Portabilität von Applikations-Containern spielt eine wichtige Rolle, wenn Applikationen problemlos zwischen den vier IT-Bereitstellungsmodellen hin- und herbewegt werden sollen. Container haben sich seit einiger Zeit in der Linux-Welt zu einer zentralen Applikations-Packetierungs- und Bereitstellungsmethode herausgebildet. Entwickler verwenden diese, weil sie eine einfache und schnelle Bereitstellung von Applikationen ermöglicht und sich als Katalysator für das DevOps-Konzept erweist.



Linux-Container enthalten eine Applikation und die zum Ablauf benötigten Runtime-Libraries.
Bild: RedHat, Inc.

Container sind schnell betriebsbereit

Linux-Container vereinen zwei Vorgehensweisen: Erstens bieten sie eine Möglichkeit zur Softwarepaketierung, mit der Entwickler Applikationen zusammen mit ihren Laufzeit-Abhängigkeiten bündeln und ausführen können. Solche Container sind schnell betriebsbereit und portabel, da sie die komplette Applikationsumgebung enthalten. Zweitens bieten sie die Möglichkeit, Applikationen isoliert und performant unter einem Host-Betriebssystem bereitzustellen. Gemeinsam ist den beiden Ansätzen, dass den Containern die Systemressourcen fest zugeordnet werden. Container zeichnen sich dadurch aus, dass sie konsistent über verschiedene Betriebsmodelle hinweg eingesetzt werden können – angefangen von einem Standalone Container Host über eine IaaS- und eine PaaS-Umgebung bis hin zur Public Cloud. Entwickler erstellen beispielsweise einen Applikations-Container unter Red Hat Enterprise Linux und können sie dann auf physischer Hardware, in einer virtuellen Maschine, einer Private oder Public Cloud betreiben. Bedingt durch Eigenschaften des Linux-Kernels lassen sich Applikationen weitgehend von der jeweiligen Umgebung trennen und damit autonom betreiben – einschließlich der Prozesse, der Dateisysteme oder Netzwerke. Da Applikationsabhängigkeiten innerhalb des Containers residieren, können Administratoren Applikationen autonom über kompatible Linux-Systeme hinweg verschieben. Die IT bewegt sich heute in Richtung eines Infrastrukturmodells, in dem Laufzeitabhängigkeiten in einem Container zusammen mit der Applikation gebündelt und nicht mehr mit einem kompletten Betriebssystem-Image versehen sind. Container-Technologien werden in der Linux-Welt eine zentrale Rolle bei der Bereitstellung und Verwaltung von Applikationen spielen und damit die Komplexität reduzieren.


Das könnte Sie auch interessieren:

Mehr als eine Milliarde Schadprogramme verzeichnet das Bundesamt für Sicherheit in der Informationstechnik im aktuellen Lagebericht. Und auch die Corona-Pandemie wirkt sich auf die aktuelle Sicherheitslage aus.‣ weiterlesen

Eine Voraussetzung bei der Entwicklung von industriellen KI-Anwendungen sind ausreichende Daten. Diese sind jedoch nicht immer in der benötigten Menge, Qualität oder Struktur vorhanden. Anhand eines konkreten Beispiels erläutert dieser Beitrag, wie sich ein Data Lake anlegen und mit Daten füllen lässt, bis er ein Fundament für quasi beliebige KI-Applikationen bildet.‣ weiterlesen

CIOs setzen auf Automatisierung und KI, um wachsende Kluft zwischen begrenzten IT-Ressourcen und steigender Cloud-Komplexität zu überbrücken. Dies geht aus einer Studie von Dynatrace hervor.‣ weiterlesen

Zahlreiche Geräte verbinden sich heutzutage mit dem Firmennetzwerk. Neben offensichtlichen Geräten wie Büro-PCs und Maschinensensoren gibt es meist auch solche, die keiner auf dem Radarschirm hat. In diesem verborgenen Internet of Things könnten Einfallstore für Cyberkriminelle sein.‣ weiterlesen

Die Erwartungen an die wirtschaftliche Entwicklung gehen laut aktueller ZEW-Zahlen im Oktober zurück. Die Einschätzung der aktuellen konjunkturellen Lage hat sich jedoch erneut verbessert.‣ weiterlesen

Die MPDV hat seit Oktober drei neue Geschäftsführer. Nathalie Kletti, Thorsten Strebel und Jürgen Petzel stehen an der Spitze des Unternehmens.‣ weiterlesen

Die Verschmelzung von Operational Technology (OT) und IT bietet Vorteile. Um sie zu nutzen, müssen sich Fabrikbetreiber aber zunächst mit einem tragfähigen IT-Sicherheitskonzept befassen. Die Eckpfeiler sind Transparenz, Kontrolle und Reaktionsfähigkeit.‣ weiterlesen

Bild: DSAG Deutsche SAP Anwendergruppe e.V.

Im Rahmen der Mitgliederversammlung der Deutschsprachigen SAP-Anwendergruppe (DSAG) wurden im Vereins- und Fachvorstand insgesamt neun Positionen neu oder wieder besetzt. Unter anderem ist Jens Hungershausen neuer Vorstandsvorsitzender. ‣ weiterlesen

Der Maschinen- und Anlagenbauer Dürr beteiligt sich an der Industrial Cloud von Volkswagen und AWS. Zuerst werden Teile des DXQ-Portfolios über die Cloud bereitgestellt. Volkswagen-Werke und Partnerunternehmen des Autobauers können die Lösungen dann ähnlich wie aus einem B2C-App Store beziehen und etwa zur Produktionsoptimierung einsetzen. Der Maschinen- und Anlagenbauer verspricht sich vom Projekt hingegen, das Feedback der Anwender zur Verbesserung der eigenen Applikationen nutzen zu können.‣ weiterlesen

Die Planung der Produktion kann das Personal einige Zeit kosten. Warum also nicht eine künstliche Intelligenz einsetzen, um die Planer zu unterstützen? Auf diese Weise gelang es dem Verpackungs-Spezialisten Constantia Teich, die Termintreue zu erhöhen.‣ weiterlesen

Inmitten der sich verschärfenden Wirtschaftskrise wenden sich immer mehr Industrieunternehmen dem Industrial Internet of Things (IIoT) zu, um ihre Anlagen aus der Ferne zu überwachen und ungeplante Ausfallzeiten zu verhindern. Ein wichtiger Aspekt ist dabei die Nachrüstung alter Anlagen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige