Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Software-Management

Die Komplexität im IT-Betrieb reduzieren

Der Bedarf nach einer einheitlichen Entwicklungs- und Betriebslösung für physische, virtuelle, Private- und Public-Cloud-Umgebungen ist eine verständliche Reaktion auf die stetig wachsende Komplexität der Unternehmens-IT.



Bild: RedHat, Inc.

Die IT-Infrastrukturen in den Unternehmen sind in den letzten Jahren zunehmend unübersichtlich geworden. Zusätzlich zu physischen und virtualisierten Umgebungen nutzen einzelne Fachbereiche in den Unternehmen auch unterschiedliche Arten von Private und Public Clouds. Alle diese vielfältigen Umgebungen sind aufgrund konkreter IT- und Geschäftsanforderungen unabhängig voneinander entstanden. Das Ergebnis ist eine heterogene Infrastruktur klar voneinander getrennter IT-Silos. Eine Trendumkehr ist bereits erkennbar. Die einstmals autonom voneinander entstandenen IT-Inseln in den Fachbereichen suchen Anschluss – nicht zuletzt deshalb, weil der Aufwand für das erforderliche Maß an IT-Sicherheit, den Betrieb und die Verwaltung für einzelne Organisationseinheiten kaum noch zu leisten und überdies ineffizient ist. Dazu kommt, dass im Alltag die Grenzen zwischen den vier IT-Bereitstellungsmodellen – physisch, virtuell, Private und Public Clouds – immer häufiger verschwimmen. Vielfach ist im Laufe der Zeit ein Beziehungsgeflecht zwischen den anfänglich getrennten Architekturen entstanden. Für IT-Abteilungen und CIOs bedeutet dies, dass sie nach Möglichkeiten suchen, um die unterschiedlichen Bereitstellungsmodelle mit einer einheitlichen Management-Lösung steuern und verwalten zu können. Ein entscheidender Punkt dabei: Für die Benutzer aus den einzelnen Fachbereichen sollte sich die konsolidierte Infrastruktur als eine durchgängige Einheit präsentieren. Modellmäßig entsteht dabei ein gemeinsam genutzter Ressourcenpool, der den Anwendern in den Fachbereichen die Server-, Speicher- und Netzwerk-Services für alle Applikationen bereitstellt. Ergänzend dazu benötigt die IT-Abteilung eine Lösung, um die Anwendungen und Ressourcen effizient zu verwalten – und zwar unabhängig davon, in welchem der vier Bereitstellungsmodelle eine Applikation läuft.

Konvergenz und gemeinsame Verwaltung

Die Fundamente einer durchgängigen Lösung, wie sie einige Unternehmen zur Steuerung und Administration ihrer Rechenzentren einsetzen, bilden Platform-as-a-Service- (PaaS)- und Infrastructure-as-a-Service (IaaS)-Umgebungen. Mit der erster sind Entwickler in der Lage, Applikationen effizienter und schneller zu schreiben und Anwendern bereitzustellen. Eine PaaS-Umgebung wie OpenShift von Red Hat unterstützt Entwickler bei der Erstellung von Software-as-a-Service (SaaS)-, PaaS- und On-Premise-Applikationen. Sie muss in der Lage sein, sich schnell und flexibel an neue Anforderungen eines Unternehmens anzupassen. Komplementär dazu zählt zu den zentralen Aufgaben einer IaaS-Umgebung wie der Red Hat Enterprise Linux OpenStack Platform ein skalierbarer und ausfallsicherer Betrieb der gesamten Server-, Speicher- und Netzwerk-Services.



Platform-as-a-Service vereint wichtige Trends für den Aufbau einer Cloud-Infrastruktur, die Architektur verteilter Anwendungen (Microservices), die Bereitstellung von Containern sowie die Entwicklung und den Betrieb von Anwendungen (DevOps).
Bild: RedHat, Inc.

Applikationen bewegen

Die Portabilität von Applikations-Containern spielt eine wichtige Rolle, wenn Applikationen problemlos zwischen den vier IT-Bereitstellungsmodellen hin- und herbewegt werden sollen. Container haben sich seit einiger Zeit in der Linux-Welt zu einer zentralen Applikations-Packetierungs- und Bereitstellungsmethode herausgebildet. Entwickler verwenden diese, weil sie eine einfache und schnelle Bereitstellung von Applikationen ermöglicht und sich als Katalysator für das DevOps-Konzept erweist.



Linux-Container enthalten eine Applikation und die zum Ablauf benötigten Runtime-Libraries.
Bild: RedHat, Inc.

Container sind schnell betriebsbereit

Linux-Container vereinen zwei Vorgehensweisen: Erstens bieten sie eine Möglichkeit zur Softwarepaketierung, mit der Entwickler Applikationen zusammen mit ihren Laufzeit-Abhängigkeiten bündeln und ausführen können. Solche Container sind schnell betriebsbereit und portabel, da sie die komplette Applikationsumgebung enthalten. Zweitens bieten sie die Möglichkeit, Applikationen isoliert und performant unter einem Host-Betriebssystem bereitzustellen. Gemeinsam ist den beiden Ansätzen, dass den Containern die Systemressourcen fest zugeordnet werden. Container zeichnen sich dadurch aus, dass sie konsistent über verschiedene Betriebsmodelle hinweg eingesetzt werden können – angefangen von einem Standalone Container Host über eine IaaS- und eine PaaS-Umgebung bis hin zur Public Cloud. Entwickler erstellen beispielsweise einen Applikations-Container unter Red Hat Enterprise Linux und können sie dann auf physischer Hardware, in einer virtuellen Maschine, einer Private oder Public Cloud betreiben. Bedingt durch Eigenschaften des Linux-Kernels lassen sich Applikationen weitgehend von der jeweiligen Umgebung trennen und damit autonom betreiben – einschließlich der Prozesse, der Dateisysteme oder Netzwerke. Da Applikationsabhängigkeiten innerhalb des Containers residieren, können Administratoren Applikationen autonom über kompatible Linux-Systeme hinweg verschieben. Die IT bewegt sich heute in Richtung eines Infrastrukturmodells, in dem Laufzeitabhängigkeiten in einem Container zusammen mit der Applikation gebündelt und nicht mehr mit einem kompletten Betriebssystem-Image versehen sind. Container-Technologien werden in der Linux-Welt eine zentrale Rolle bei der Bereitstellung und Verwaltung von Applikationen spielen und damit die Komplexität reduzieren.


Das könnte Sie auch interessieren:

Im Anschluss eines IT-Projektes setzen viele Unternehmen auf eine Rückschau, um daraus Erkenntnisse für kommende Projekte zu gewinnen. Für das Projekt selbst kommt dieses Wissen zu spät. Beim agilen Projektmanagement ist das anders. Aber passen Sprints und 'Lessons-Learned' zur Projektarbeit mit hohen Compliance-Ansprüchen?‣ weiterlesen

Um Maschinendaten etwa für Predictive Maintenance zu erfassen und zu verarbeiten, gibt es sehr individuelle Lösungen. Vom Mini-PC bis zum Edge Device samt Middleware lassen sich Konzepte für datengetriebene Aufgaben realisieren. Am Beispiel des SAP-Portfolios zeichnet der Beitrag die Szenarien nach.‣ weiterlesen

Um digitale Zwillinge produktiv einzusetzen, muss das Zusammenspiel der Informationen aus Engineering, Shopfloor und Topfloor rund laufen. Mit dem SAP-Portfolio lässt sich dieser Digital Thread spannen, wie neue Geschäftsmodelle des Prozesstechnikherstellers Endress+Hauser belegen.‣ weiterlesen

Auch 2022 werden sich die IT-Systeme von Unternehmen weiterentwickeln. Oliver Rozić, Vice President Product Engineering bei Sage, weiß wie und welche Trends dabei eine Rolle spielen könnten.‣ weiterlesen

Die Bamberger Docufy hat im März 2021 die Instandhaltungssoftware Maintenance Manager auf den Markt gebracht. Das System soll Anlagenbetreibern helfen, ihre Regelwartung mit Maschinendaten so zu verknüpfen, dass eine vorausschauende und zeitoptimierte Wartung möglich wird. Zudem kommen Firmen mit dem Computerized Maintenance Management System einen großen Schritt weiter in Richtung Predictive Maintenance.‣ weiterlesen

Im internationalen Vergleich belegt Deutschland bei der Digitalisierung keine Spitzenposition, sondern tendiert eher zum Mittelfeld. So zumindest legt es eine Studie des Ifo Instituts nahe. Demnach sei nicht nur die Politik, sondern auch die Unternehmen selbst gefragt.‣ weiterlesen

Gerade betagte Bestandsmaschinen lassen sich oft nur schwierig an IT-Systeme anbinden. Für eine tiefe Integration müsste häufig sogar deren Automatisierungstechnik getauscht werden, was dann aus Kostengründen unterbleibt. Doch Edge-Boxen können selbst älteren Maschinen eine Menge Daten für Optimierungsprojekte und die Mitarbeitervernetzung entlocken.‣ weiterlesen

Kontron Electronics hat mit Wirkung zum 1. Dezember den Geschäftsbetrieb des EMS-Dienstleisters Ultraschalltechnik Halle (UST) übernommen. Ziel der Übernahme ist es laut Pressemitteilung, die eigene Kompetenz im Bereich Entwicklung und Produktion auszubauen.‣ weiterlesen

Bauteilschwingungen, die bei vielen Fertigungsverfahren entstehen, führen oftmals dazu, dass die Oberfläche des Werkstücks beschädigt wird. Darüber hinaus sind sie ein Grund für erhöhten Werkzeugverschleiß. Das Fraunhofer-Institut für Produktionstechnologie IPT hat gemeinsam mit Industriepartnern einen digitalen Zwilling entwickelt, mit dem Bauteilschwingungen bei der Fräsbearbeitung vorhergesagt werden können.‣ weiterlesen

Jacqueline Fechner ist neue General-Managerin für die DACH-Region bei DXC Technology und soll künftig die Geschicke des IT-Dienstleisters in Deutschland, Österreich und der Schweiz verantworten.‣ weiterlesen

Ein Erfolgsfaktor für das Konzept des digitalen Zwillings ist, dass es sich entlang des gesamten Lebenszyklus eines Produkts anwenden lässt. Bevor mittelständische Unternehmen seinen individuellen Nutzen erschließen können, müssen sie einige praktische Herausforderungen lösen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige