Anzeige
Anzeige
Beitrag drucken

Software-Management

Die Komplexität im IT-Betrieb reduzieren

Der Bedarf nach einer einheitlichen Entwicklungs- und Betriebslösung für physische, virtuelle, Private- und Public-Cloud-Umgebungen ist eine verständliche Reaktion auf die stetig wachsende Komplexität der Unternehmens-IT.



Bild: RedHat, Inc.

Die IT-Infrastrukturen in den Unternehmen sind in den letzten Jahren zunehmend unübersichtlich geworden. Zusätzlich zu physischen und virtualisierten Umgebungen nutzen einzelne Fachbereiche in den Unternehmen auch unterschiedliche Arten von Private und Public Clouds. Alle diese vielfältigen Umgebungen sind aufgrund konkreter IT- und Geschäftsanforderungen unabhängig voneinander entstanden. Das Ergebnis ist eine heterogene Infrastruktur klar voneinander getrennter IT-Silos. Eine Trendumkehr ist bereits erkennbar. Die einstmals autonom voneinander entstandenen IT-Inseln in den Fachbereichen suchen Anschluss – nicht zuletzt deshalb, weil der Aufwand für das erforderliche Maß an IT-Sicherheit, den Betrieb und die Verwaltung für einzelne Organisationseinheiten kaum noch zu leisten und überdies ineffizient ist. Dazu kommt, dass im Alltag die Grenzen zwischen den vier IT-Bereitstellungsmodellen – physisch, virtuell, Private und Public Clouds – immer häufiger verschwimmen. Vielfach ist im Laufe der Zeit ein Beziehungsgeflecht zwischen den anfänglich getrennten Architekturen entstanden. Für IT-Abteilungen und CIOs bedeutet dies, dass sie nach Möglichkeiten suchen, um die unterschiedlichen Bereitstellungsmodelle mit einer einheitlichen Management-Lösung steuern und verwalten zu können. Ein entscheidender Punkt dabei: Für die Benutzer aus den einzelnen Fachbereichen sollte sich die konsolidierte Infrastruktur als eine durchgängige Einheit präsentieren. Modellmäßig entsteht dabei ein gemeinsam genutzter Ressourcenpool, der den Anwendern in den Fachbereichen die Server-, Speicher- und Netzwerk-Services für alle Applikationen bereitstellt. Ergänzend dazu benötigt die IT-Abteilung eine Lösung, um die Anwendungen und Ressourcen effizient zu verwalten – und zwar unabhängig davon, in welchem der vier Bereitstellungsmodelle eine Applikation läuft.

Konvergenz und gemeinsame Verwaltung

Die Fundamente einer durchgängigen Lösung, wie sie einige Unternehmen zur Steuerung und Administration ihrer Rechenzentren einsetzen, bilden Platform-as-a-Service- (PaaS)- und Infrastructure-as-a-Service (IaaS)-Umgebungen. Mit der erster sind Entwickler in der Lage, Applikationen effizienter und schneller zu schreiben und Anwendern bereitzustellen. Eine PaaS-Umgebung wie OpenShift von Red Hat unterstützt Entwickler bei der Erstellung von Software-as-a-Service (SaaS)-, PaaS- und On-Premise-Applikationen. Sie muss in der Lage sein, sich schnell und flexibel an neue Anforderungen eines Unternehmens anzupassen. Komplementär dazu zählt zu den zentralen Aufgaben einer IaaS-Umgebung wie der Red Hat Enterprise Linux OpenStack Platform ein skalierbarer und ausfallsicherer Betrieb der gesamten Server-, Speicher- und Netzwerk-Services.



Platform-as-a-Service vereint wichtige Trends für den Aufbau einer Cloud-Infrastruktur, die Architektur verteilter Anwendungen (Microservices), die Bereitstellung von Containern sowie die Entwicklung und den Betrieb von Anwendungen (DevOps).
Bild: RedHat, Inc.

Applikationen bewegen

Die Portabilität von Applikations-Containern spielt eine wichtige Rolle, wenn Applikationen problemlos zwischen den vier IT-Bereitstellungsmodellen hin- und herbewegt werden sollen. Container haben sich seit einiger Zeit in der Linux-Welt zu einer zentralen Applikations-Packetierungs- und Bereitstellungsmethode herausgebildet. Entwickler verwenden diese, weil sie eine einfache und schnelle Bereitstellung von Applikationen ermöglicht und sich als Katalysator für das DevOps-Konzept erweist.



Linux-Container enthalten eine Applikation und die zum Ablauf benötigten Runtime-Libraries.
Bild: RedHat, Inc.

Container sind schnell betriebsbereit

Linux-Container vereinen zwei Vorgehensweisen: Erstens bieten sie eine Möglichkeit zur Softwarepaketierung, mit der Entwickler Applikationen zusammen mit ihren Laufzeit-Abhängigkeiten bündeln und ausführen können. Solche Container sind schnell betriebsbereit und portabel, da sie die komplette Applikationsumgebung enthalten. Zweitens bieten sie die Möglichkeit, Applikationen isoliert und performant unter einem Host-Betriebssystem bereitzustellen. Gemeinsam ist den beiden Ansätzen, dass den Containern die Systemressourcen fest zugeordnet werden. Container zeichnen sich dadurch aus, dass sie konsistent über verschiedene Betriebsmodelle hinweg eingesetzt werden können – angefangen von einem Standalone Container Host über eine IaaS- und eine PaaS-Umgebung bis hin zur Public Cloud. Entwickler erstellen beispielsweise einen Applikations-Container unter Red Hat Enterprise Linux und können sie dann auf physischer Hardware, in einer virtuellen Maschine, einer Private oder Public Cloud betreiben. Bedingt durch Eigenschaften des Linux-Kernels lassen sich Applikationen weitgehend von der jeweiligen Umgebung trennen und damit autonom betreiben – einschließlich der Prozesse, der Dateisysteme oder Netzwerke. Da Applikationsabhängigkeiten innerhalb des Containers residieren, können Administratoren Applikationen autonom über kompatible Linux-Systeme hinweg verschieben. Die IT bewegt sich heute in Richtung eines Infrastrukturmodells, in dem Laufzeitabhängigkeiten in einem Container zusammen mit der Applikation gebündelt und nicht mehr mit einem kompletten Betriebssystem-Image versehen sind. Container-Technologien werden in der Linux-Welt eine zentrale Rolle bei der Bereitstellung und Verwaltung von Applikationen spielen und damit die Komplexität reduzieren.


Das könnte Sie auch interessieren:

Telefónica Tech erwirbt BE-terna und will damit seine Position als Technologie-Dienstleister stärken.‣ weiterlesen

Tim van Wasen tritt die Nachfolge von Stéphane Paté an und wird Geschäftsführer von Dell Technologies Deutschland.‣ weiterlesen

Überwachungssysteme, die vor Einbrüchen schützen sollen und sich per Smartphone-App steuern lassen, sollen die Nutzer in Sicherheit wiegen. Dass dieses Gefühl trügen kann, haben Studierende aus dem Studiengang Informatik an der Hochschule Emden/Leer im Rahmen eines Forschungsprojektes aufgedeckt.‣ weiterlesen

Das IT-Unternehmen Checkmarx hat das Tool Supply Chain Security vorgestellt. Das Programm zielt aber nicht auf die physische Lieferkette eines Produktionsunternehmens ab, sondern überwacht im Zusammenspiel mit Checkmarx Software Composition Analysis (SCA) den Health- und Security-Status von Open-Source-Projekten mit Blick auf mögliche Anomalien.‣ weiterlesen

Unternehmen haben bezüglich der Digitalisierung ihrer Qualitätsprozesse heute mehr Möglichkeiten denn je. Beim Blick auf klassische Produktionsunternehmen und deren Systemlandschaften kommen ERP- und CRM-Systeme, MES-Software und CAQ-Lösungen zum Vorschein, die durch offene Schnittstellenkonzepte wie OpenAPI in Summe wesentlich mehr Integrationsmöglichkeiten als früher mitbringen.‣ weiterlesen

Mit der weltgrößten Spaltrohrmotorpumpe mit Explosionsschutz konnte Hermetic-Pumpen für Aufsehen sorgen. Um bei der Entwicklung und Fertigung der Spezialpumpen erforderliche Normen und Vorgaben möglichst effizient umzusetzen, setzt der Hersteller aus Gundelfingen auf ein Integriertes Managementsystem.‣ weiterlesen

Mit einem Manufacturing Execution System (MES) können mittelständische Fertigungsbetriebe ihre Produktion digitalisieren und sie so auf komplexere Marktanforderungen ausrichten. Auf welche Funktionalitäten Fertiger achten sollten, zeigt der folgende Beitrag.‣ weiterlesen

Das Maschinenbauunternehmen Schenck Process hat die serverlose, modulare IoT-Plattform Coniq Cloud auf den Markt gebracht. Das System ist als IoT-Backbone für die eigenen Maschinen gedacht und bietet Anwendungsprogramme etwa zu Optimierung von Produktionszeiten und für Datenauswertungen.‣ weiterlesen

Komplexe Fertigung in Kombination mit hohem Termindruck führten beim Maschinenbauer Knoll dazu, dass lediglich 53 Prozent der Liefertermine zu halten waren. Nach der Einführung der PPS-Lösung von LF Consult liegt die Termintreue bei über 90 Prozent - bei kürzeren Durchlaufzeiten.‣ weiterlesen

Wenn sich am 30. Mai die Hallentore zum Flagschiff der Deutschen Messe öffnen, kann das als Startschuss für das postpandemische Messegeschehen gelten. Denn die Hannover Messe nimmt traditionell eine Sonderrolle unter den Industrieausstellungen ein. Grund dafür ist auch das hochkarätige Begleitprogramm, das diesmal mit 600 Vorträgen auf sechs Bühnen die Angebote der 2.500 Aussteller einrahmt.‣ weiterlesen

In diesem Jahr findet die Intralogistikmesse Logimat wieder in Präsenz statt. Und laut Veranstalter bewegen sich die Buchungen wieder auf Vor-Pandemie-Niveau. 1.500 Aussteller werden vom 31. Mai bis zum 2. Juni in Stuttgart erwartet.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige