Anzeige
Anzeige
Beitrag drucken

Mit FinOps Kosten und Planung im Griff

Wertbeitrag auf den Tisch

Die Spielräume und Restriktionen agiler IT-Organisationen sind komplex zu steuern – IT, Finanzabteilung und das Management haben so ihre eigenen Perspektiven. Damit Cloud und DevOps im agilen Taktschlag einer belastbaren Kosten-Nutzen-Analyse unterzogen werden können, braucht es eine Brücke: FinOps.

 (Bild: ©Gorodenkoff/Shutterstock.com)

(Bild: ©Gorodenkoff/Shutterstock.com)

Ein ‚One-fits-all‘-Management funktioniert für eine agile IT-Organisation nicht. Neben der Dynamik, die DevOps und Cloud-Engineering mit sich bringen, bedarf es eines gemeinsamen Verständnisses zwischen IT, Finanzabteilung und Unternehmensführung, die eine Steuerung von agilen IT-Organisationen komplex macht. Zumal sich die jeweiligen Ziele in der Software- und Produktentwicklung unterscheiden, was für eine ganzheitliche Bewertung jeweils unterschiedliche Leistungskennzahlen, Budget-Planungen und Erfolgsmetriken erfordert. Ganzheitlich bedeutet, dass die drei Achsen Geschwindigkeit, Kosten und Qualität gleichermaßen als Erfolgsfaktoren erfasst werden:

  • •  Optimierung hinsichtlich Geschwindigkeit statt Kosten – etwa für eine verkürzte Markteinführungszeit von Innovationen oder höheren Mehrwert durch beschleunigte Services.
  • •  Optimierung hinsichtlich Qualität statt Kosten – etwa um die Leistungsfähigkeit einer Plattform durch mehr Instanzen im Analyse-Cluster zu verbessern.
  • •  Optimierung hinsichtlich Kosten statt Geschwindigkeit – etwa die Umstellung von nicht-zeitkritischen Diensten auf günstigere Instanzen, um Margen zu verbessern.

Um dies in den Griff zu bekommen, etablieren sich in Anlehnung an DevOps sogenannte FinOps. Mithilfe von Best Practices und technischer Methoden unterstützen FinOps Entscheidungs- und Reporting-Prozesse zwischen IT, Finanzabteilung und Unternehmensmanagement für eine kontinuierliche Verbesserung und Justierung agiler Produktentwicklung. FinOps ist als kontinuierlicher Prozess zu verstehen, der unterschiedliche Schritte erfordert.

Schluss mit Schätzwerten

Zuordnung von Ausgaben – Sobald Cloud- und DevOps-Ausgaben nach Kostenstellen, Anwendungen und Business Units zugeordnet werden, können sie auch im Hinblick auf ihren Wertbeitrag erfasst werden. Wichtig ist dabei, dass das Cloud-Tagging strukturiert erfolgt und nach Entwicklung, Test und Produktion kategorisiert. Geht es um Kosten je Serviceeinheit im Zeitverlauf, die Schwankungen unterliegen, gilt es, geeignete Mittelwerte heranzuziehen oder Management-Tools für die Echtzeitmessung mit Kostenfolgen einzusetzen. Eine genaue Ausgabentransparenz für Cloud erfordert, dass alle individuell ausgehandelten Raten, Rabatte sowie amortisierte Vorauszahlungen von Rechnerinstanzen berücksichtigt werden. Damit wird sichergestellt, dass die Kalkulation des Finanzteams mit den täglichen Ausgabenberichten der IT übereinstimmt. Anschließend können Showback- und Chargeback-Mechanismen eingeführt werden, um über verursachte Kosten zu informieren bzw. diese zuzuordnen.

Planung ohne Überraschungen

Präzision von Budgets und Prognosen – Durch die Transparenz der Vollkosten und verursachergerechten Zuordnung lassen sich für DevOps-Projekte die Budgets und Kostenprognosen seitens der IT präziser veranschlagen, auf die Geschäftsziele ausrichten und in Abstimmung mit Finanzverantwortlichen zeitnah anpassen.

Wissen, was läuft

Transparenz durch Analysen und Leistungsvergleiche – Auf der Basis der ersten Schritte sind neben Standardberichten auch Ad-hoc-Vergleiche von Zeiträumen sowie Detailberichte zu einzelnen Ressourcen möglich, um Kostentreiber zu finden. Mit Scorecards lässt sich in einem Benchmark ermitteln, wie verschiedene Projektteams hinsichtlich der Optimierung von Kosten, Geschwindigkeit und Qualität abschneiden. Das ist eine schnelle Möglichkeit, nach Bereichen zu suchen, die verbessert werden können.

Analytische Übersicht der Cloud-Rechnungen nach Providern in Korrelation zur Cloud-Nutzung. (Bild: Apptio Germany/DACH)

Analytische Übersicht der Cloud-Rechnungen nach Providern in Korrelation zur Cloud-Nutzung. (Bild: Apptio Germany/DACH)

Hebel richtig ansetzen

Ab dem zuvor genannten Schritt startet die Phase der Optimierung. Dazu zählt die systemgestützte Erkennung von Anomalien, überschrittenen Schwellenwerten von Ausgaben oder ungewöhnlichen Nutzungsspitzen. Nachdem IT-Teams ihre realen Ausgaben und die entsprechende Nutzung sehen, können auch einfacher ungenutzte Cloud- und Services-Ressourcen identifiziert werden. Dies hilft auch Prozesse vorzudefinieren, um Instanzen und Services korrekt zu dimensionieren.

Spielraum für Verhandlungen

Metriken, die anhand der erfassten Kosten- und Nutzungsdaten erstellt werden, erleichtern es den FinOps-Teams, Verpflichtungen und Reservierungen in der Cloud-Beschaffung sowie das Portfolio im Unternehmen zu analysieren, um Preisoptionen zu vergleichen, die optimalen Service-Pakete zu beauftragen, Rabatte auszuschöpfen und sich über Ablaufdaten von Verträgen einen Überblick zu beschaffen.

Strategisch gesteuerte IT

Mit diesen fünf Schritten haben IT, Finance und Management nun gemeinsam einen kontinuierlich verbesserten, systemgestützten Einblick in die Anforderungen und Kostenstrukturen ihrer agilen IT-Organisation. Dies ermöglicht es, über geeignete Management-Plattformen viele Prozesse und Analysen zu automatisieren und relevante Daten in nahezu Echtzeit rollenbasiert zur Verfügung zu stellen – anhand von definierter Governance und Zielen und unter Einsatz von Machine-Learning und KI-Engines. Dies betrifft beispielsweise Preis-Leistungsvergleiche von Rechen- und Speicherressourcen, die automatische Bereinigung nicht ausgelasteter Ressourcen, intelligente Empfehlungen zur Dimensionierung von Instanzen und deren Einplanung in Sprints.

Wertbeitrag verstehen lernen

FinOps schlägt die Brücke zwischen IT, Finanzabteilung und Management, schafft ein gemeinsames Verständnis für den Wertbeitrag der Technologie und ist damit ein wichtiges Instrument, um die Chancen von DevOps und Cloud zu mehr Agilität, besserer Qualität der IT Services und letztlich mehr Umsatz im Business voll auszuschöpfen.


Das könnte Sie auch interessieren:

Wer Produktion und Logistik in einer Echtzeit-Visualisierung abbildet, kann niedrigschwellig in die digitale Transformation einsteigen und viel Papier aus dem Shopfloor bannen. Ergänzt um zentrale MES-Funktionen lassen sich solche Visualisierungssysteme zur Operational Excellence-Plattform ausprägen, die bei fortlaufenden Prozessoptimierungen unterstützt.‣ weiterlesen

Industrielle Trends wie IIoT und Digitalisierung setzen immense Datenströme voraus. Doch im Gegensatz zur IT-Security für Büros müssen Fabrikbetreiber auf wesentlich mehr Stolpersteine achten, damit ihre Anlagen nicht schon einfachen Angriffen zum Opfer fallen.‣ weiterlesen

Ab und zu fehlte ein Schlüssel im Kloster der Franziskanerinnen der ewigen Anbetung von Schwäbisch Gmünd. Beim letzten Mal gab das den Impuls, anstatt neue mechanische Zylinder in die rund 220 Türen des Komplexes einzubauen, die alte Technik durch das Bluesmart-System von Winkhaus zu ersetzen.‣ weiterlesen

Mit 100,5 Punkten hält sich das IAB-Arbeitsmarktbarometer im November stabil und liegt weiter im leicht über der neutralen Marke. Auf europäischer Ebene sank der Frühindikator allerdings erneut.‣ weiterlesen

In einer neuen Expertise des Forschungsbeirats Industrie 4.0 untersuchen das FIR an der RWTH Aachen und das Industrie 4.0 Maturity Center den Status-quo und die aktuellen Herausforderungen der deutschen Industrie bei der Nutzung und wirtschaftlichen Verwertung von industriellen Daten und geben Handlungsempfehlungen für Unternehmen, Verbände, Politik und Wissenschaft.‣ weiterlesen

Im Forschungsprojekt FabOS soll eine KI-Bin-Picking-Anwendung entstehen, die ein verbessertes Erkennen, Greifen und definiertes Ablegen von Blechteilen in der Produktion ermöglicht.‣ weiterlesen

Die Digitalisierung des Qualitätsmanagements stellt Unternehmen vor Herausforderungen. Daher haben das Fraunhofer IPT und die FH Südwestfalen im Forschungsvorhaben 'Qbility - Quality 4.0 Capability Determination Model' ein datengetriebenes Reifegradmodell entwickelt, das die Anforderungen eines digitalisierten Qualitätsmanagements bei KMU adressiert.‣ weiterlesen