Anzeige
Beitrag drucken

Cloud Computing

Harmonische Produkt- und
Softwarezyklen in der Cloud

Nahezu jedes mit Software versehene Endgerät oder Bauteil ist betroffen: Die Entwicklung der Hardware folgt etablierten und relativ langen Zyklen, die zugehörige Software hingegen kann in immer schnelleren Zeiträumen verbessert werden. Die Lebenszyklen von Komponenten eines Gerätes laufen damit zusehends auseinander, je komplexer das jeweilige Gut ist. Auf dem Weg zu mehr Innovation und neuen Geschäftsmodellen sollte man diese Geschwindigkeiten jedoch harmonisieren.

Zyklen - Harmonische Produkt- und Softwarezyklen in der Cloud

Bild: Avanade Deutschland GmbH

Wenn heute ein Automodell auf den Markt kommt, ist sein Entertainment-System oft schon nicht mehr auf der Höhe der Zeit – weil sich die Welt der Software bereits weiterbewegt hat. Die Entwicklung von Hardware folgt einem anderen Rhythmus als es inzwischen bei Software der Fall ist. Die Gründe für einen solchen längeren klassischen Produktlebenszyklus sind mannigfaltig. Von den ersten Analysen bis zur Ankündigung können bis zu fünf Jahre vergehen, allein schon gesetzliche Anforderungen und Patentfragen sind umfangreiche Aufgaben. Daher sind solche Zyklen heute in vielen Branchen immer noch unvermeidbar, und sie werden es wohl auch eine ganze Weile noch bleiben.

Agile bis fluide Konzepte

Wie aber sollen die Vorteile des Internet of Things (IoT) oder von Industrie 4.0-Technologie unter diesen Voraussetzungen genutzt werden? Wo die Softwareindustrie das Wasserfallprinzip verlassen hat und inzwischen auf agile bis fluide Entwicklung setzt, stehen die monolithischen Bauteile wie Dinosaurier innovativen Geschäftsmodellen mitunter im Weg. Code wird heutzutage mit 100 und mehr Deployments pro Tag aktualisiert – optimierte Abläufe bei Entwicklung, Anpassung und Go-Live sind dafür verantwortlich. Dank der DevOps- und Scrum-Methoden brauchen Projektmanagement und Qualität dabei keine Vergleiche mit klassischen Vorgehensweisen zu scheuen. Die großen Cloudvorreiter wie Microsoft, Google, Amazon und Co. könnten der Industrie diesbezüglich durchaus als Vorbilder dienen. Einen besonderen Weg scheinen die Automobilhersteller zu gehen: Sie erfahren in manchen Bereichen Konkurrenz durch IT-Unternehmen, streben aber andererseits von sich aus immer stärkere Allianzen und Partnerschaften an. Ein weiterer Treiber der Entwicklung insgesamt liegt in den immer günstigeren und leistungsstärkeren Prozessoren. Ein Kompaktwagen verfügt heutzutage über bis zu 50 Steuergeräte – das ist nur möglich, weil diese Rechenleistung extrem günstig zu bekommen ist.

Dissonanz bei Innovationszyklen

Industrieprozesse laufen langsamer als die dynamischeren Softwareprozesse ab – das ist eine Tatsache, der sich die Unternehmen widmen müssen: Die Innovationszyklen müssen wieder ein Einklang gebracht werden. Denn erst wenn diese Kluft geringer wird, sind völlig neue Geschäftsmodelle möglich. Man denke nur an die Küchenmaschinen, auf die Nutzer direkt Rezepte gegen Gebühr herunterladen können. Doch eine solche Herausforderung ist nicht zu unterschätzen: Das Verfassen von Embedded Software für intelligente Systeme in der fertigenden Industrie findet in der Regel mit Hardware-nahen Programmiersprachen statt – diese halten nicht mit der Dynamik von Cloud Computing und somit einer IoT-Anwendung mit. Unternehmen müssen eingebettete Systeme also kommunikationsfähig gestalten, und zwar über alle Phasen des Lebenszyklus hinweg, auch solche Produkte mit tradierten Entwicklungsmechanismen.

Eine IoT-Anwendung liefert einen stetigen Datenfluss. Entwicklungsprozesse müssen sich schnell auf die verschiedenen Maßnahmen anpassen lassen, die auf dieser Datengrundlage beschlossen wurden.

Eine IoT-Anwendung liefert einen stetigen Datenfluss. Entwicklungsprozesse müssen sich schnell auf die verschiedenen Maßnahmen anpassen lassen, die auf dieser Datengrundlage beschlossen wurden.
Bild: Avanade Deutschland GmbH

Daten ab ovo berücksichtigen

Dafür muss von ersten Designideen an bereits der Datenstrom berücksichtigt werden, einschließlich zugehöriger APIs. Dass dabei auch immer die Kunst der Prognose erforderlich sein wird, lässt sich nicht vermeiden – zumindest bereits bekannte Größen hinsichtlich Daten und Planung sollten indes berücksichtigt werden. Externe Dienstleister können hier unterstützen, die erforderlichen Datendefinitionen anzupassen – ein Muss in der Entwicklungsphase. Angedachte Clouddienste müssen zudem zeitlich synchronisiert werden. Nach der Entwicklung hört diese Arbeit nicht auf: Wartungsarbeiten sollen das Budget so gering wie möglich belasten, was die Dynamik stetiger Änderungen konterkariert. Service Level Agreements werden so schnell zur Herausforderung. Insbesondere Hersteller mit komplexen Systemen sollten dies bedenken.

Erfahrung und Fähigkeiten

Es ist vielleicht einer der am meisten unterschätzten Vorteile der Cloud: Die Anbieter verfügen nicht nur über die erforderlichen Fähigkeiten bzw. Technologien, sondern durch die Vielzahl an Kunden mit Lösungen auch über enorme Erfahrung. Dieses Wissen hat dazu geführt, dass Cloudanbieter wie Amazon oder Microsoft besagte Herausforderungen erkannt haben. Das Ergebnis ist eine wachsende Zahl von Angeboten, wie unterschiedliche Geräte dauerhaft und zuverlässig Services nutzen können – das trifft insbesondere für Massenprodukte zu. Je individueller das einzubindende Gerät, desto mehr Aufwand muss in eine proprietäre Anpassung gesteckt werden.

Make and Buy richtig mischen

Ein Stück weit ist hier von einer Make-or-Buy-Problematik die Rede – und es wird fast immer darum gehen, über eine gute Mischung die Synchronisation von Produktlebens- und Cloudzyklen zu verbessern. Dabei werden voraussichtlich die drei Ebenen des Kommunikationsmanagements zwischen Geräten und der Cloud, zwischen den Datenströmen selbst sowie bei der Sicherheit relevant sein. Für den ersten Punkt kann Microsoft Azure als Illustration dienen: Verbundene Devices kommunizieren über ein ‚Hub‘ mit der Cloud. Die Ansteuerung der Hardware ist über native Protokolle oder Treiber und entsprechende Zertifikate des Cloudanbieters möglich. Sie spezifizieren die Voraussetzungen der Kommunikation zur ‚Device-Cloud‘. Zur Ebene der Datenströme: Werden für Geräte durch neue Hub-Konzepte Identitäten in der Cloud geschaffen, sind erweiterte Möglichkeiten der Steuerung und Auswertung der erzeugten Daten die Folge – bei Streamed Analytics geschieht das durch einen Echtzeit-algorithmus. Solche Real-Time-Optionen helfen etwa Industrieunternehmen bei Just-in-Time-Ansätzen ihrer Lieferkette. Der mögliche hohe Grad an Parallelisierung sorgt zudem für die Leistung, wie sie für Machine Learning und Predictive Maintenance nötig ist. Device-Hubs können über das aktive Sicherheitsmanagement mit regelmäßigen Updates auch die Sicherheit der Kommunikation mit der Cloud, also der dritten Ebene, verbessern. Gängige IT-Security-Konzepte lassen sich aus der Ferne anwenden. Zudem lässt sich das Sicherheitsmanagement an den Cloudanbieter oder andere Dienstleister auslagern.

Fazit

Ansätze mit Cloud und IT-Steuerung im Verbund mit IoT sind für produzierende Unternehmen inzwischen vielfach eine Selbstverständlichkeit. Der springende Punkt ist eher, mit diesen Konzepten Innovationen und Geschäftsmodelle zu forcieren.


Dr. Beatrix Ertsey ist Director Managed Services bei Avanade.Dr. Beatrix Ertsey ist Director Managed Services bei Avanade.


Das könnte Sie auch interessieren:

Seit 2001 setzt das Unternehmen Mondi in seinem Werk in Gronau auf Industrie-PCs von Noax. Mit ihnen stellt der Hersteller von Verpackungen und Hygieneartikeln eine zuverlässige Prozesssteuerung der gesamten Produktionskette sicher - samt Betriebsdatenerfassung und Dokumentation. Die daraus resultierende Rückverfolgbarkeit kommt dann auch dem Endkunden zu Gute.‣ weiterlesen

Unternehmen erhöhen ihre Investitionen in KI-Systeme zum Schutz vor der nächsten Generation von Cyberangriffen. Zu diesem Ergebnis kommt eine neue Studie des Capgemini Research Institute. Demnach glauben rund zwei Drittel der Unternehmen, ohne KI nicht in der Lage zu sein, auf kritische Bedrohungen reagieren zu können. Befragt wurden 850 Führungskräfte unterschiedlicher Branchen. ‣ weiterlesen

Ingenieure und Physiker von Giesecke+Devrient Currency Technology entwickeln magnetische, optische und Ultraschallsensoren für modulare Banknotenbearbeitungssysteme. Da experimentelle Messungen kaum möglich sind, sichert eine Multiphysik-Simulation die Präzision der Sensorik ab.‣ weiterlesen

Bei einem Treffen der Deutsch-Chinesischen Kommission Normung (DCKN) haben Vertreter des VDE DKE mit ihren chinesischen Kollegen eine stärkere Zusammenarbeit vereinbart.‣ weiterlesen

Festverbaute Panel-PCs beschränken das Human-Machine-Interface auf einen Punkt in der Fabrik - nämlich auf die jeweilige Maschine selbst. Mit industrietauglichen Tablets und Docking-Stationen agieren die Menschen im Werk deutlich flexibler.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige