PLM in Zeiten hoher Komplexität

Anpassbarkeit ist alles

Trends wie das Internet of Things zeigen, dass sich Unternehmen in Produktentwicklung, Konstruktion und Fertigung mit Veränderungen auseinandersetzen müssen. Um den Anschluss im Markt nicht zu verlieren und im Wettbewerb die Nase vorn zu haben, müssen Unternehmen auf alle Herausforderungen passend und möglichst schnell reagieren können.



Bild: Aras Corp.

Das gilt auch für das PLM-System eines Unternehmens. Es muss sich einfach an die sich verändernde Umgebung anpassen können, ohne dass Unternehmen währenddessen ihre Produktion anhalten müssen. Sobald ein PLM-System diese Anpassbarkeit nicht mehr liefern kann, wird es für das Business des Unternehmens irrelevant. Es ist zumeist auch nicht zielführend, für spezifische Trends maßgeschneiderte Softwarelösungen zu entwickeln, die dann exakt auf bestimmte Szenarien passen. Kommt nämlich eine unvorhergesehene Situation auf das Unternehmen zu, lassen diese Lösungen keine agile Reaktion zu. Abgesehen davon entstehen so auch weitere, meist nicht integrierte Datensilos. Daher muss eine zukunftssichere PLM-Lösung flexibel genug sein, um bislang noch unbekannte Anforderungen künftig problemlos abdecken zu können – und das mit so wenig Aufwand wie möglich.

Zukunftsfähig aufstellen

Es ist sehr wahrscheinlich, dass künftig über den Produktlebenszyklus hinweg noch mehr Daten anfallen als dies heute bereits der Fall ist. Das Internet of Things bindet schon jetzt Sensoren und Aktoren in großer Zahl an das Internet. Allein dadurch entsteht ein gewaltiges Datenvolumen, das sinnvoll verwaltet, analysiert und genutzt werden muss. Zusätzlich müssen diese Daten in Beziehung zur jeweiligen Produktkonfiguration gebracht und betrachtet werden. Das setzt allerdings flexible Systeme voraus, die damit umgehen können. Außerdem zeichnet sich ab, dass produzierende Betriebe immer häufiger kleine Serien hochindividueller Produkte fertigen, anstatt – wie bisher häufig der Fall – ein Standardprodukt in großen Mengen. Darüber hinaus verkürzen sich Markteinführungszeiten. Die Reaktion auf Anforderungen seitens der Kunden und Partner ist immer rascher gefragt. Häufig enthalten Produkte außerdem elektronische Komponenten und Software. Das erfordert die enge Zusammenarbeit verschiedener Disziplinen und Abteilungen, die in gemeinsame Prozesse eingebunden werden müssen und Zugang zu unterschiedlichen Daten brauchen.

Anpassungen sind aufwendig

Viele bestehende PLM-Lösungen sind aus historischen Gründen aus verschiedenen Lösungen für einzelne Teilbereiche zusammengestückelt und ungleichmäßig integriert. Sie sind nicht flexibel genug, um den individuellen Ansprüchen der Anwender und den wechselnden Bedingungen gerecht zu werden. Die Ursache dafür ist im grundsätzlichen Aufbau dieser Systeme zu suchen. Praktisch alle herkömmlichen Lösungen setzen auf Compiler/Code-basierte Architekturen. Das heißt, die Geschäftslogik und das Datenmodell sind in Skripten und damit im Quellcode definiert. Um nun Änderungen an einem solchen System vorzunehmen oder neue Funktionen hinzuzufügen, ist aufwendige Programmierarbeit nötig. Der Quellcode muss umgeschrieben oder ergänzt und anschließend neu kompiliert werden, Verlinkungen sind neu aufzubauen, zuletzt muss die neue Version an alle angebundenen Instanzen verteilt werden. Das setzt zum einen detailliertes Know-how über den proprietären Quellcode und Kenntnisse der jeweiligen Programmiersprache voraus. Zum anderen dauert dieser fehleranfällige Prozess etliche Wochen oder sogar Monate, was die Prozesse im Unternehmen bremst. Zudem ist dieses Vorgehen dadurch enorm kostenintensiv. Unternehmen sind nicht mehr in der Lage, schnell auf neue oder geänderte Anforderungen zu reagieren.



Unternehmen müssen sich in Produktentwicklung, Konstruktion und Fertigung permanent mit Veränderungen auseinandersetzen müssen. Bild: Aras Corp.

Komplizierte Upgrades

Erst recht kompliziert wird es, wenn ein Versionsupgrade des PLM-Systems ansteht. Hat das Unternehmen viele individuelle Funktionen und Anpassungen am System vorgenommen, dann müssen diese wieder komplett hart codiert in die neue Version übertragen werden. Der Worst Case: Die Software hat sich inzwischen zu weit vom bisher eingesetzten Release entfernt und zwingt den Anwender, Funktionen oder Anpassungen von Grund auf neu zu entwickeln. Unter Umständen wirft ein solches Ereignis das komplette PLM-Projekt weit zurück, bisher getätigte Investitionen waren möglicherweise nutzlos. In jedem Fall liegt der hauptsächliche Aufwand beim Anwender selbst. Die Verantwortlichen befinden sich damit in einer Zwickmühle: Entweder warten sie mit einem Upgrade so lange wie möglich. Das birgt das Risiko, den Anschluss zu verlieren und benötigte Features der neuen Versionen nicht einsetzen zu können. Oder Unternehmen lassen sich auf das Upgrade und damit schwer kalkulierbare, aber unvermeidliche Anpassungen ein.

Stellt sich dabei etwa heraus, dass eine wichtige Funktion des bestehenden Systems vom neuen Release nicht mehr unterstützt wird, ist es häufig schon zu spät für ein Zurück. Oft halten Anwender daher an veralteten Versionen fest, koste es, was es wolle. Und das ist hier im finanziellen Sinn wörtlich zu nehmen. Oft kommen sogar nötige Updates in anderen Bereichen dadurch nicht zustande. So können manche Unternehmen nicht auf neue Betriebssysteme migrieren, da ihr PLM-System diese nicht unterstützt. Das Unternehmen bleibt auf alter IT-Technologie sitzen und verliert den Anschluss. Um Investitionen in ein individuell eingerichtetes, integriertes System zu erhalten, ist ein PLM-System resilient aufzustellen, das heißt ein System für einen Produktlebenszyklus von mehr als 20 Jahren auszulegen. Während viele Anbieter PLM als ein Projekt verstehen, welches nach der Implementierung abschließt, ist diese Betrachtung zu kurz gefasst. Gartner Research hat ermittelt, dass über die Hälfte der Gesamtbetriebskosten über einen Zeitraum von fünf Jahren für eine konventionelle Anwendung wie PLM für Beratungen und interne Ressourcen anfallen, um das System zu warten und zu aktualisieren.

Anforderungen ändern sich

PLM ist als eine Reise zu begreifen. Während der Reisezeit ändern sich die Marktbedingungen und -Anforderungen kontinuierlich. Das System hat also einerseits den gesamten Zyklus zu überdauern, andererseits jedoch immer wieder auf Veränderungen zu reagieren. Ein wichtiger Aspekt bei der Realisierung eines anpassungsfähigen Systems ist die passende Technologie. Hier ist es entscheidend, die bisher gängige starre, fest im Quellcode verankerte Verbindung von Objektmodell, Geschäftslogik, Services und Datenbank aufzubrechen. Dies gelingt mit einer serviceorientierten Architektur (SOA) als Grundlage, die die unterschiedlichen, verbundenen Services wie Workflows, Lifecycles oder Berechtigungen zur Verfügung stellt. Darauf setzen Applikationen für die verschiedenen Anwendungsbereiche auf, wie zum Beispiel Anforderungsmanagement, Qualitätsmanagement oder Dokumentenmanagement. Nur auf der Plattformebene werden im Fall eines Upgrades Änderungen und Neuerungen umgesetzt. Die Applikationen − sowohl die vom PLM-Anbieter bereitgestellten als auch Eigenentwicklungen der Anwender − werden nicht beeinflusst. Auf die Services in diesem Laufzeit-Framework greifen Metadaten-Templates zu.

Diese Templates sind komplett in XML erstellt und definieren alles für den Anwender Relevante. Geschäftslogiken, Lösungsmodelle, Funktionen, Arbeitsabläufe – alles wird in Form normalisierter Datenstrukturen in der Datenbank abgelegt. Man kann hier von einer modellbasierten SOA sprechen. Die Vorteile dieses Ansatzes liegen auf der Hand: Lösungs- und Geschäftsmodelle lassen sich in Echtzeit über einen Browser-basierten Client kombinieren, verändern und erweitern. Aufwendige Programmierung und Neukompilierung für jede noch so kleine Änderung gehört damit der Vergangenheit an. Im Fall eines Versionsupgrades fallen Änderungen nur an der zugrunde liegenden Plattform an. Das Upgrade ist für Unternehmen daher weder mit Downtime noch mit Aufwand verbunden, die Modellierebene ist davon gänzlich unberührt. Einige PLM-Anbieter übernehmen sämtliche Upgrades für die Kunden komplett, und das inklusive aller vom Kunden vorgenommen Anpassungen. Die Tatsache, dass das vollständige System auf offenen Standards und Internetprotokollen beruht, sorgt darüber hinaus für Transparenz und Sicherheit: Das System lässt sich reibungslos in vorhandene Umgebungen integrieren, die Daten sind jederzeit ohne spezielle, proprietäre Werkzeuge und Kenntnisse einsehbar. Dadurch wird der Anwender unabhängig von einem bestimmten Anbieter, es kommt nicht zum Vendor-Lock-in. Unternehmen können dadurch ihre Geschicke in Sachen PLM völlig selbst bestimmen.

Wissen konservieren

Der Autor Martin Allemann ist Senior Vice President Global Operations bei der Aras Corp.

In der Luftfahrt sind Lebenszyklen von PLM-Systemen von 20 Jahren und mehr an der Tagesordnung. Entsprechend lang müssen Unternehmen auch nachvollziehen können, wann was an dem Produkt modifiziert wurde und welchen Status jedes einzelne Teil hat. Kollaborations-Tools unterstützen dabei, dieses Wissen und die Informationen innerhalb des Unternehmens verfügbar zu haben. Mit ihnen lassen sich Änderungen an 3D-Modellen, Dokumenten und anderen Datentypen problemlos über Abteilungen, Standorte oder sogar mehrere Unternehmen hinweg teilen. In sicheren Chaträumen können Anwender 2D- und 3D-Grafiken ebenso teilen wie Office-Dokumente und andere Dateien. Die Daten bleiben dort im passenden Kontext erhalten und für alle Beteiligten verfügbar. Sollten Mitarbeiter das Unternehmen verlassen, bleibt ihr Know-how greifbar. Außerdem ist die reibungslose Zusammenarbeit in internationalen Kontexten oder über die Lieferkette hinweg sehr einfach möglich. Der Druck auf Hersteller nimmt aufgrund erhöhter Compliance- und Haftungsanforderungen weltweit zu. Sie sind gut beraten, ihre Informationen zu Produkten sorgfältig zu dokumentieren. Nahezu in allen Branchen kommt zudem ein steigender Software- und Elektronikteil in den Produkten zum Einsatz. Ein anpassungsfähiges System unterstützt die Unternehmen dabei, in dynamischen Zeiten flexibel auf Veränderungen reagieren zu können und sich zukunftsfähig aufzustellen.







  • Lohnt sich ein Retrofit?

    Oft ist unklar, ob es sich lohnt, ältere Maschinen mit neuen Sensoren auszustatten. Im Projekt ‚DiReProFit‘ wollen Forschende dieses Problem mit künstlicher…


  • MVTec eröffnet Niederlassung in Taiwan

    Bereits seit 2020 unterhält MVTec ein Vertriebsbüro in Taiwan. Dieses wertet der Bildverarbeitungsspezialist nun zu einer eigenen Niederlassung, der MVTec Taiwan, auf.


  • KI in Fertigungsbranche vorn

    Die neunte Ausgabe von Rockwell Automations „State of Smart Manufacturing“ Report liefert Einblicke in Trends und Herausforderungen für Hersteller. Dazu wurden über…


  • Ein Stück näher am Quanteninternet

    Das Quanteninternet verspricht signifikante Verbesserungen in verschiedenen technologischen Schlüsselbereichen. Um dieses jedoch im bestehenden Glaserfasernetz zu realisieren, sind Quantenfrequenzkonverter nötig, die die…


  • Innovationstreiber Thin[gk]athon: Kollaborative Intelligenz trifft auf Industrie-Expertise

    Der Thin[gk]athon, veranstaltet vom Smart Systems Hub, vereint kollaborative Intelligenz und Industrie-Expertise, um in einem dreitägigen Hackathon innovative Lösungsansätze für komplexe Fragestellungen…