Thesen zur Digitalisierung im Product Lifecycle Management

Was bringt die Zukunft?

Systemeinführung und Betrieb eines PLM-Systems sind kostenintensiv. Nach Einschätzung des PLM-Experten John Stark scheitert jedes zweite PLM-Projekt. Die Vernetzung von Produkten und Services über das Internet of Things (IoT) wirft die Frage auf, ob PLM damit nicht vollends überfordert ist. Ist PLM – so wie wir es heute kennen – ein Auslaufmodell, das durch Linked Data, Big Data oder selbstlernende Systeme obsolet wird? Oder anders gefragt, wie muss sich PLM verändern, um die Unternehmen bei ihrer digitalen Transformation optimal unterstützen zu können?



Künftige PLM-Architekturen müssen auf konsistenten, aber erweiterbaren Stamm- und Strukturdaten basieren, aber autonom und flexibel an veränderte Prozesse und Organisationsstrukturen anpassbare Funktionsbausteine bieten. Bild: © Kovalenko Inna/Fotolia.com

PLM-Experten von Anwendungsunternehmen, SoftwareHerstellern, Beratungshäusern und Hochschulen haben die Zukunft des Product Lifecycle Managements in einem Workshop diskutiert und dazu eine Reihe von Thesen zu Future PLM aufgestellt, um damit die Diskussion zu Anforderungen und Lösungsansätzen anzustoßen. Autoren dieses Thesenpapiers sind Sylke Rosenplänter, Bodo Machner, Thomas Kamps, Karsten Theis, Martin Eigner und Michael Wendenburg.Sie sind sich einig, dass es eine andere Art von PLM braucht. Im Folgenden werden die 22 herausgearbeiteten Thesen zusammengefasst.

Digitale Transformation

1. PLM muss sich neuen Aufgaben stellen: Die Digitalisierung von Produkt und Produktion wird die PLM-Welt verändern. Produkte werden über das IoT mit der Umwelt und dem Nutzer vernetzt. After Sales und Customer Service spielen für das Produktangebot eine immer wichtigere Rolle. Daten aus dem Betrieb der Produkte müssen mit den Engineering-Daten verknüpft, individualisierte Produkte in der intelligenten Fabrik ohne Zusatzaufwand gefertigt werden können.
2. Es gibt nicht ‘den’ digitalen Master: Kern eines zukünftigen PLM-Ansatzes ist die Aggregation und Verlinkung von verteilten Daten zu einem digitalen Master, das heißt eine durchgängige digitale Produktbeschreibung mit Daten aus Entwicklung, Fertigung und Betrieb. Dieser digitale Master muss schrittweise und föderativ aufgebaut werden und unterliegt einem ständigen Veränderungsprozess.
3. Digitale und reale Welt verschmelzen: Die Entwicklung von mit der Umwelt vernetzten Produkte und die Unterstützung service-orientierter Geschäftsmodelle erfordert die Verknüpfung traditioneller Produktdaten (im Sinne des Digitalen Masters) mit dem digitalen Abbild der ausgelieferten Produktkonfiguration (Digital Twin), die Nutzung und Verknüpfung mit Daten aus Produktion und Betrieb.
4. Future PLM ist Chefsache: Die digitale Transformation der Unternehmen ist Chefsache. PLM als Enabling Technology für die Digitalisierung muss daher im Vorstand beziehungsweise der Geschäftsführung verankert sein.

Prozesse und Methoden

5. Interdisziplinäres Denken ist ein Muss: Heutige PLM- und ERP-Prozesse sind stark durch die Mechanik geprägt und unterstützen Elektrik/Elektronik-Entwicklung, Software-Entwicklung und Dienstleistungsplanung unzureichend. Deren Prozesse sind wiederum nur bedingt auf die Mechanik-Entwicklung übertragbar. Notwendig sind einerseits angepasste PLM-Konzepte und andererseits Vereinbarungen, Methoden und Systemfunktionen für die domänenübergreifende Zusammenarbeit.
6. Future PLM braucht neue Strukturierungsansätze: Smart vernetzte Produkte und neue, serviceorientierte Geschäftsmodelle stellen die zentrale Bedeutung der klassischen Bill of Material (BOM) zur Strukturierung der Produktdaten in Frage. PLM muss Strukturierungsansätze für unterschiedliche Aufgabenstellungen unterstützen, zum Beispiel für das Anforderungsmanagement im Rahmen des modellbasierten Systems Engineerings (MBSE), die Kostenoptimierung oder das Projektmanagement. Die Methoden des MBSE sind die Basis für die Integration mechatronischer und cybertronischer Systeme.
7. PLM-Architekturen machen nicht an der Unternehmensgrenze halt: Die Unterstützung der Kollaboration mit Joint Ventures, Entwicklungspartnern, Lieferanten von Systemen, Software und Services et cetera ist eine Kernanforderung an die zukünftige PLM-Architektur. Dabei muss der Schutz von Intellectual Property der OEMs und Partner sichergestellt sein.

PLM-Architekturen

8. Monolithische Systeme haben ausgedient: Monolithische Lösungen sind vor dem Hintergrund der gestiegenen Produkt- und Prozesskomplexität nicht mehr adäquat. Es gibt auch nicht das ‘eine’ System für alle Prozesse und Beteiligten im Produktlebenszyklus. Wir brauchen förderierte, semantische Netzwerke, welche die auf verschiedene Subsysteme verteilten digitalen Modelle verknüpfen (zum Beispiel die Daten aus Entwurfsphase, Serienentwicklung und der Nutzung des Produkts im Feld).
9. Future PLM muss veränderbar sein: Künftige PLM-Architekturen müssen auf konsistenten, aber erweiterbaren Stamm- und Strukturdaten basieren, aber autonom und flexibel an veränderte Prozesse und Organisationsstrukturen anpassbare Funktionsbausteine bieten. Sie müssen dynamisch anpassbar sein, denn die Datenmodelle werden regelmäßig verändert und mit den Prozessen in der Organisation ändern sich auch die Eigentümer der einzelnen Datenobjekte.
10. Erfolgreiche PLM-Implementierung ist mehr als ein Systemwechsel: Neue PLM-Architekturen lassen sich nicht über einen Austausch der Systeme implementieren, sondern müssen kontinuierlich den sich ändernden Geschäftsmodellen und -prozessen angepasst werden. Voraussetzung dafür sind standardisierte Services, systemübergreifende Integrationslayer, semantische Netze zur Datenverknüpfung und rollenspezifische Anwenderfunktionen.
11. Daten verlinken statt synchronisieren: Eine modulare IT-Architektur mit Best-of-Breed-Lösungen gewährleistet eine flexible und anwendergerechte Arbeitsumgebung. Kontextinformationen aus Drittsystemen können über einen persistenten Linked Data Layer über System-, Prozess- und Unternehmensgrenzen hinweg bereitgestellt werden. Dieser Linked Data Layer ist auch eine Voraussetzung für effiziente MBSE-Prozesse.





  • Innovationstreiber Thin[gk]athon: Kollaborative Intelligenz trifft auf Industrie-Expertise

    Der Thin[gk]athon, veranstaltet vom Smart Systems Hub, vereint kollaborative Intelligenz und Industrie-Expertise, um in einem dreitägigen Hackathon innovative Lösungsansätze für komplexe Fragestellungen…


  • Einflüsse auf die Produktionsplanung simulieren

    Wie lassen sich Aufträge und Ressourcen in Einklang bringen? In anspruchsvollen Szenarien geraten grobe Planungshilfen etwa im ERP-System bei der Beantwortung dieser…


  • Warum ein MES-Projekt Change Management braucht

    Verspätete Wareneingänge, Mitarbeiterausfälle, Störungen und Planänderungen können massiv auf die Produktion, Montage und Liefertermine einwirken. Automatische Planung löst nicht alle Probleme, reduziert…


  • Mit Strategie gegen Silos

    Hersteller investieren viel Zeit und Geld, um die Wertschöpfungskette kontinuierlich zu verbessern. Dabei entstehen oft Silo-Systeme, die isoliert voneinander arbeiten und wenig…


  • Datenpunkte in der Batteriezellfertigung setzen

    In der Batteriezellfertigung erzeugen heterogene Quellen enorme Datenmengen. Um die Produktion mit Digitaltechnik aufzurüsten, müssen die verschiedenen Datenquellen an die IT-Systeme in…