Thesen zur Digitalisierung im Product Lifecycle Management

Was bringt die Zukunft?

Systemeinführung und Betrieb eines PLM-Systems sind kostenintensiv. Nach Einschätzung des PLM-Experten John Stark scheitert jedes zweite PLM-Projekt. Die Vernetzung von Produkten und Services über das Internet of Things (IoT) wirft die Frage auf, ob PLM damit nicht vollends überfordert ist. Ist PLM – so wie wir es heute kennen – ein Auslaufmodell, das durch Linked Data, Big Data oder selbstlernende Systeme obsolet wird? Oder anders gefragt, wie muss sich PLM verändern, um die Unternehmen bei ihrer digitalen Transformation optimal unterstützen zu können?



Künftige PLM-Architekturen müssen auf konsistenten, aber erweiterbaren Stamm- und Strukturdaten basieren, aber autonom und flexibel an veränderte Prozesse und Organisationsstrukturen anpassbare Funktionsbausteine bieten. Bild: © Kovalenko Inna/Fotolia.com

PLM-Experten von Anwendungsunternehmen, SoftwareHerstellern, Beratungshäusern und Hochschulen haben die Zukunft des Product Lifecycle Managements in einem Workshop diskutiert und dazu eine Reihe von Thesen zu Future PLM aufgestellt, um damit die Diskussion zu Anforderungen und Lösungsansätzen anzustoßen. Autoren dieses Thesenpapiers sind Sylke Rosenplänter, Bodo Machner, Thomas Kamps, Karsten Theis, Martin Eigner und Michael Wendenburg.Sie sind sich einig, dass es eine andere Art von PLM braucht. Im Folgenden werden die 22 herausgearbeiteten Thesen zusammengefasst.

Digitale Transformation

1. PLM muss sich neuen Aufgaben stellen: Die Digitalisierung von Produkt und Produktion wird die PLM-Welt verändern. Produkte werden über das IoT mit der Umwelt und dem Nutzer vernetzt. After Sales und Customer Service spielen für das Produktangebot eine immer wichtigere Rolle. Daten aus dem Betrieb der Produkte müssen mit den Engineering-Daten verknüpft, individualisierte Produkte in der intelligenten Fabrik ohne Zusatzaufwand gefertigt werden können.
2. Es gibt nicht ‘den’ digitalen Master: Kern eines zukünftigen PLM-Ansatzes ist die Aggregation und Verlinkung von verteilten Daten zu einem digitalen Master, das heißt eine durchgängige digitale Produktbeschreibung mit Daten aus Entwicklung, Fertigung und Betrieb. Dieser digitale Master muss schrittweise und föderativ aufgebaut werden und unterliegt einem ständigen Veränderungsprozess.
3. Digitale und reale Welt verschmelzen: Die Entwicklung von mit der Umwelt vernetzten Produkte und die Unterstützung service-orientierter Geschäftsmodelle erfordert die Verknüpfung traditioneller Produktdaten (im Sinne des Digitalen Masters) mit dem digitalen Abbild der ausgelieferten Produktkonfiguration (Digital Twin), die Nutzung und Verknüpfung mit Daten aus Produktion und Betrieb.
4. Future PLM ist Chefsache: Die digitale Transformation der Unternehmen ist Chefsache. PLM als Enabling Technology für die Digitalisierung muss daher im Vorstand beziehungsweise der Geschäftsführung verankert sein.

Prozesse und Methoden

5. Interdisziplinäres Denken ist ein Muss: Heutige PLM- und ERP-Prozesse sind stark durch die Mechanik geprägt und unterstützen Elektrik/Elektronik-Entwicklung, Software-Entwicklung und Dienstleistungsplanung unzureichend. Deren Prozesse sind wiederum nur bedingt auf die Mechanik-Entwicklung übertragbar. Notwendig sind einerseits angepasste PLM-Konzepte und andererseits Vereinbarungen, Methoden und Systemfunktionen für die domänenübergreifende Zusammenarbeit.
6. Future PLM braucht neue Strukturierungsansätze: Smart vernetzte Produkte und neue, serviceorientierte Geschäftsmodelle stellen die zentrale Bedeutung der klassischen Bill of Material (BOM) zur Strukturierung der Produktdaten in Frage. PLM muss Strukturierungsansätze für unterschiedliche Aufgabenstellungen unterstützen, zum Beispiel für das Anforderungsmanagement im Rahmen des modellbasierten Systems Engineerings (MBSE), die Kostenoptimierung oder das Projektmanagement. Die Methoden des MBSE sind die Basis für die Integration mechatronischer und cybertronischer Systeme.
7. PLM-Architekturen machen nicht an der Unternehmensgrenze halt: Die Unterstützung der Kollaboration mit Joint Ventures, Entwicklungspartnern, Lieferanten von Systemen, Software und Services et cetera ist eine Kernanforderung an die zukünftige PLM-Architektur. Dabei muss der Schutz von Intellectual Property der OEMs und Partner sichergestellt sein.

PLM-Architekturen

8. Monolithische Systeme haben ausgedient: Monolithische Lösungen sind vor dem Hintergrund der gestiegenen Produkt- und Prozesskomplexität nicht mehr adäquat. Es gibt auch nicht das ‘eine’ System für alle Prozesse und Beteiligten im Produktlebenszyklus. Wir brauchen förderierte, semantische Netzwerke, welche die auf verschiedene Subsysteme verteilten digitalen Modelle verknüpfen (zum Beispiel die Daten aus Entwurfsphase, Serienentwicklung und der Nutzung des Produkts im Feld).
9. Future PLM muss veränderbar sein: Künftige PLM-Architekturen müssen auf konsistenten, aber erweiterbaren Stamm- und Strukturdaten basieren, aber autonom und flexibel an veränderte Prozesse und Organisationsstrukturen anpassbare Funktionsbausteine bieten. Sie müssen dynamisch anpassbar sein, denn die Datenmodelle werden regelmäßig verändert und mit den Prozessen in der Organisation ändern sich auch die Eigentümer der einzelnen Datenobjekte.
10. Erfolgreiche PLM-Implementierung ist mehr als ein Systemwechsel: Neue PLM-Architekturen lassen sich nicht über einen Austausch der Systeme implementieren, sondern müssen kontinuierlich den sich ändernden Geschäftsmodellen und -prozessen angepasst werden. Voraussetzung dafür sind standardisierte Services, systemübergreifende Integrationslayer, semantische Netze zur Datenverknüpfung und rollenspezifische Anwenderfunktionen.
11. Daten verlinken statt synchronisieren: Eine modulare IT-Architektur mit Best-of-Breed-Lösungen gewährleistet eine flexible und anwendergerechte Arbeitsumgebung. Kontextinformationen aus Drittsystemen können über einen persistenten Linked Data Layer über System-, Prozess- und Unternehmensgrenzen hinweg bereitgestellt werden. Dieser Linked Data Layer ist auch eine Voraussetzung für effiziente MBSE-Prozesse.







  • Service Desk für alle Standorte

    Mehrere Standorte, ein System: Die Wittman Group hat in Zusammenarbeit mit Matrix42 ihren IT-Service-Desk neu strukturiert und so die zuvor existierenden Datensilos…


  • Digitale Zwillinge automatisch rekonfigurieren

    Der Digitale Zwilling einer Produktionsanlage ermöglicht die Simulation des Verhaltens aktueller Konfigurationen. Die Implementierung neuer Produktionskonfigurationen kann so bereits im Vorfeld getestet…


  • MES-Integrator und 360-Grad-Partner für optimierte Fertigung

    Das Manufacturing Execution System (MES) HYDRA optimiert Produktionsprozesse für Fertigungsunternehmen, um Wettbewerbsvorteile zu erzielen.


  • KI in Fertigungsbranche vorn

    Die neunte Ausgabe von Rockwell Automations „State of Smart Manufacturing“ Report liefert Einblicke in Trends und Herausforderungen für Hersteller. Dazu wurden über…


  • Ein Stück näher am Quanteninternet

    Das Quanteninternet verspricht signifikante Verbesserungen in verschiedenen technologischen Schlüsselbereichen. Um dieses jedoch im bestehenden Glaserfasernetz zu realisieren, sind Quantenfrequenzkonverter nötig, die die…