Anzeige
Anzeige
Anzeige
Beitrag drucken

Thesen zur Digitalisierung im Product Lifecycle Management

Was bringt die Zukunft?

Systemeinführung und Betrieb eines PLM-Systems sind kostenintensiv. Nach Einschätzung des PLM-Experten John Stark scheitert jedes zweite PLM-Projekt. Die Vernetzung von Produkten und Services über das Internet of Things (IoT) wirft die Frage auf, ob PLM damit nicht vollends überfordert ist. Ist PLM – so wie wir es heute kennen – ein Auslaufmodell, das durch Linked Data, Big Data oder selbstlernende Systeme obsolet wird? Oder anders gefragt, wie muss sich PLM verändern, um die Unternehmen bei ihrer digitalen Transformation optimal unterstützen zu können?



Künftige PLM-Architekturen müssen auf konsistenten, aber erweiterbaren Stamm- und Strukturdaten basieren, aber autonom und flexibel an veränderte Prozesse und Organisationsstrukturen anpassbare Funktionsbausteine bieten. Bild: © Kovalenko Inna/Fotolia.com

PLM-Experten von Anwendungsunternehmen, SoftwareHerstellern, Beratungshäusern und Hochschulen haben die Zukunft des Product Lifecycle Managements in einem Workshop diskutiert und dazu eine Reihe von Thesen zu Future PLM aufgestellt, um damit die Diskussion zu Anforderungen und Lösungsansätzen anzustoßen. Autoren dieses Thesenpapiers sind Sylke Rosenplänter, Bodo Machner, Thomas Kamps, Karsten Theis, Martin Eigner und Michael Wendenburg.Sie sind sich einig, dass es eine andere Art von PLM braucht. Im Folgenden werden die 22 herausgearbeiteten Thesen zusammengefasst.

Digitale Transformation

1. PLM muss sich neuen Aufgaben stellen: Die Digitalisierung von Produkt und Produktion wird die PLM-Welt verändern. Produkte werden über das IoT mit der Umwelt und dem Nutzer vernetzt. After Sales und Customer Service spielen für das Produktangebot eine immer wichtigere Rolle. Daten aus dem Betrieb der Produkte müssen mit den Engineering-Daten verknüpft, individualisierte Produkte in der intelligenten Fabrik ohne Zusatzaufwand gefertigt werden können.
2. Es gibt nicht ‘den’ digitalen Master: Kern eines zukünftigen PLM-Ansatzes ist die Aggregation und Verlinkung von verteilten Daten zu einem digitalen Master, das heißt eine durchgängige digitale Produktbeschreibung mit Daten aus Entwicklung, Fertigung und Betrieb. Dieser digitale Master muss schrittweise und föderativ aufgebaut werden und unterliegt einem ständigen Veränderungsprozess.
3. Digitale und reale Welt verschmelzen: Die Entwicklung von mit der Umwelt vernetzten Produkte und die Unterstützung service-orientierter Geschäftsmodelle erfordert die Verknüpfung traditioneller Produktdaten (im Sinne des Digitalen Masters) mit dem digitalen Abbild der ausgelieferten Produktkonfiguration (Digital Twin), die Nutzung und Verknüpfung mit Daten aus Produktion und Betrieb.
4. Future PLM ist Chefsache: Die digitale Transformation der Unternehmen ist Chefsache. PLM als Enabling Technology für die Digitalisierung muss daher im Vorstand beziehungsweise der Geschäftsführung verankert sein.

Prozesse und Methoden

5. Interdisziplinäres Denken ist ein Muss: Heutige PLM- und ERP-Prozesse sind stark durch die Mechanik geprägt und unterstützen Elektrik/Elektronik-Entwicklung, Software-Entwicklung und Dienstleistungsplanung unzureichend. Deren Prozesse sind wiederum nur bedingt auf die Mechanik-Entwicklung übertragbar. Notwendig sind einerseits angepasste PLM-Konzepte und andererseits Vereinbarungen, Methoden und Systemfunktionen für die domänenübergreifende Zusammenarbeit.
6. Future PLM braucht neue Strukturierungsansätze: Smart vernetzte Produkte und neue, serviceorientierte Geschäftsmodelle stellen die zentrale Bedeutung der klassischen Bill of Material (BOM) zur Strukturierung der Produktdaten in Frage. PLM muss Strukturierungsansätze für unterschiedliche Aufgabenstellungen unterstützen, zum Beispiel für das Anforderungsmanagement im Rahmen des modellbasierten Systems Engineerings (MBSE), die Kostenoptimierung oder das Projektmanagement. Die Methoden des MBSE sind die Basis für die Integration mechatronischer und cybertronischer Systeme.
7. PLM-Architekturen machen nicht an der Unternehmensgrenze halt: Die Unterstützung der Kollaboration mit Joint Ventures, Entwicklungspartnern, Lieferanten von Systemen, Software und Services et cetera ist eine Kernanforderung an die zukünftige PLM-Architektur. Dabei muss der Schutz von Intellectual Property der OEMs und Partner sichergestellt sein.

PLM-Architekturen

8. Monolithische Systeme haben ausgedient: Monolithische Lösungen sind vor dem Hintergrund der gestiegenen Produkt- und Prozesskomplexität nicht mehr adäquat. Es gibt auch nicht das ‘eine’ System für alle Prozesse und Beteiligten im Produktlebenszyklus. Wir brauchen förderierte, semantische Netzwerke, welche die auf verschiedene Subsysteme verteilten digitalen Modelle verknüpfen (zum Beispiel die Daten aus Entwurfsphase, Serienentwicklung und der Nutzung des Produkts im Feld).
9. Future PLM muss veränderbar sein: Künftige PLM-Architekturen müssen auf konsistenten, aber erweiterbaren Stamm- und Strukturdaten basieren, aber autonom und flexibel an veränderte Prozesse und Organisationsstrukturen anpassbare Funktionsbausteine bieten. Sie müssen dynamisch anpassbar sein, denn die Datenmodelle werden regelmäßig verändert und mit den Prozessen in der Organisation ändern sich auch die Eigentümer der einzelnen Datenobjekte.
10. Erfolgreiche PLM-Implementierung ist mehr als ein Systemwechsel: Neue PLM-Architekturen lassen sich nicht über einen Austausch der Systeme implementieren, sondern müssen kontinuierlich den sich ändernden Geschäftsmodellen und -prozessen angepasst werden. Voraussetzung dafür sind standardisierte Services, systemübergreifende Integrationslayer, semantische Netze zur Datenverknüpfung und rollenspezifische Anwenderfunktionen.
11. Daten verlinken statt synchronisieren: Eine modulare IT-Architektur mit Best-of-Breed-Lösungen gewährleistet eine flexible und anwendergerechte Arbeitsumgebung. Kontextinformationen aus Drittsystemen können über einen persistenten Linked Data Layer über System-, Prozess- und Unternehmensgrenzen hinweg bereitgestellt werden. Dieser Linked Data Layer ist auch eine Voraussetzung für effiziente MBSE-Prozesse.

google plus
Was bringt die Zukunft?
Künftige PLM-Architekturen müssen auf konsistenten, aber erweiterbaren Stamm- und Strukturdaten basieren, aber autonom und flexibel an veränderte Prozesse und Organisationsstrukturen anpassbare Funktionsbausteine bieten.
Bild: © Kovalenko Inna/Fotolia.com




Das könnte Sie auch interessieren:

Vor allem in der Automotive-Branche sind die Anforderungen an die Rückverfolgbarkeit von Produkten hoch. Um diesen Ansprüchen gerecht zu werden, müssen Zulieferer jederzeit Auskunft darüber erteilen können, welchen Werdegang eines ihrer Erzeugnisse genommen hat.‣ weiterlesen

Was im Datensilo abgelegt ist, wird meist selten bis gar nicht genutzt. Das bedeutetet jedoch nicht, dass diese Daten keinen Nutzen hätten, im Gegenteil. Um Informationen aus dem gesamten Datenbestand zu erhalten, müssen die einzelnen Silos verknüpft werden.‣ weiterlesen

Die Personaleinsatzplanung ist integraler Bestandteil eines Manufacturing Execution Systems. Sind die tatsächlich genutzten Arbeitszeitmodelle in der werksnahen Software detailliert hinterlegt, können sowohl Unternehmen als auch Mitarbeiter von höherer Flexibilität profitieren.‣ weiterlesen

Cloud-Infrastrukturen eignen sich sehr gut, um aus den Daten der Automatisierungssysteme nützliche Informationen zu gewinnen. Dafür müssen die Daten aber erst einmal in die Cloud gelangen. Das lässt sich unter anderem am Beispiel Siemens Mindsphere illustrieren.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige