Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Thesen zur Digitalisierung im Product Lifecycle Management

Was bringt die Zukunft?

Systemeinführung und Betrieb eines PLM-Systems sind kostenintensiv. Nach Einschätzung des PLM-Experten John Stark scheitert jedes zweite PLM-Projekt. Die Vernetzung von Produkten und Services über das Internet of Things (IoT) wirft die Frage auf, ob PLM damit nicht vollends überfordert ist. Ist PLM – so wie wir es heute kennen – ein Auslaufmodell, das durch Linked Data, Big Data oder selbstlernende Systeme obsolet wird? Oder anders gefragt, wie muss sich PLM verändern, um die Unternehmen bei ihrer digitalen Transformation optimal unterstützen zu können?



Künftige PLM-Architekturen müssen auf konsistenten, aber erweiterbaren Stamm- und Strukturdaten basieren, aber autonom und flexibel an veränderte Prozesse und Organisationsstrukturen anpassbare Funktionsbausteine bieten. Bild: © Kovalenko Inna/Fotolia.com

PLM-Experten von Anwendungsunternehmen, SoftwareHerstellern, Beratungshäusern und Hochschulen haben die Zukunft des Product Lifecycle Managements in einem Workshop diskutiert und dazu eine Reihe von Thesen zu Future PLM aufgestellt, um damit die Diskussion zu Anforderungen und Lösungsansätzen anzustoßen. Autoren dieses Thesenpapiers sind Sylke Rosenplänter, Bodo Machner, Thomas Kamps, Karsten Theis, Martin Eigner und Michael Wendenburg.Sie sind sich einig, dass es eine andere Art von PLM braucht. Im Folgenden werden die 22 herausgearbeiteten Thesen zusammengefasst.

Digitale Transformation

1. PLM muss sich neuen Aufgaben stellen: Die Digitalisierung von Produkt und Produktion wird die PLM-Welt verändern. Produkte werden über das IoT mit der Umwelt und dem Nutzer vernetzt. After Sales und Customer Service spielen für das Produktangebot eine immer wichtigere Rolle. Daten aus dem Betrieb der Produkte müssen mit den Engineering-Daten verknüpft, individualisierte Produkte in der intelligenten Fabrik ohne Zusatzaufwand gefertigt werden können.
2. Es gibt nicht ‘den’ digitalen Master: Kern eines zukünftigen PLM-Ansatzes ist die Aggregation und Verlinkung von verteilten Daten zu einem digitalen Master, das heißt eine durchgängige digitale Produktbeschreibung mit Daten aus Entwicklung, Fertigung und Betrieb. Dieser digitale Master muss schrittweise und föderativ aufgebaut werden und unterliegt einem ständigen Veränderungsprozess.
3. Digitale und reale Welt verschmelzen: Die Entwicklung von mit der Umwelt vernetzten Produkte und die Unterstützung service-orientierter Geschäftsmodelle erfordert die Verknüpfung traditioneller Produktdaten (im Sinne des Digitalen Masters) mit dem digitalen Abbild der ausgelieferten Produktkonfiguration (Digital Twin), die Nutzung und Verknüpfung mit Daten aus Produktion und Betrieb.
4. Future PLM ist Chefsache: Die digitale Transformation der Unternehmen ist Chefsache. PLM als Enabling Technology für die Digitalisierung muss daher im Vorstand beziehungsweise der Geschäftsführung verankert sein.

Prozesse und Methoden

5. Interdisziplinäres Denken ist ein Muss: Heutige PLM- und ERP-Prozesse sind stark durch die Mechanik geprägt und unterstützen Elektrik/Elektronik-Entwicklung, Software-Entwicklung und Dienstleistungsplanung unzureichend. Deren Prozesse sind wiederum nur bedingt auf die Mechanik-Entwicklung übertragbar. Notwendig sind einerseits angepasste PLM-Konzepte und andererseits Vereinbarungen, Methoden und Systemfunktionen für die domänenübergreifende Zusammenarbeit.
6. Future PLM braucht neue Strukturierungsansätze: Smart vernetzte Produkte und neue, serviceorientierte Geschäftsmodelle stellen die zentrale Bedeutung der klassischen Bill of Material (BOM) zur Strukturierung der Produktdaten in Frage. PLM muss Strukturierungsansätze für unterschiedliche Aufgabenstellungen unterstützen, zum Beispiel für das Anforderungsmanagement im Rahmen des modellbasierten Systems Engineerings (MBSE), die Kostenoptimierung oder das Projektmanagement. Die Methoden des MBSE sind die Basis für die Integration mechatronischer und cybertronischer Systeme.
7. PLM-Architekturen machen nicht an der Unternehmensgrenze halt: Die Unterstützung der Kollaboration mit Joint Ventures, Entwicklungspartnern, Lieferanten von Systemen, Software und Services et cetera ist eine Kernanforderung an die zukünftige PLM-Architektur. Dabei muss der Schutz von Intellectual Property der OEMs und Partner sichergestellt sein.

PLM-Architekturen

8. Monolithische Systeme haben ausgedient: Monolithische Lösungen sind vor dem Hintergrund der gestiegenen Produkt- und Prozesskomplexität nicht mehr adäquat. Es gibt auch nicht das ‘eine’ System für alle Prozesse und Beteiligten im Produktlebenszyklus. Wir brauchen förderierte, semantische Netzwerke, welche die auf verschiedene Subsysteme verteilten digitalen Modelle verknüpfen (zum Beispiel die Daten aus Entwurfsphase, Serienentwicklung und der Nutzung des Produkts im Feld).
9. Future PLM muss veränderbar sein: Künftige PLM-Architekturen müssen auf konsistenten, aber erweiterbaren Stamm- und Strukturdaten basieren, aber autonom und flexibel an veränderte Prozesse und Organisationsstrukturen anpassbare Funktionsbausteine bieten. Sie müssen dynamisch anpassbar sein, denn die Datenmodelle werden regelmäßig verändert und mit den Prozessen in der Organisation ändern sich auch die Eigentümer der einzelnen Datenobjekte.
10. Erfolgreiche PLM-Implementierung ist mehr als ein Systemwechsel: Neue PLM-Architekturen lassen sich nicht über einen Austausch der Systeme implementieren, sondern müssen kontinuierlich den sich ändernden Geschäftsmodellen und -prozessen angepasst werden. Voraussetzung dafür sind standardisierte Services, systemübergreifende Integrationslayer, semantische Netze zur Datenverknüpfung und rollenspezifische Anwenderfunktionen.
11. Daten verlinken statt synchronisieren: Eine modulare IT-Architektur mit Best-of-Breed-Lösungen gewährleistet eine flexible und anwendergerechte Arbeitsumgebung. Kontextinformationen aus Drittsystemen können über einen persistenten Linked Data Layer über System-, Prozess- und Unternehmensgrenzen hinweg bereitgestellt werden. Dieser Linked Data Layer ist auch eine Voraussetzung für effiziente MBSE-Prozesse.


Das könnte Sie auch interessieren:

In Halle 7, Stand G01 auf der Intralogistik-Fachmesse Logimat zeigt Logivations ein neues kamerageführtes System zur Steuerung von fahrerlosen Transportfahrzeugen und zum Tracking von Gütern.‣ weiterlesen

Cyber-Angriffe auf die Unternehmens-IT finden immer wieder statt. ERP-Umgebungen als Angriffsziel bilden hier keine Ausnahme. Die zunehmende Vernetzung und das Zusammenspiel von immer mehr Komponenten führen im Ergebnis zu mehr potenziellen Angriffszielen.‣ weiterlesen

In der Automotive-Branche liegt die Messlatte für die Qualität ganz oben: Eine Null-Fehler-Produktion wird über die gesamte Lieferkette hinweg erwartet. Als hundertprozentiger Automobilzulieferer hat sich Baier & Michels mit ihrer Produktpalette diesem Qualitätsanspruch verpflichtet. Dabei unterstützt seit dem Jahr 2015 eine integrierte Lösung für das Qualitäts- und Produktionsmanagement.‣ weiterlesen

Immer mehr mittelständische Unternehmen internationalisieren sich, vergrößern sich durch Zukäufe oder schaffen durch Aufteilungen der Unternehmensbereiche effizientere Strukturen. Jeder dieser Schritte bedeutet eine komplexe Abwicklung für das eingesetzte ERP-System.‣ weiterlesen

Nicht nur Cyberattacken von außen, sondern auch Insider-Angriffe stellen für Unternehmen nach eine Sicherheitsgefahr dar. Der Securityspezialist CyberArk gibt fünf Empfehlungen, wie Unternehmen derartige Angriffe erkennen bzw. verhindern können.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige