Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Thesen zur Digitalisierung im Product Lifecycle Management

Was bringt die Zukunft?

Systemeinführung und Betrieb eines PLM-Systems sind kostenintensiv. Nach Einschätzung des PLM-Experten John Stark scheitert jedes zweite PLM-Projekt. Die Vernetzung von Produkten und Services über das Internet of Things (IoT) wirft die Frage auf, ob PLM damit nicht vollends überfordert ist. Ist PLM – so wie wir es heute kennen – ein Auslaufmodell, das durch Linked Data, Big Data oder selbstlernende Systeme obsolet wird? Oder anders gefragt, wie muss sich PLM verändern, um die Unternehmen bei ihrer digitalen Transformation optimal unterstützen zu können?



Künftige PLM-Architekturen müssen auf konsistenten, aber erweiterbaren Stamm- und Strukturdaten basieren, aber autonom und flexibel an veränderte Prozesse und Organisationsstrukturen anpassbare Funktionsbausteine bieten. Bild: © Kovalenko Inna/Fotolia.com

PLM-Experten von Anwendungsunternehmen, SoftwareHerstellern, Beratungshäusern und Hochschulen haben die Zukunft des Product Lifecycle Managements in einem Workshop diskutiert und dazu eine Reihe von Thesen zu Future PLM aufgestellt, um damit die Diskussion zu Anforderungen und Lösungsansätzen anzustoßen. Autoren dieses Thesenpapiers sind Sylke Rosenplänter, Bodo Machner, Thomas Kamps, Karsten Theis, Martin Eigner und Michael Wendenburg.Sie sind sich einig, dass es eine andere Art von PLM braucht. Im Folgenden werden die 22 herausgearbeiteten Thesen zusammengefasst.

Digitale Transformation

1. PLM muss sich neuen Aufgaben stellen: Die Digitalisierung von Produkt und Produktion wird die PLM-Welt verändern. Produkte werden über das IoT mit der Umwelt und dem Nutzer vernetzt. After Sales und Customer Service spielen für das Produktangebot eine immer wichtigere Rolle. Daten aus dem Betrieb der Produkte müssen mit den Engineering-Daten verknüpft, individualisierte Produkte in der intelligenten Fabrik ohne Zusatzaufwand gefertigt werden können.
2. Es gibt nicht ‘den’ digitalen Master: Kern eines zukünftigen PLM-Ansatzes ist die Aggregation und Verlinkung von verteilten Daten zu einem digitalen Master, das heißt eine durchgängige digitale Produktbeschreibung mit Daten aus Entwicklung, Fertigung und Betrieb. Dieser digitale Master muss schrittweise und föderativ aufgebaut werden und unterliegt einem ständigen Veränderungsprozess.
3. Digitale und reale Welt verschmelzen: Die Entwicklung von mit der Umwelt vernetzten Produkte und die Unterstützung service-orientierter Geschäftsmodelle erfordert die Verknüpfung traditioneller Produktdaten (im Sinne des Digitalen Masters) mit dem digitalen Abbild der ausgelieferten Produktkonfiguration (Digital Twin), die Nutzung und Verknüpfung mit Daten aus Produktion und Betrieb.
4. Future PLM ist Chefsache: Die digitale Transformation der Unternehmen ist Chefsache. PLM als Enabling Technology für die Digitalisierung muss daher im Vorstand beziehungsweise der Geschäftsführung verankert sein.

Prozesse und Methoden

5. Interdisziplinäres Denken ist ein Muss: Heutige PLM- und ERP-Prozesse sind stark durch die Mechanik geprägt und unterstützen Elektrik/Elektronik-Entwicklung, Software-Entwicklung und Dienstleistungsplanung unzureichend. Deren Prozesse sind wiederum nur bedingt auf die Mechanik-Entwicklung übertragbar. Notwendig sind einerseits angepasste PLM-Konzepte und andererseits Vereinbarungen, Methoden und Systemfunktionen für die domänenübergreifende Zusammenarbeit.
6. Future PLM braucht neue Strukturierungsansätze: Smart vernetzte Produkte und neue, serviceorientierte Geschäftsmodelle stellen die zentrale Bedeutung der klassischen Bill of Material (BOM) zur Strukturierung der Produktdaten in Frage. PLM muss Strukturierungsansätze für unterschiedliche Aufgabenstellungen unterstützen, zum Beispiel für das Anforderungsmanagement im Rahmen des modellbasierten Systems Engineerings (MBSE), die Kostenoptimierung oder das Projektmanagement. Die Methoden des MBSE sind die Basis für die Integration mechatronischer und cybertronischer Systeme.
7. PLM-Architekturen machen nicht an der Unternehmensgrenze halt: Die Unterstützung der Kollaboration mit Joint Ventures, Entwicklungspartnern, Lieferanten von Systemen, Software und Services et cetera ist eine Kernanforderung an die zukünftige PLM-Architektur. Dabei muss der Schutz von Intellectual Property der OEMs und Partner sichergestellt sein.

PLM-Architekturen

8. Monolithische Systeme haben ausgedient: Monolithische Lösungen sind vor dem Hintergrund der gestiegenen Produkt- und Prozesskomplexität nicht mehr adäquat. Es gibt auch nicht das ‘eine’ System für alle Prozesse und Beteiligten im Produktlebenszyklus. Wir brauchen förderierte, semantische Netzwerke, welche die auf verschiedene Subsysteme verteilten digitalen Modelle verknüpfen (zum Beispiel die Daten aus Entwurfsphase, Serienentwicklung und der Nutzung des Produkts im Feld).
9. Future PLM muss veränderbar sein: Künftige PLM-Architekturen müssen auf konsistenten, aber erweiterbaren Stamm- und Strukturdaten basieren, aber autonom und flexibel an veränderte Prozesse und Organisationsstrukturen anpassbare Funktionsbausteine bieten. Sie müssen dynamisch anpassbar sein, denn die Datenmodelle werden regelmäßig verändert und mit den Prozessen in der Organisation ändern sich auch die Eigentümer der einzelnen Datenobjekte.
10. Erfolgreiche PLM-Implementierung ist mehr als ein Systemwechsel: Neue PLM-Architekturen lassen sich nicht über einen Austausch der Systeme implementieren, sondern müssen kontinuierlich den sich ändernden Geschäftsmodellen und -prozessen angepasst werden. Voraussetzung dafür sind standardisierte Services, systemübergreifende Integrationslayer, semantische Netze zur Datenverknüpfung und rollenspezifische Anwenderfunktionen.
11. Daten verlinken statt synchronisieren: Eine modulare IT-Architektur mit Best-of-Breed-Lösungen gewährleistet eine flexible und anwendergerechte Arbeitsumgebung. Kontextinformationen aus Drittsystemen können über einen persistenten Linked Data Layer über System-, Prozess- und Unternehmensgrenzen hinweg bereitgestellt werden. Dieser Linked Data Layer ist auch eine Voraussetzung für effiziente MBSE-Prozesse.

google plus


Das könnte Sie auch interessieren:

In der Fertigung trägt ein Maschinendaten-Erfassungssystem von Werma zur Produktivität bei. Dabei werden die Informationen der Signalsäulen per Funk erfasst und in einer Software digital aufbereitet. Die Maschinendaten werden dann auf großen Bildschirmen in der Produktion ausgegeben.‣ weiterlesen

Im Maschinenbau und somit auch in der Automatisierungstechnik spielen Markteinführungszeiten heute eine Schlüsselrolle für den Unternehmenserfolg. Eine möglichst einfache Implementierung von Feldbusanbindungen und virtuelle Inbetriebnahmen helfen dabei, Abläufe zu beschleunigen.‣ weiterlesen

Die rapide wachsende Zahl an Anwendungen zu steuern, zu optimieren und zu schützen, wird für Unternehmen immer schwieriger. Zu diesem Ergebnis kommt eine von F5 in Auftrag gegebene Studie des Ponemon Institute.‣ weiterlesen

Cloudanwendungen sind nicht nur in großen Unternehmen anzutreffen, auch kleine Mittelständler setzen mittlerweile auf die Cloud. Dass die erhöhte Akzeptanz auch vor ERP aus der Cloud keinen Halt macht, zeigen die Ergebnisse des ITK-Budget-Benchmarks von Techconsult und Cancom Pironet.‣ weiterlesen

Mehr künstliche Intelligenz und mehr Funktionen - im Mai hat SAP Details zur neuen Version der Anwendung S/4Hana Cloud bekanntgegeben. Künftig sind Machine Learning- und Predictive Analytics-Werkzeuge in zentrale Geschäftsprozesse der Business-Anwendung integriert.‣ weiterlesen

Zum Portfolio des Kunststoffschweißspezialisten Munsch gehört auch die Reparatur der eigenen Erzeugnisse. Den Arbeitsfortschritt an den eingeschickten Geräten von Peakboard stellten die Werker lange auf einem Card-Board dar, das in der Praxis aber so gut wie nie den aktuellen Stand in der Werkstatt spiegelte.‣ weiterlesen

Anzeige
Anzeige
Anzeige