Anzeige
Anzeige
Beitrag drucken

Die Zukunft des Product Lifecycle Managements

Dinge für das IoT entwickeln

Mit dem Internet der Dinge und intelligenten Produkten sind Technologien auf der Bildfläche erschienen, die Entwickler und Hersteller vor Herausforderungen stellen. Das Product Lifecycle Management bildet hier keine Ausnahme: Auch hier gilt es, sich weiterzuentwickeln, um dem Fortschritt und den sich ändernden Anforderungen gerecht werden zu können.

Bild: Parametric Technology GmbH

Konsumenten, Analysten und Produktentwickler sind sich einig: Das Internet der Dinge (IoT) steht nicht mehr nur für die Zukunft der Produkte, die unsere Welt von morgen in vielfältiger Art und Weise ausmachen werden. Es ist bereits Realität. Die IoT-Technologie hat schon jetzt Einfluss darauf, wie Produkte entwickelt werden und wie man Informationen über die Produkte in die Entwicklung zurückspiegelt, um damit zukünftige Erzeugnisse zu optimieren. Auch wenn man sie als intelligente, vernetzte Produkte bezeichnet: Diese Dinge des IoT können das nicht von allein. Product Lifecycle Management (PLM) ist entscheidend für Entwicklung, Administration, Inbetriebnahme und Nutzung dieser Produkte. PLM muss sich jedoch weiterentwickeln, um die daraus resultierenden Herausforderungen zu meistern.

Das Auftreten neuer Technologien hat PLM an Bedeutung gewinnen lassen. Um für das IoT vorbereitet zu sein, entwickeln sich Produkte zu komplexen Systemen, bestehend aus Software sowie elektrischen und mechanischen Komponenten. PLM unterstützt die Unternehmen bei der Entwicklung von Produkten für das IoT auf genau die gleiche Art und Weise wie das bisher der Fall war. Es ermöglicht systematische Prozesse, Änderungskontrolle und Workflows – und damit alles Notwendige, um in zunehmend verschiedenen und funktionsübergreifenden Teams effektiv zusammenzuarbeiten. ECAD-Entwicklung, Systems Engineering und Software-Entwicklung arbeiten zusammen, um die besonderen Anforderungen der IoT-fähigen Produkte umzusetzen.

Single Source of Truth

Als einzige Quelle der Wahrheit für Produktdaten, Konfigurationen und Prozesse bietet PLM jedem Team die strikte Kontrolle über die Entwicklung hochkomplexer, disziplinübergreifender Produktdaten und ermöglicht gleichzeitig den verschiedenen Entwicklungspartnern, auch Änderungen einzuarbeiten, welche die bisherigen Tätigkeiten beeinflussen. Das PLM-System enthält die exakte und aktuelle Dokumentation des Produktes, wie es geplant und entwickelt wurde – und das mit sämtlichen softwaretechnischen, elektrischen und mechanischen Bestandteilen. Aber was wird aus diesen Informationen, nachdem das Produkt auf den Markt gebracht wurde?

Obwohl der Name PLM impliziert, dass Daten über den gesamten Lebenszyklus eines Produktes verarbeitet werden, ist das häufig nicht der Fall. Nur selten werden Produktdaten aus der Betriebsphase genutzt, obwohl es sich dabei meist um die längste und sicher auch wertvollste Phase für die Weiterentwicklung von Produkten und Services handelt. Informationen darüber, wie ein Produkt real angewendet wird, welche Betriebsbedingungen im Einsatz herrschen oder wie Leistung und Qualität sich entwickeln, stehen den Produktentwicklungsteams nur in den seltensten Fällen zur Verfügung. Damit entsteht eine Lücke, die dazu führt, dass die Chance vertan wird, die operativen Daten für die systematische Produktoptimierung zu nutzen.

Die Lücke schließen

Schließt PLM diese Lücke, indem es die IoT-Daten, die im Betrieb in Echtzeit erfasst werden, mit den erstellten Produkten in Beziehung setzt, kann man im gesamten Produktlebenszyklus davon profitieren. Produktplanung und Entwicklung können Analysen durchführen und dann genau die Funktionen optimieren, die für die Kunden von größter Bedeutung sind. Man ist in der Lage, die Angebote an das Nutzungsverhalten anzupassen und kann gleichzeitig Teile oder Systeme überarbeiten, um bei der Umsetzung der Anforderungen Kosten zu sparen. Die Entwickler können mögliche Qualitätsprobleme schneller erkennen, wenn Sensordaten bei einem Fehlerfall automatisch erfasst, weitergeleitet und analysiert werden. Vollständigere Ursachenanalysen anhand von Problemdaten erlauben schnellere und genauere Korrektur- beziehungsweise Vorsorgemaßnahmen. Mithilfe einer standardisierten Datenmenge, die immer im Falle eines Produktfehlers zur Verfügung gestellt wird, lassen sich einzigartige Trendanalysen entwickeln, anhand derer Bedingungen vermieden werden können, die zu Qualitätsproblemen führen. Ein weiterer Vorteil für die Serviceteams besteht darin, dass Produkte im Betrieb auf entsprechende Trends hin bewertet und proaktive Maßnahmen ergriffen werden können. Auch Produktfehler lassen sich so noch vor ihrem Auftritt unterbinden. Das optimiert die Nutzung der Produkte und rationalisiert gleichzeitig die Serviceleistung.

Potenzial ausschöpfen

Was hält die Entwicklungsunternehmen noch davon ab, diese wertvollen IoT-Daten anzuzapfen? Das Problem sind nicht die Sensoren. Diese werden immer günstiger und sind heute nahezu überall vorhanden. Es liegt auch nicht am mangelnden Datenspeicher. Das Speichervolumen wächst beeindruckend, die Preise stürzen gleichzeitig ab. Diese beiden Faktoren gemeinsam führen dazu, dass die Entwicklungsunternehmen deutlich mehr Daten erfassen als sie nutzen können. Diese Daten in umsetzbare Intelligenz zu transformieren und die wichtigen Informationen in einer Flut operativer Daten zu entdecken, ist ein Prozess. Dabei müssen die Variabilität von erwarteten Werten identifiziert und die entsprechenden Ausreißer lokalisiert, analysiert und an die Verantwortlichen weitergegeben werden. Aber zu wissen, was einen erwarteten Wert ausmacht, ist ein komplexes Problem, nicht zuletzt, weil die Produktentwicklung selbst so komplex ist.

Es ist die Aufgabe von PLM, diese Komplexität in den Griff zu bekommen. PLM verarbeitet die Variabilität innerhalb eines Produktes, wenn die verschiedenen unternehmensweiten Teams die zahlreichen notwendigen Änderungen auf dem Weg zur Fertigstellung des Produktes kontrolliert umsetzen. PLM geht Variabilität aber auch produktübergreifend an: Es kontrolliert die unterschiedlichen Konfigurationen eines Produktes, das am Markt eingeführt wird. PLM erstellt und verwaltet die finalen, eindeutigen Basiswerte, die festhalten, wie jede Konfiguration entwickelt und realisiert wurde, um die geforderten Leistungen zu bieten. Dazu gehören auch die erwarteten Betriebsbedingungen, das Benutzerverhalten, die Leistungswerte, Qualitätsvorhersagen, sowie die Service-Planung. Die Kenntnis der erwarteten Werte eines Produktes ist der erste Schritt, um Ausreißer identifizieren und analysieren zu können: Die Information wird für IoT unverzichtbar.


Das könnte Sie auch interessieren:

Ab und zu fehlte ein Schlüssel im Kloster der Franziskanerinnen der ewigen Anbetung von Schwäbisch Gmünd. Beim letzten Mal gab das den Impuls, anstatt neue mechanische Zylinder in die rund 220 Türen des Komplexes einzubauen, die alte Technik durch das Bluesmart-System von Winkhaus zu ersetzen.‣ weiterlesen

Mit 100,5 Punkten hält sich das IAB-Arbeitsmarktbarometer im November stabil und liegt weiter im leicht über der neutralen Marke. Auf europäischer Ebene sank der Frühindikator allerdings erneut.‣ weiterlesen

In einer neuen Expertise des Forschungsbeirats Industrie 4.0 untersuchen das FIR an der RWTH Aachen und das Industrie 4.0 Maturity Center den Status-quo und die aktuellen Herausforderungen der deutschen Industrie bei der Nutzung und wirtschaftlichen Verwertung von industriellen Daten und geben Handlungsempfehlungen für Unternehmen, Verbände, Politik und Wissenschaft.‣ weiterlesen

Im Forschungsprojekt FabOS soll eine KI-Bin-Picking-Anwendung entstehen, die ein verbessertes Erkennen, Greifen und definiertes Ablegen von Blechteilen in der Produktion ermöglicht.‣ weiterlesen

Die Digitalisierung des Qualitätsmanagements stellt Unternehmen vor Herausforderungen. Daher haben das Fraunhofer IPT und die FH Südwestfalen im Forschungsvorhaben 'Qbility - Quality 4.0 Capability Determination Model' ein datengetriebenes Reifegradmodell entwickelt, das die Anforderungen eines digitalisierten Qualitätsmanagements bei KMU adressiert.‣ weiterlesen

Im Gegensatz zu anderen Cyberangriffen bieten Attacken mit Ransomware auf den ersten Blick einen einfachen Ausweg: die Zahlung des geforderten Lösegelds.‣ weiterlesen

Nach 84,5 Punkten im Oktober kletterte der Ifo-Geschäftsklimaindex im November auf 86,3 Punkte. Die Unternehmen blicken demnach weniger pessimistisch auf die nächsten Monate.‣ weiterlesen

In Kombination mit einer Augmented-Reality-Brille bietet eine neue Software des Fraunhofer IGD digitale Unterstützung von Absortiervorgängen. Zusammengehörige Bauteile werden direkt im Sichtfeld der Beschäftigten an der Produktionslinie farblich überlagert. Anwender im Automotive-Bereich können so etwa durch beschleunigte Prozesse und eine minimierte Fehleranfälligkeit Kosten reduzieren.‣ weiterlesen

Edge Management, Digital Twin und Data Spaces bilden die Schwerpunkte einer Zusammenarbeit zwischen der Open Industry 4.0 Alliance und dem Labs Network Industrie 4.0.‣ weiterlesen

Wer im öffentlichen Sektor der USA künftig Software vermarktet, muss eine Software Bill of Materials (SBOM) über die verwendeten Komponenten mitliefern. Ist diese Executive Order 14028 der US-Regierung auch für deutsche Firmen relevant? Die IT-Sicherheitschefin von MongoDB, Lena Smart, ordnet das ein - und verweist dabei auf das IT-Sicherheitsgesetz 2.0.‣ weiterlesen

Das Angebot an cloudbasierter Infrastruktur für SAP Hana wächst rasant. Zudem haben sich durch die weitere Option auf die Software-as-a-Service-Version S/4Hana Cloud die Rahmenbedingungen für den Umstieg auf S/4Hana signifikant verändert. Doch insbesondere deutsche Unternehmen zögern laut einer Untersuchung des Marktforschungsunternehmens ISG weiterhin, auf die Cloud umzusteigen.‣ weiterlesen