Anzeige
Beitrag drucken

Datenanalysen im Dienst des Product Lifecycle-Managements

Geräte lebenslang begleiten

Maschinen lassen sich mithilfe von Big Data Analytics über ihren ganzen Lebenszyklus hinweg steuern und häufig weiter optimieren. Aus dieser Form der Datenanalyse könnten künftig Maschinenbauer und ihre Kunden gleichermaßen Vorteile ziehen: Etwa wenn sich für Hersteller neue Service- und Vertriebsmodelle ergeben und die Betreiber die Maschinenlaufzeiten und -effizienz durch konsequent planbare Wartungsvorgänge verbessern.



Im Bild: Gerhard Altmann, international verantwortlich für den Bereich Manufacturing beim Softwarehersteller SAS.

Datenanalyse spielt in produzierenden Unternehmen nicht erst seit dem Rummel um Industrie 4.0 eine tragende Rolle. Seit Jahren optimiert die Branche ihre Prozesse und Produkte mithilfe entsprechender Software. Dass dieses Thema in jüngster Zeit einen Aufmerksamkeitsschub erfahren hat, liegt zum einen an der Diskussion rund um den Trend Industrie 4.0. Zum anderen ist es das Ergebnis erheblicher Fortschritte bei der Speicher- und Analysetechnologie: Was heute als Big Data-Analytics bekannt ist – Hochleistungsanalyse auch größter Mengen an polystrukturierten Daten in Echtzeit – war bis vor kurzem technisch nicht umzusetzen.

Wartungsbedarf mit IT ermitteln

Big Data Analytics in der Industrie bedeutet zunächst einmal Analyse von Maschinendaten für die Optimierung von Produktions- und Logistikprozessen. Entsprechende Anwendungen können eine große Menge vorhandenen Daten just in dem Moment untersuchen, in dem sie entstehen – und darin Muster erkennen, die auf mögliche Fehler oder Verbesserungspotenziale hinweisen. Dabei können auch Details auffallen, die selbst erfahrenen Experten entgehen. Aber nicht nur in der Produktentstehung, auch in nachgelagerten Prozessen bietet sich der Einsatz von Analysewerkzeugen an. Denn industriell gefertigte Maschinen und Geräte erzeugen im Betrieb ihrerseits Daten, die Auskunft über den Zustand der Maschine, über Auslastung, Wartungsbedarf und damit über service- und vertriebsrelevante Faktoren geben können. Um das in diesen Daten verborgene Potenzial zu nutzen, können Hersteller zwei Dinge tun: erstens die Betriebsdaten abgreifen und analysieren. Und zweitens die Ergebnisse in Service- und Vertriebsprozesse integrieren.

‚Predictive Asset Maintenance‘

Blick in die Praxis: Montagmorgen. Im Wartebereich einer radiologischen Diagnosepraxis ist kein Platz mehr frei. Der Terminkalender ist gefüllt. Die Computertomografen, MRT und alle anderen Geräte laufen im Dauerbetrieb. Vor dem Hintergrund, dass solche Apparate eine Million Euro und mehr kosten können, ist das auch wirtschaftlich sinnvoll. Jede Untersuchung ist ein Schritt auf dem Weg hin zum ‚Break even‘, zum Punkt, ab dem das Gerät seine Kosten eingespielt hat und beginnt, Geld zu verdienen. Ein technischer Defekt in diesem Moment steht diesem Ziel entgegen. Um das zu verhindern, gibt es Servicepläne, nach denen die Maschinen regelmäßig gewartet werden. Manche Geräte verfügen auch schon über Selbstdiagnosesysteme, die bei bestimmten vordefinierten Fehlerbildern einen Frühwarnalarm auslösen, damit Defekte rechtzeitig behoben werden können. Dieses Vorgehen ist jedoch oft statisch, wenn es auf einer ‚If-then‘-Logik basiert. Der tatsächliche Zustand beziehungsweise der Bedarf der Maschine lässt sich so nicht berücksichtigen. Und ob der Vorlauf durch den Frühalarm ausreicht, um das Gerät weiterlaufen zu lassen, bis es der Techniker in Augenschein genommen hat oder bis ein bestelltes Ersatzteil eintrifft, ist oftmals unsicher. Hier könnte Big Data Analytics ins Spiel kommen: Mit geeigneten Lösungen lassen sich Betriebsdaten vollständig erfassen, während sie entstehen und die Daten über das Internet vom Anwender zum Gerätehersteller oder einem spezialisierten Service-Dienstleister weiterleiten. Dort können sie in einer zentralen Datenbank archiviert oder auch unmittelbar in den Hauptspeicher des Analysesystems geladen, miteinander verglichen und analysiert werden.

Kommt es zu Auffälligkeiten in den Daten, registrieren die Anwendungen diese und können im Idealfall erkennen, ob es sich um relevante Informationen oder nur um statistische Ausreißer handelt, die zu vernachlässigen sind. Auf diese Weise ist es beispielsweise möglich, Indizien zu identifizieren, die einen Defekt schon Tage oder Wochen im Voraus ankündigen, ohne selbst zum Ausfall des Geräts zu führen. Sobald solche Auffälligkeiten auftreten, informieren die Systeme auf Wunsch einen Servicemanager – entweder beim Hersteller oder beim Kunden – der notwendige Schritte einleiten kann. Vorteile für Hersteller und Anwender können zusätzlich daraus entstehen, dass sich bei zentraler Verarbeitung der Daten Erfahrungswerte aus dem Betrieb der gesamten Geräteflotte in die Analyse einbeziehen lassen. Und diese Form von ‚Schwarmintelligenz‘ hilft Herstellern und Dienstleistern, den Service zu gestalten und zu optimieren. Mithilfe vorausschauender Wartung, oder Predictive Asset Maintenance, lassen sich Reparaturen im Vorfeld so einplanen, dass sie die Laufzeit nicht beeinflussen, also am Wochenende oder abends durchgeführt werden können. Gleichzeitig können Hersteller oder Dienstleister etwa Servicetermine bündeln, indem über das Analysesystem erhoben wird, ob es beispielsweise in der Klinik, in der ein akuter Fall zu erledigen ist, oder in der gleichen Gegend andere Geräte gibt, bei denen die Wartung kurz bevorsteht. So lassen sich Anfahrtszeiten und damit Kosten reduzieren.

Vertriebspotenzial erkennen

Über die Wartung hinaus verspricht Big Data Analytics Herstellern neue Möglichkeiten für ihren Vertrieb. Denn bislang weiß der Vertrieb häufig nur wenig darüber, wie Kunden ihre gekauften Geräte tatsächlich einsetzen. Indem moderne Apparate mit Analyse-Instrumenten an Bord ihre Betriebsdaten an den Hersteller senden, ließe sich das ändern. Das Unternehmen würde somit zum Beispiel darüber informiert, wie ausgelastet eine Maschine ist und ob sie an Kapazitätsgrenzen stößt. Auf dieser Grundläge könnte der Vertrieb einem Kunden, der mit einem Apparat am Limit arbeitet, das nächst größere, leistungsfähigere Modell anzubieten – und idealerweise an Ort und Stelle vorrechnen, unter welchen Umständen sich diese Investition rentiert beziehungsweise amortisiert. Vor diesem Hintergrund können Werkzeuge zur Datenanalyse die Position von produzierenden Unternehmen stärken, indem sie ihnen helfen, ihre Geräte nicht nur zu verkaufen, sondern – über den gesamten Produktlebenszyklus hinweg – wertschöpfend zu begleiten. Die Betriebsdaten sind dafür wertvoller Rohstoff – und mithilfe aktueller Analysetechnologie in ständig wachsender Menge und Komplexität zu bewältigen.

 

Analyse großer Datenmengen

Unter Big Data Analytics ist die Analyse vieler, sich laufend verändernder Daten zu verstehen, häufig in Echtzeit. Eine technische Grundlage dafür liefert das sogenannte In-Memory-Computing, bei dem Daten nicht zwischen verschiedenen Speichersystemen hin- und hergeschoben, sondern nur einmal komplett in den Hauptspeicher geladen und dort verarbeitet werden. Ein Einsatz von Big Data Analytics kommt allerdings auch unabhängig von der Datenmenge in Frage, etwa wenn Daten vergleichsweise schnell und in besonderer Tiefe analysiert werden müssen. Durch den Einsatz entsprechender Lösungen lassen sich in vielen Fällen verborgene Zusammenhänge sowie Tendenzen in Daten erkennen und als Grundlage für geschäftsrelevante Prognosen heranziehen.


Das könnte Sie auch interessieren:

Seit gut eineinhalb Jahren betreibt Simus Systems eine Online-Plattform, auf der Auftraggeber und Auftragnehmer die Metallbearbeitung von Bauteilen kalkulieren - und das Interesse am Tool ist rege. Anwender laden ihr CAD-Modell hoch und erhalten eine valide Vorkalkulation des geplanten Bauteils.‣ weiterlesen

Erst die Interoperabilität von Maschinen und Anlagen ermöglicht Unternehmen die Teilhabe an neuen digitalen Strukturen und ist Grundvoraussetzung für neue digitale Geschäftsmodelle. Durch interoperable Schnittstellen können neue Maschinen effizienter integriert werden. Die VDMA-Studie ‘Interoperabilität im Maschinen- und Anlagenbau‘ zeigt die Relevanz von interoperablen Schnittstellen und dazugehörigen Standards in den Unternehmen.‣ weiterlesen

Im Gewerbebau gehört ein differenziertes Zutrittsmanagement zum Standard der meisten Ausschreibungen. Für Betriebe lohnt es, sich mit dem Thema zu beschäftigen. Denn die Infrastruktur sollte später neue Anforderungen im Besuchermanagement ohne hohe Mehrkosten abbilden können.‣ weiterlesen

Die Vor- und Nachteile von SQL-, NoSQL- und Cloud-Datenbanken in Produktionsumgebungen werden noch immer diskutiert. Es wird höchste Zeit für ein Datenbankmanagement-System, das die Stärken aller drei miteinander verbindet.‣ weiterlesen

Predictive Maintenance, oder auch vorausschauende Instandhaltung, bildet einen der primären Anwendungsfälle im Spektrum der Industrie 4.0. Doch noch sind viele Unternehmen von den Ergebnissen enttäuscht, nachdem ihnen die technische Umsetzung gelungen ist. Eine planvolle Roadmap beugt dem vor, indem ein vorteilhafter Rahmen um das Werkzeug gezogen wird.‣ weiterlesen

Das Systemhaus Solid System Team wird von einer Doppelspitze geleitet. Neben Werner Heckl ist seit 1. April auch Torsten Hartinger mit der Geschäftsführung betraut.‣ weiterlesen

Materialise erwirbt Kaufoption von MES-Anbieter Link3D. Mögliche Übernahme könnte den Weg zum cloudbasierten Zugriff auf die 3D-Druck-Software-Plattform von Materialise ebnen.‣ weiterlesen

Ist die IoT-Infrastruktur in der Fertigung erst einmal installiert, müssen die erfassten Daten analysiert und in Nutzen überführt werden. Dabei kommt Event-Streaming-Technologie vor allem dann in Frage, wenn Anwender ihre Daten echtzeitnah verarbeiten wollen.‣ weiterlesen

Frank Possel-Dölken (Phoenix Contact) ist neuer Vorsitzender des Lenkungskreises der Plattform Industrie 4.0. Er übernimmt das Amt von Frank Melzer (Festo).‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige