Mehr als 95 Prozent Treffsicherheit

„Die Aussagekraft von Predictive Maintenance ist eindeutig“

Predictive-Maintenance-Konzepte spielen eine immer größere Rolle in modernen Fabriken. Doch warum dauert es so lange, bis die Systeme großflächig zum Einsatz kommen, welche Rolle spielt dabei eine einheitliche Semantik und was muss sich noch verbessern? Unsere Schwesterzeitschrift SPS-MAGAZIN sprach über diese Themen mit Dr. Steffen Haack, Leiter der Business Unit Industrial Hydraulics bei Bosch Rexroth.

Schon bei einem einzigen verhinderten Maschinenstillstand rechnen sich in vielen Fällen die Investitionen in Predictive Maintance.
Dr. Steffen Haack | Bild: Bosch Rexroth AG

Warum lohnt es sich ein Predictive Maintenance bei seinen Maschinen vorzunehmen?

Dr. Steffen Haack: Ein Maschinenstillstand verursacht mehrfach Kosten. Zunächst entstehen direkte Ausfallkosten für die Dauer des Stillstands. Bei hochautomatisierten Konzepten kann der Ausfall einer Station den Stillstand einer ganzen Linie verursachen. Das wiederum hat erhebliche Auswirkungen auf die Lieferfähigkeit und kann bei Just-in-Time-Lieferketten teure Konsequenzen bei industriellen Kunden nach sich ziehen. Kommt es zu einem solchen Ereignis, sind Werkleiter ohne zu zögern bereit, für Reparaturen und Ersatzteile erhebliche Eilzuschläge zu zahlen, was die Kosten weiter steigert. Je höher solche Kostenrisiken durch einen Maschinenausfall sind, desto mehr lohnt sich Predictive-Maintenance. Mit Condition Monitoring überwachen Maschinenbetreiber oder Dienstleister die Betriebszustände kritischer Komponenten. Bei Verschleiß erfassen die Temperatur- oder Vibrationssensoren Abweichungen vom bisherigen Verhalten. Condition-Monitoring-Lösungen erkennen solchen Verschleiß, bevor er zu einem Stillstand führt. Darauf aufbauende Predictive-Maintenance-Systeme berechnen die noch zu erwartende Lebensdauer und weisen auf einen konkreten Handlungsbedarf hin. Damit können Instandhaltungsmaßnahmen zustandsabhängig in entsprechende Wartungsfenster eingeplant werden. Schon bei einem einzigen verhinderten Maschinenstillstand rechnen sich in vielen Fällen die Investitionen in Predictive Maintenance. Darüber hinaus tauschen Anwender Komponenten erst dann aus, wenn reale Verschleißerscheinungen auftreten. Bislang werden diese Komponenten nach festen Intervallen und damit unnötig häufig gewechselt.

Wie genau sind diese Vorhersagen mittlerweile?

Haack: Für Großanlagen mit sehr hohen Stillstandskosten bietet Bosch Rexroth mit ODiN skalierbare Predictive-Maintenance-Lösungen, die Cloudbasiert Big-Data-Auswertungen einsetzen. Sensoren leiten die Daten über sichere Mechanismen in die Bosch IoT-Cloud. Dort erstellt Software mit Hilfe von Machine Learning einen sogenannten Health Index. Die Vorhersagen sind mittlerweile extrem aussagekräftig: Während bei normalen Inspektionen Fehler mit einer etwas über 40-prozentigen Wahrscheinlichkeit erkannt werden, erzielt Odin eine Vorhersagegenauigkeit von mehr als 95 Prozent. Die Genauigkeit der Vorhersagen hängt ganz allgemein von der Sensorik, der Rechenkapazität und des Domänenwissens ab, das den Predicitive-Maintenance-Systemen zu Grunde liegt. Je mehr Sensoren unterschiedliche Parameter erfassen, desto aussagekräftiger sind die Ergebnisse. Eine weitere Einflussgröße ist die zur Verfügung stehende Rechenkapazität. Bereits in Embedded Systemen können Grenzwertüberschreitungen definierter Toleranzbänder detektiert und gemeldet werden. Bei der Edge-/Fog-Verarbeitung der Daten und Informationen durch Server an der Fertigungslinie können schon komplexe Berechnungen mit hohen Datenmengen durchgeführt werden. Diesen Ansatz nutzt Bosch Rexroth bereits bei Cytropac, der neuesten Generation von Hydraulikaggregaten.

Kommen bei heutigen CM-Systemen auch Machine-Learning-Ansätzen zum Einsatz?

Haack: Auch, aber entscheidend ist das Domänenwissen, wie Verschleiß entsteht und welche Wirkzusammenhänge in komplexen Automationsstrukturen herrschen. Darauf aufbauend sind Machine-Learning-Ansätze extrem hilfreich. Bei Odin sind mittlerweile mehr als 100 Anlagen angeschlossen und speisen Sensordaten ein, die mit der Realität abgeglichen werden. Mit jedem Datensatz lernt Odin über Machine Learning für alle angeschlossenen Anlagen und verbessert die Vorhersagegenauigkeit weiter.

CM-Ansätze gibt es bereits seit vielen Jahren. Warum könnte aber gerade jetzt der richtige Zeitpunkt sein, dass die Systeme flächendeckend zum Einsatz kommen?

Haack: Durch die technische Weiterentwicklung der vergangenen Jahre sind die Sensorpreise erheblich gesunken und die Rechenleistung von Prozessoren bei gleichen Kosten deutlich gestiegen. In Komponenten und Systemen können Daten mit dezentraler Intelligenz bereits vorausgewertet und erste Voraussagen getroffen werden. Gleichzeitig steht eine wesentlich höhere Bandbreite für die Übertragung von Daten aus Komponenten und Maschinen heraus zur Verfügung. Cloudbasierte Systeme und Big-Data-Methoden erlauben es, vorher unvorstellbare Datenmengen zu verarbeiten und Muster darin zu erkennen. Damit ist die Aussagekraft von Condition Monitoring und Predictive Maintenance so eindeutig, dass Stillstandsrisiken effizient reduziert werden.

Warum haben in der Vergangenheit Anwender nicht öfter CM-Systeme eingesetzt?

Haack: In einer Fertigung stehen meist Maschinen unterschiedlicher Hersteller und Typen mit heterogenen Steuerungsarchitekturen. In der Vergangenheit mussten Anwender viele verschiedene proprietäre Insellösungen kombinieren. Das ist extrem komplex und kostenintensiv. Der flächendeckende Einsatz dezentraler Intelligenz und herstellerübergreifender Schnittstellen wie OPC UA reduziert diese Komplexität und damit die Kosten. Ähnlich wie im privaten Bereich eröffnen Cloud- und Internetbasierte Dienste neue Optionen, die bislang in dieser Form nicht möglich waren.

Problematisch ist auch die unterschiedliche Semantik der Systeme, die bei jedem Hersteller anders ist. Wie wollen Sie das ändern?

Haack: Grundsätzlich erschweren proprietäre Systeme die Einführung eines fabrikweiten Condition Monitorings. Deshalb setzt Bosch Rexroth traditionell auf offene, herstellerübergreifende Schnittstellen und eine Datenübertragung, auch parallel zur Maschinen- oder Anlagensteuerung. Aktuell arbeiten Arbeitsgruppen innerhalb der Plattform Industrie 4.0 und des VDMA an einer Standardisierung als Basis für eine einheitliche Semantik. Eine Industrie-4.0-Arbeitsgruppe Fluidtechnologie erstellt Standards für technologieübergreifende und Industrie-4.0-relevante Daten. Hier bringen sich alle wichtigen Hydraulikhersteller wie Bosch Rexroth ein. Darüber hinaus standardisiert eine eClass-Fachgruppe derzeit Daten und Merkmale für die Hydraulik nach ISO13584 und IEC61360. Für die herstellerübergreifende Maschine-zu-Maschine-Kommunikation gewinnt OPC UA mit seinen Informationsmodellen zunehmend an Bedeutung.

Bereits 2014 gab es mit der VDMA 24582 – einer feldbusneutralen Referenzarchitektur für CM in der Fabrikautomation – einen Ansatz. Was ist dieses Mal anders?

Haack: Die Leitlinien mit der feldbusneutralen Referenzarchitektur gelten weiterhin, sind aktuell als IEC-Norm eingereicht und teilweise bereits in Kommunikationsprofilen umgesetzt. Im Gegensatz zu früheren Lösungsansätzen nutzen moderne Predictive-Maintenance-Systeme heute zunehmend Protokolle und Mechanismen, die aus der IT- und Internet-Welt kommen, verwenden aber weiterhin vereinheitlichte Daten. Außerdem ändern sich auch die technischen Voraussetzungen. Mittlerweile geht Industrie 4.0 von einer IP-Kommunikation aus, serviceorientierte Architekturen eröffnen neue technische Möglichkeiten. Mit OPC UA und TSN können wir deutliche Fortschritte in der Datenübertragung erzielen. Im TSN Testbed des Industrial Internet Consortiums (IIC) arbeiten wir inzwischen mit etwa dreißig Unternehmen zusammen, um IT- und Automatisierungsnetze zu verschmelzen und so die Grundlagen für IIoT-Anwendungen zu schaffen. (mby)







  • Service Desk für alle Standorte

    Mehrere Standorte, ein System: Die Wittman Group hat in Zusammenarbeit mit Matrix42 ihren IT-Service-Desk neu strukturiert und so die zuvor existierenden Datensilos…


  • Digitale Zwillinge automatisch rekonfigurieren

    Der Digitale Zwilling einer Produktionsanlage ermöglicht die Simulation des Verhaltens aktueller Konfigurationen. Die Implementierung neuer Produktionskonfigurationen kann so bereits im Vorfeld getestet…


  • Innovationstreiber Thin[gk]athon: Kollaborative Intelligenz trifft auf Industrie-Expertise

    Der Thin[gk]athon, veranstaltet vom Smart Systems Hub, vereint kollaborative Intelligenz und Industrie-Expertise, um in einem dreitägigen Hackathon innovative Lösungsansätze für komplexe Fragestellungen…


  • KI in Fertigungsbranche vorn

    Die neunte Ausgabe von Rockwell Automations „State of Smart Manufacturing“ Report liefert Einblicke in Trends und Herausforderungen für Hersteller. Dazu wurden über…


  • Ein Stück näher am Quanteninternet

    Das Quanteninternet verspricht signifikante Verbesserungen in verschiedenen technologischen Schlüsselbereichen. Um dieses jedoch im bestehenden Glaserfasernetz zu realisieren, sind Quantenfrequenzkonverter nötig, die die…