Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Machine Learning-Algorithmen

Fehler vorhersagen mit künstlicher Intelligenz

Muster-, Anomalie und Korrelationserkennung: Mit Algorithmen der künstlichen Intelligenz lassen sich Probleme in Maschinen und Anlagen immer früher vorhersagen. In einem ostwestfälischen F+E-Projekt ist nun eine Software entstanden, die eigenständig lernt und sowohl auf kontinuierliche als auch auf Batch-Prozesse anwendbar ist.

Bild: Resolto Informatik GmbH

Ganz gleich ob Energie, Chemie, Pharma oder Lebensmittel, die fertigende Industrie ist darauf angewiesen, kontinuierlich produzieren zu können. Die Maschinen und Anlagen sind komplex und in der Regel so heterogen, dass sich kaum zwei Anlagen miteinander vergleichen lassen. Viele Fehler lassen sich auch von Experten, die sich direkt im Maschinenpark aufhalten, nur sehr schwer im Voraus erkennen, denn sie entstehen oft aus ungünstigen Korrelationen. Es ist annähernd unmöglich, komplette Anlagen ununterbrochen durch menschliche Experten überwachen zu lassen. Das klassische Condition Monitoring versucht hier zu helfen. Sensoren beobachten und vermessen kontinuierlich, was der Mensch mit seinen Sinnen eben nicht in gleicher Weise erfassen kann. Werden Grenzwerte überschritten, melden sich die Systeme und ein Experte kann prüfen, was gegebenenfalls im Argen liegt.

Zu spät geliefert

In der Praxis zeigt sich aber, dass häufig Informationen zu spät geliefert werden oder irrelevant sind. Auch Korrelationen werden bei diesem einfachen Ansatz nicht bedacht. Da Prognosen bei dieser klassischen Art des Condition Monitoring nicht möglich sind, ist es bei Informationen zu Grenzwertüberschreitungen oft bereits zum Fehler gekommen. Durch den daraus resultierenden möglichen Stillstand der Anlage können hohe Kosten entstehen. Ein weiteres Problem ist, dass für alle Werte saubere Grenzbereiche definiert werden müssen. Da sich Anlagen und Maschinen in ihren Umgebungen und Prozessen nicht immer eins zu eins vergleichen lassen, kann hier ein sehr hoher Arbeitsaufwand bei der individuellen Konfiguration des Systems jeder einzelnen Anlage entstehen. In den letzten Jahren haben darum sogenannte Machine Learning-Verfahren Interesse geweckt.

Algorithmen aus dem Bereich der künstlichen Intelligenz, zu denen zum Beispiel auch neuronale Netze gehören, sind in der Lage, die Datenströme der Sensoren zu beobachten und aus ihren spezifischen Abläufen zu lernen. So lassen sich zum Beispiel Grenzbereiche dynamisch optimieren, aber auch korrelative Verhaltensmuster in den Anlagen erkennen. Wenn sich ein Wert beispielsweise immer negativ verändert während ein anderer positiv ansteigt, kann daraus eine Abhängigkeit beider Informationen abgeleitet werden. Ein zukünftiger Alleingang von einem der Datenströme würde dann als Abweichung registriert. Diese Abweichung kann in einem Web-Interface oder auf mobilen Endgeräten dargestellt werden, um einem verantwortlichen Mitarbeiter wertvolle Informationen zu liefern. Im Wesentlichen ist eine moderne Machine Learning-Software heute in der Lage, vier Dinge zu tun:

  • Tausende paralleler Eingangssignale beobachten und interpretieren
  • Korrelative Muster identifizieren und als ’normal‘, ‚bekanntes Fehlermuster‘ oder ‚zu klassifizierendes Muster‘ kommunizieren
  • Trends erkennen und so zukünftiges Verhalten interpolieren, um Prognosen abgeben zu können
  • Gelerntes Wissen auf andere Produktionseinheiten übertragen, um das Lernen und die Adaption zu beschleunigen

Kaum einsetzbare Lösungen

Aber auch bei diesem Ansatz kann der Teufel im Detail liegen. Es wird zwar viel über solche Algorithmen gesprochen, kaum ein Hersteller hat aber wirklich einsetzbare Lösungen im Angebot. Die meisten prototypischen Beispiele laufen derzeit noch im Hochschulumfeld oder bei forschenden Instituten. Große Unternehmen zum Beispiel der Chemie- und Prozessindustrie erfassen zwar bereits unzählige Daten und archivieren diese in ihren Rechenzentren, genutzt und interpretiert werden sie aber meist nur zur nachträglichen Analyse, nachdem es bereits zu einem teuren Schaden gekommen ist. Zudem sind die archivierten Daten häufig bereits verdichtet, um Speicherplatz zu sparen. Feine Veränderungen und Informationen, die sich im sogenannten ‚Rauschen‘ verbergen, gehen so für alle Zeit verloren.

Eine einsatzfähige, leistungsstarke und wirklich helfende Lösung sollte daher zwei Themen kombinieren: die Echtzeiterfassung großer Datenmengen bei gleichzeitiger Interpretation durch künstliche Intelligenz. Die Automobilindustrie experimentiert mit solchen Ideen schon seit einiger Zeit. Um Autos ohne Fahrer auf den Weg zu schicken, müssen zahlreiche Umgebungsvariablen kontinuierlich erfasst und ausgewertet werden. Zunächst versuchte man daher, die Algorithmen alle denkbaren Fehlerfälle lernen zu lassen. Dies ist eine komplexe Vorbereitung, denn auch Korrelationen müssen berücksichtigt werden. Es zeigte sich schnell, dass dieser Ansatz nicht funktionierte, denn es traten immer wieder Fehler auf, die vorher niemals aufgetreten waren. So wurde unvorhersehbar eine Katze einfach überfahren, weil gleichzeitig die Tankanzeige leuchtete, die Straße nass war und eine Ampel auf grün schaltete.

google plus


Das könnte Sie auch interessieren:

In der Fertigung trägt ein Maschinendaten-Erfassungssystem von Werma zur Produktivität bei. Dabei werden die Informationen der Signalsäulen per Funk erfasst und in einer Software digital aufbereitet. Die Maschinendaten werden dann auf großen Bildschirmen in der Produktion ausgegeben.‣ weiterlesen

Im Maschinenbau und somit auch in der Automatisierungstechnik spielen Markteinführungszeiten heute eine Schlüsselrolle für den Unternehmenserfolg. Eine möglichst einfache Implementierung von Feldbusanbindungen und virtuelle Inbetriebnahmen helfen dabei, Abläufe zu beschleunigen.‣ weiterlesen

Die rapide wachsende Zahl an Anwendungen zu steuern, zu optimieren und zu schützen, wird für Unternehmen immer schwieriger. Zu diesem Ergebnis kommt eine von F5 in Auftrag gegebene Studie des Ponemon Institute.‣ weiterlesen

Cloudanwendungen sind nicht nur in großen Unternehmen anzutreffen, auch kleine Mittelständler setzen mittlerweile auf die Cloud. Dass die erhöhte Akzeptanz auch vor ERP aus der Cloud keinen Halt macht, zeigen die Ergebnisse des ITK-Budget-Benchmarks von Techconsult und Cancom Pironet.‣ weiterlesen

Mehr künstliche Intelligenz und mehr Funktionen - im Mai hat SAP Details zur neuen Version der Anwendung S/4Hana Cloud bekanntgegeben. Künftig sind Machine Learning- und Predictive Analytics-Werkzeuge in zentrale Geschäftsprozesse der Business-Anwendung integriert.‣ weiterlesen

Zum Portfolio des Kunststoffschweißspezialisten Munsch gehört auch die Reparatur der eigenen Erzeugnisse. Den Arbeitsfortschritt an den eingeschickten Geräten von Peakboard stellten die Werker lange auf einem Card-Board dar, das in der Praxis aber so gut wie nie den aktuellen Stand in der Werkstatt spiegelte.‣ weiterlesen

Anzeige
Anzeige
Anzeige