Machine Learning-Algorithmen

Fehler vorhersagen mit künstlicher Intelligenz

Muster-, Anomalie und Korrelationserkennung: Mit Algorithmen der künstlichen Intelligenz lassen sich Probleme in Maschinen und Anlagen immer früher vorhersagen. In einem ostwestfälischen F+E-Projekt ist nun eine Software entstanden, die eigenständig lernt und sowohl auf kontinuierliche als auch auf Batch-Prozesse anwendbar ist.

Bild: Resolto Informatik GmbH

Ganz gleich ob Energie, Chemie, Pharma oder Lebensmittel, die fertigende Industrie ist darauf angewiesen, kontinuierlich produzieren zu können. Die Maschinen und Anlagen sind komplex und in der Regel so heterogen, dass sich kaum zwei Anlagen miteinander vergleichen lassen. Viele Fehler lassen sich auch von Experten, die sich direkt im Maschinenpark aufhalten, nur sehr schwer im Voraus erkennen, denn sie entstehen oft aus ungünstigen Korrelationen. Es ist annähernd unmöglich, komplette Anlagen ununterbrochen durch menschliche Experten überwachen zu lassen. Das klassische Condition Monitoring versucht hier zu helfen. Sensoren beobachten und vermessen kontinuierlich, was der Mensch mit seinen Sinnen eben nicht in gleicher Weise erfassen kann. Werden Grenzwerte überschritten, melden sich die Systeme und ein Experte kann prüfen, was gegebenenfalls im Argen liegt.

Zu spät geliefert

In der Praxis zeigt sich aber, dass häufig Informationen zu spät geliefert werden oder irrelevant sind. Auch Korrelationen werden bei diesem einfachen Ansatz nicht bedacht. Da Prognosen bei dieser klassischen Art des Condition Monitoring nicht möglich sind, ist es bei Informationen zu Grenzwertüberschreitungen oft bereits zum Fehler gekommen. Durch den daraus resultierenden möglichen Stillstand der Anlage können hohe Kosten entstehen. Ein weiteres Problem ist, dass für alle Werte saubere Grenzbereiche definiert werden müssen. Da sich Anlagen und Maschinen in ihren Umgebungen und Prozessen nicht immer eins zu eins vergleichen lassen, kann hier ein sehr hoher Arbeitsaufwand bei der individuellen Konfiguration des Systems jeder einzelnen Anlage entstehen. In den letzten Jahren haben darum sogenannte Machine Learning-Verfahren Interesse geweckt.

Algorithmen aus dem Bereich der künstlichen Intelligenz, zu denen zum Beispiel auch neuronale Netze gehören, sind in der Lage, die Datenströme der Sensoren zu beobachten und aus ihren spezifischen Abläufen zu lernen. So lassen sich zum Beispiel Grenzbereiche dynamisch optimieren, aber auch korrelative Verhaltensmuster in den Anlagen erkennen. Wenn sich ein Wert beispielsweise immer negativ verändert während ein anderer positiv ansteigt, kann daraus eine Abhängigkeit beider Informationen abgeleitet werden. Ein zukünftiger Alleingang von einem der Datenströme würde dann als Abweichung registriert. Diese Abweichung kann in einem Web-Interface oder auf mobilen Endgeräten dargestellt werden, um einem verantwortlichen Mitarbeiter wertvolle Informationen zu liefern. Im Wesentlichen ist eine moderne Machine Learning-Software heute in der Lage, vier Dinge zu tun:

  • Tausende paralleler Eingangssignale beobachten und interpretieren
  • Korrelative Muster identifizieren und als ’normal‘, ‚bekanntes Fehlermuster‘ oder ‚zu klassifizierendes Muster‘ kommunizieren
  • Trends erkennen und so zukünftiges Verhalten interpolieren, um Prognosen abgeben zu können
  • Gelerntes Wissen auf andere Produktionseinheiten übertragen, um das Lernen und die Adaption zu beschleunigen

Kaum einsetzbare Lösungen

Aber auch bei diesem Ansatz kann der Teufel im Detail liegen. Es wird zwar viel über solche Algorithmen gesprochen, kaum ein Hersteller hat aber wirklich einsetzbare Lösungen im Angebot. Die meisten prototypischen Beispiele laufen derzeit noch im Hochschulumfeld oder bei forschenden Instituten. Große Unternehmen zum Beispiel der Chemie- und Prozessindustrie erfassen zwar bereits unzählige Daten und archivieren diese in ihren Rechenzentren, genutzt und interpretiert werden sie aber meist nur zur nachträglichen Analyse, nachdem es bereits zu einem teuren Schaden gekommen ist. Zudem sind die archivierten Daten häufig bereits verdichtet, um Speicherplatz zu sparen. Feine Veränderungen und Informationen, die sich im sogenannten ‚Rauschen‘ verbergen, gehen so für alle Zeit verloren.

Eine einsatzfähige, leistungsstarke und wirklich helfende Lösung sollte daher zwei Themen kombinieren: die Echtzeiterfassung großer Datenmengen bei gleichzeitiger Interpretation durch künstliche Intelligenz. Die Automobilindustrie experimentiert mit solchen Ideen schon seit einiger Zeit. Um Autos ohne Fahrer auf den Weg zu schicken, müssen zahlreiche Umgebungsvariablen kontinuierlich erfasst und ausgewertet werden. Zunächst versuchte man daher, die Algorithmen alle denkbaren Fehlerfälle lernen zu lassen. Dies ist eine komplexe Vorbereitung, denn auch Korrelationen müssen berücksichtigt werden. Es zeigte sich schnell, dass dieser Ansatz nicht funktionierte, denn es traten immer wieder Fehler auf, die vorher niemals aufgetreten waren. So wurde unvorhersehbar eine Katze einfach überfahren, weil gleichzeitig die Tankanzeige leuchtete, die Straße nass war und eine Ampel auf grün schaltete.