Anzeige
Anzeige
Anzeige
Beitrag drucken

Machine Learning-Algorithmen

Fehler vorhersagen mit künstlicher Intelligenz

Muster-, Anomalie und Korrelationserkennung: Mit Algorithmen der künstlichen Intelligenz lassen sich Probleme in Maschinen und Anlagen immer früher vorhersagen. In einem ostwestfälischen F+E-Projekt ist nun eine Software entstanden, die eigenständig lernt und sowohl auf kontinuierliche als auch auf Batch-Prozesse anwendbar ist.

Bild: Resolto Informatik GmbH

Ganz gleich ob Energie, Chemie, Pharma oder Lebensmittel, die fertigende Industrie ist darauf angewiesen, kontinuierlich produzieren zu können. Die Maschinen und Anlagen sind komplex und in der Regel so heterogen, dass sich kaum zwei Anlagen miteinander vergleichen lassen. Viele Fehler lassen sich auch von Experten, die sich direkt im Maschinenpark aufhalten, nur sehr schwer im Voraus erkennen, denn sie entstehen oft aus ungünstigen Korrelationen. Es ist annähernd unmöglich, komplette Anlagen ununterbrochen durch menschliche Experten überwachen zu lassen. Das klassische Condition Monitoring versucht hier zu helfen. Sensoren beobachten und vermessen kontinuierlich, was der Mensch mit seinen Sinnen eben nicht in gleicher Weise erfassen kann. Werden Grenzwerte überschritten, melden sich die Systeme und ein Experte kann prüfen, was gegebenenfalls im Argen liegt.

Zu spät geliefert

In der Praxis zeigt sich aber, dass häufig Informationen zu spät geliefert werden oder irrelevant sind. Auch Korrelationen werden bei diesem einfachen Ansatz nicht bedacht. Da Prognosen bei dieser klassischen Art des Condition Monitoring nicht möglich sind, ist es bei Informationen zu Grenzwertüberschreitungen oft bereits zum Fehler gekommen. Durch den daraus resultierenden möglichen Stillstand der Anlage können hohe Kosten entstehen. Ein weiteres Problem ist, dass für alle Werte saubere Grenzbereiche definiert werden müssen. Da sich Anlagen und Maschinen in ihren Umgebungen und Prozessen nicht immer eins zu eins vergleichen lassen, kann hier ein sehr hoher Arbeitsaufwand bei der individuellen Konfiguration des Systems jeder einzelnen Anlage entstehen. In den letzten Jahren haben darum sogenannte Machine Learning-Verfahren Interesse geweckt.

Algorithmen aus dem Bereich der künstlichen Intelligenz, zu denen zum Beispiel auch neuronale Netze gehören, sind in der Lage, die Datenströme der Sensoren zu beobachten und aus ihren spezifischen Abläufen zu lernen. So lassen sich zum Beispiel Grenzbereiche dynamisch optimieren, aber auch korrelative Verhaltensmuster in den Anlagen erkennen. Wenn sich ein Wert beispielsweise immer negativ verändert während ein anderer positiv ansteigt, kann daraus eine Abhängigkeit beider Informationen abgeleitet werden. Ein zukünftiger Alleingang von einem der Datenströme würde dann als Abweichung registriert. Diese Abweichung kann in einem Web-Interface oder auf mobilen Endgeräten dargestellt werden, um einem verantwortlichen Mitarbeiter wertvolle Informationen zu liefern. Im Wesentlichen ist eine moderne Machine Learning-Software heute in der Lage, vier Dinge zu tun:

  • Tausende paralleler Eingangssignale beobachten und interpretieren
  • Korrelative Muster identifizieren und als ’normal‘, ‚bekanntes Fehlermuster‘ oder ‚zu klassifizierendes Muster‘ kommunizieren
  • Trends erkennen und so zukünftiges Verhalten interpolieren, um Prognosen abgeben zu können
  • Gelerntes Wissen auf andere Produktionseinheiten übertragen, um das Lernen und die Adaption zu beschleunigen

Kaum einsetzbare Lösungen

Aber auch bei diesem Ansatz kann der Teufel im Detail liegen. Es wird zwar viel über solche Algorithmen gesprochen, kaum ein Hersteller hat aber wirklich einsetzbare Lösungen im Angebot. Die meisten prototypischen Beispiele laufen derzeit noch im Hochschulumfeld oder bei forschenden Instituten. Große Unternehmen zum Beispiel der Chemie- und Prozessindustrie erfassen zwar bereits unzählige Daten und archivieren diese in ihren Rechenzentren, genutzt und interpretiert werden sie aber meist nur zur nachträglichen Analyse, nachdem es bereits zu einem teuren Schaden gekommen ist. Zudem sind die archivierten Daten häufig bereits verdichtet, um Speicherplatz zu sparen. Feine Veränderungen und Informationen, die sich im sogenannten ‚Rauschen‘ verbergen, gehen so für alle Zeit verloren.

Eine einsatzfähige, leistungsstarke und wirklich helfende Lösung sollte daher zwei Themen kombinieren: die Echtzeiterfassung großer Datenmengen bei gleichzeitiger Interpretation durch künstliche Intelligenz. Die Automobilindustrie experimentiert mit solchen Ideen schon seit einiger Zeit. Um Autos ohne Fahrer auf den Weg zu schicken, müssen zahlreiche Umgebungsvariablen kontinuierlich erfasst und ausgewertet werden. Zunächst versuchte man daher, die Algorithmen alle denkbaren Fehlerfälle lernen zu lassen. Dies ist eine komplexe Vorbereitung, denn auch Korrelationen müssen berücksichtigt werden. Es zeigte sich schnell, dass dieser Ansatz nicht funktionierte, denn es traten immer wieder Fehler auf, die vorher niemals aufgetreten waren. So wurde unvorhersehbar eine Katze einfach überfahren, weil gleichzeitig die Tankanzeige leuchtete, die Straße nass war und eine Ampel auf grün schaltete.


Das könnte Sie auch interessieren:

In ihrer Beschaffenheit sind Manufacturing Execution Systems die wohl beste Plattform, um auch die Handmontage digital abzubilden. Doch wie sehen Lösungskonzepte aus, die neben Fertigungsanlagen, Maschinen und Robotern auch Menschen miteinbeziehen?‣ weiterlesen

Zeiss übernimmt das US-Unternehmen Capture 3D und baut die Kompetenz im Bereich 3D-Mess- und Inspektionslösungen aus.‣ weiterlesen

Viele Unternehmen organisieren ihre Produktionsvorbereitung analog und ohne Zugang zur 3D-Konstruktion. Neue Anwendungen könnten diese Schritte zwischen Design und Fertigung künftig erleichtern, indem sie 3D-Modelle von Produkten samt zugehöriger Daten und etwaige Designänderungen laufend zur Verfügung stellen.‣ weiterlesen

Das IT-Beratungs- und Softwarehaus Valantic partnert künftig mit Systema, einem eigentümergeführten Systemintegrator, der sich auf Softwarelösungen und Dienstleistungen zur MES-Integration, Fertigungsautomatisierung und Produktionsoptimierung spezialisiert hat.‣ weiterlesen

Wenn Lieferzahlen und Produktvarianz steigen, wächst auch das Kommunikationsaufkommen in den Netzwerken. Um solchen Flaschenhälsen vorzubeugen, hat Škoda auf eine cloudbasierte Netzwerklösung umgerüstet.‣ weiterlesen

Dokumentation ist ein wesentlicher Bestandteil jeder nachhaltigen Datenarchitektur. Entwickler-Teams vernachlässigen das oft aus praktischen Gründen, denn sie stehen unter enormen Termindruck und werden eher nach dem Code beurteilt, als danach, wie gut sie ihn dokumentieren.‣ weiterlesen

Künstliche Intelligenz auf Werksebene dient meist der Optimierung oder der Analyse komplexer Zusammenhänge. In der Produktionsplanung zum Beispiel können bessere Algorithmen, getragen von mehr Rechenleistung, heuristische Ansätze im Ergebnis deutlich übertreffen.‣ weiterlesen

Die Deutschen Industrieunternehmen wollen ihre Produktion ausweiten. Die gesteigerten Erwartungen verhelfen dem entsprechenden Indikator des Ifo Instituts zum höchsten Stand seit 1991.‣ weiterlesen

57 Prozent der Unternehmen aus der verarbeitenden Industrie gehen davon aus, gestärkt aus der Coronakrise hervorzugehen. Das geht aus einer Studie von Sopra Steria und dem F.A.Z.-Institut hervor. Um diese Position auch künftig behaupten zu können, wollen die Betriebe laut Studie die eigene Widerstandsfähigkeit als strategisches Thema verankern.‣ weiterlesen

Das sogenannte Wasserfall-Prinzip in der Software-Entwicklung kommt immer seltener zum Einsatz. Häufiger sind agile Methoden wie die ’Continuous Integration’, bei denen Software in kleinen Einheiten kontinuierlich erweitert und verbessert wird. Welche Vorteile dies für die Nutzer bringt, zeigt das Softwareunternehmen Sage.‣ weiterlesen

Neues Mitglied im MES D.A.CH: Der MES-Anbieter PSI Automotive & Industry ist dem Verband beigetreten.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige