Anzeige
Anzeige
Anzeige
Beitrag drucken

Machine Learning-Algorithmen

Fehler vorhersagen mit künstlicher Intelligenz

Muster-, Anomalie und Korrelationserkennung: Mit Algorithmen der künstlichen Intelligenz lassen sich Probleme in Maschinen und Anlagen immer früher vorhersagen. In einem ostwestfälischen F+E-Projekt ist nun eine Software entstanden, die eigenständig lernt und sowohl auf kontinuierliche als auch auf Batch-Prozesse anwendbar ist.

Bild: Resolto Informatik GmbH

Ganz gleich ob Energie, Chemie, Pharma oder Lebensmittel, die fertigende Industrie ist darauf angewiesen, kontinuierlich produzieren zu können. Die Maschinen und Anlagen sind komplex und in der Regel so heterogen, dass sich kaum zwei Anlagen miteinander vergleichen lassen. Viele Fehler lassen sich auch von Experten, die sich direkt im Maschinenpark aufhalten, nur sehr schwer im Voraus erkennen, denn sie entstehen oft aus ungünstigen Korrelationen. Es ist annähernd unmöglich, komplette Anlagen ununterbrochen durch menschliche Experten überwachen zu lassen. Das klassische Condition Monitoring versucht hier zu helfen. Sensoren beobachten und vermessen kontinuierlich, was der Mensch mit seinen Sinnen eben nicht in gleicher Weise erfassen kann. Werden Grenzwerte überschritten, melden sich die Systeme und ein Experte kann prüfen, was gegebenenfalls im Argen liegt.

Zu spät geliefert

In der Praxis zeigt sich aber, dass häufig Informationen zu spät geliefert werden oder irrelevant sind. Auch Korrelationen werden bei diesem einfachen Ansatz nicht bedacht. Da Prognosen bei dieser klassischen Art des Condition Monitoring nicht möglich sind, ist es bei Informationen zu Grenzwertüberschreitungen oft bereits zum Fehler gekommen. Durch den daraus resultierenden möglichen Stillstand der Anlage können hohe Kosten entstehen. Ein weiteres Problem ist, dass für alle Werte saubere Grenzbereiche definiert werden müssen. Da sich Anlagen und Maschinen in ihren Umgebungen und Prozessen nicht immer eins zu eins vergleichen lassen, kann hier ein sehr hoher Arbeitsaufwand bei der individuellen Konfiguration des Systems jeder einzelnen Anlage entstehen. In den letzten Jahren haben darum sogenannte Machine Learning-Verfahren Interesse geweckt.

Algorithmen aus dem Bereich der künstlichen Intelligenz, zu denen zum Beispiel auch neuronale Netze gehören, sind in der Lage, die Datenströme der Sensoren zu beobachten und aus ihren spezifischen Abläufen zu lernen. So lassen sich zum Beispiel Grenzbereiche dynamisch optimieren, aber auch korrelative Verhaltensmuster in den Anlagen erkennen. Wenn sich ein Wert beispielsweise immer negativ verändert während ein anderer positiv ansteigt, kann daraus eine Abhängigkeit beider Informationen abgeleitet werden. Ein zukünftiger Alleingang von einem der Datenströme würde dann als Abweichung registriert. Diese Abweichung kann in einem Web-Interface oder auf mobilen Endgeräten dargestellt werden, um einem verantwortlichen Mitarbeiter wertvolle Informationen zu liefern. Im Wesentlichen ist eine moderne Machine Learning-Software heute in der Lage, vier Dinge zu tun:

  • Tausende paralleler Eingangssignale beobachten und interpretieren
  • Korrelative Muster identifizieren und als ’normal‘, ‚bekanntes Fehlermuster‘ oder ‚zu klassifizierendes Muster‘ kommunizieren
  • Trends erkennen und so zukünftiges Verhalten interpolieren, um Prognosen abgeben zu können
  • Gelerntes Wissen auf andere Produktionseinheiten übertragen, um das Lernen und die Adaption zu beschleunigen

Kaum einsetzbare Lösungen

Aber auch bei diesem Ansatz kann der Teufel im Detail liegen. Es wird zwar viel über solche Algorithmen gesprochen, kaum ein Hersteller hat aber wirklich einsetzbare Lösungen im Angebot. Die meisten prototypischen Beispiele laufen derzeit noch im Hochschulumfeld oder bei forschenden Instituten. Große Unternehmen zum Beispiel der Chemie- und Prozessindustrie erfassen zwar bereits unzählige Daten und archivieren diese in ihren Rechenzentren, genutzt und interpretiert werden sie aber meist nur zur nachträglichen Analyse, nachdem es bereits zu einem teuren Schaden gekommen ist. Zudem sind die archivierten Daten häufig bereits verdichtet, um Speicherplatz zu sparen. Feine Veränderungen und Informationen, die sich im sogenannten ‚Rauschen‘ verbergen, gehen so für alle Zeit verloren.

Eine einsatzfähige, leistungsstarke und wirklich helfende Lösung sollte daher zwei Themen kombinieren: die Echtzeiterfassung großer Datenmengen bei gleichzeitiger Interpretation durch künstliche Intelligenz. Die Automobilindustrie experimentiert mit solchen Ideen schon seit einiger Zeit. Um Autos ohne Fahrer auf den Weg zu schicken, müssen zahlreiche Umgebungsvariablen kontinuierlich erfasst und ausgewertet werden. Zunächst versuchte man daher, die Algorithmen alle denkbaren Fehlerfälle lernen zu lassen. Dies ist eine komplexe Vorbereitung, denn auch Korrelationen müssen berücksichtigt werden. Es zeigte sich schnell, dass dieser Ansatz nicht funktionierte, denn es traten immer wieder Fehler auf, die vorher niemals aufgetreten waren. So wurde unvorhersehbar eine Katze einfach überfahren, weil gleichzeitig die Tankanzeige leuchtete, die Straße nass war und eine Ampel auf grün schaltete.


Das könnte Sie auch interessieren:

Von der industriellen Produktion über die Intralogistik, von der landwirtschaftlichen Maschine bis zur Medizintechnik: Digitalisierung ist eine Voraussetzung für den künftigen Erfolg eines Unternehmens. Im Gespräch verdeutlicht Branchenexperte Stefan Götz den Kern eines cleveren Industrial-IT-Setups: Technologie, Kommunikation, Daten, IoT, Automation und Vernetzung. Der Industrie- und Embedded-PC ist die Drehscheibe.‣ weiterlesen

Das Fraunhofer-Institut für Photonische Mikrosysteme IPMS entwickelt zusammen mit europäischen Partnern im Projekt QLSI eine skalierbare Technologie für Silizium-Qubits für Quantencomputer.‣ weiterlesen

Mit dem Strategiepapier ‘Cyber Security Design Principles‘ will die Open Industry 4.0 Alliance darüber informieren, wie Unternehmen das Thema Sicherheit von der Werkshalle bis zur Cloud umsetzen können.‣ weiterlesen

Mit ihren Systemen rund um Dämpfe, Gase und Ventile spielt die GEMÜ Gruppe weltweit in der ersten Reihe. Als digitaler Knotenpunkt dient das ERP-System PSIpenta. Dessen Module zur adaptiven Produktionsplanung- und Steuerung verhelfen dem Familienunternehmen über Werks- und Landesgrenzen hinweg zu fast hundertprozentiger Liefertermintreue.‣ weiterlesen

Es gibt keinen Textauszug, da dies ein geschützter Beitrag ist.‣ weiterlesen

Aus dem Industrie-4.0-Barometer der Management- und IT-Beratung MHP geht hervor, dass sich die Position eines CIO in der Geschäftsführung positiv auf Umsetzung von Industrie-4.0-Ansätzen auswirkt.‣ weiterlesen

Durch die Pandemie und durch die Digitalisierung steigt der Innovationsdruck auf die deutsche Industrie. Wie die aktuelle CGI-Studie zeigt, können agile Unternehmen besser mit den damit verbundenen Herausforderungen umgehen.‣ weiterlesen

Das Internet der Dinge bringt physische und digitale Welten zunehmend zusammen. Schon längst geht es nicht mehr nur um die pure Vernetzung von Geräten, sondern um Systeme, die Menschen, digitale Lösungen und Objekte aus der realen Welt verknüpfen.‣ weiterlesen

Kooperationen mit Technologie-Startups bieten für etablierte Unternehmen Chancen, um die digitale Transformation zu bewältigen und wettbewerbsfähig zu bleiben. Doch selbst wenn große Organisationen schon mit jungen Firmen kooperieren, nutzen sie das Potenzial dieser Zusammenarbeit oft kaum aus.‣ weiterlesen

231.000 offene Stellen weniger als im vierten Quartal 2019 verzeichnet das Institut für Arbeitsmarkt und Berufsforschung in der aktuellen Stellenerhebung. Demnach ist die Zahl der offenen Stellen gegenüber dem dritten Quartal 2020 jedoch gestiegen.‣ weiterlesen

Die vermehrte Arbeit im Homeoffice reduziert die CO2-Emissionen, die beispielsweise durch Pendeln entstehen. Auf der anderen Seite steigt der Stromverbrauch zuhause. Wie dieser reduziert werden kann, zeigen Tipps der Fachgemeinschaft für effiziente Energieanwendung.‣ weiterlesen

Anzeige
Anzeige
Anzeige