„Die Software muss nicht sämtliche Fehler lernen“, sagt Resolto-Geschäftsführerin Tanja Krüger. Bild: Resolto Informatik GmbH

Verfahren einfach umgekehrt

In Ostwestfalen hat sich darum vor gut einem Jahr das Softwareunternehmen Resolto gemeinsam mit dem Frauenhofer IOSB in Lemgo an die Arbeit gemacht dieses Problem zu lösen um das Ergebnis für die Industrie mit einer Standardsoftware nutzbar zu machen. Das Projekt wird gefördert durch das Bundesministerium für Wirtschaft und Energie aufgrund eines Beschlusses des Deutschen Bundestages. Der Ansatz: Das Lernverfahren wird einfach umgedreht. „Die Software muss nicht sämtliche Fehler lernen, sondern den Normalzustand in all seiner Komplexität“, erläutert die Resolto-Geschäftsführerin Tanja Krüger. So funktioniert diese Software am Beispiel eines Windparks: Dreißig unterschiedliche Anlagen sind auf einer großen Fläche verteilt, jede liefert 300 Datenströme und ist zahlreichen natürlichen Veränderungen ausgesetzt. 9.000 Informationen werden also von der Machine Learning-Software in einem Takt von mindestens ein Hertz – besser jedoch zehn Hertz oder feiner – kontinuierlich erfasst. Zusätzlich werden Daten vom Deutschen Wetterdienst inklusive deren Prognosen angeschlossen. So lernt die Software im Laufe der Zeit immer präziser, was im Windpark vor sich geht und wie es mit dem Wetter korreliert. Sie entwickelt selbstständig eine Ereigniswolke aus Normalzuständen. Servicemitarbeiter vor Ort oder in einer Leitwarte haben dabei die Möglichkeit der Software mitzuteilen, ob ein Zustand nicht Teil dieser Normalität ist, also ein Fehler auftritt.

Algorithmen werden klüger

Nach einer gewissen Lernphase wird die Software dann sehr zuverlässig erkennen können, ob etwas normal oder unnormal ist und entsprechende Hinweise geben. Eine menschliche Rückmeldung zu diesen Hinweisen lässt die Algorithmen im Laufe der Zeit immer klüger werden. „Mithilfe historischer Daten lässt sich sehr genau simulieren und überprüfen, wie treffsicher solche Verfahren in ihren Aussagen und Prognosen sind“, sagt Tanja Krüger. Fehler, die in der Vergangenheit zu teuren Ausfällen führten, lassen sich oft lange im Voraus erkennen und verhindern. Inzwischen ist aus dem ostwestfälischen Projekt eine fertige Standardsoftware entstanden. Sie heißt Prognos und funktioniert für alle Produktionsbereiche. Auch sehr unregelmäßige oder sogar Batch-Prozesse können über einen größeren Zeitraum zu definierter Normalität werden. Und wenn Abläufe erst einmal erfasst und erkannt werden, lassen sie sich auch gegeneinander optimieren. Ein Beispiel hierfür ist die Optimierung von Energieverbräuchen oder die Erhöhung von produktivem Output. Allerdings sollte der Produktionspark eine gewisse Größe haben, um wirklich profitieren zu können. Die kleine Drehmaschine in der Werkstatt um die Ecke kann sicher auch sehr gut von ihrem Anwender selbst überwacht werden.

Geringer Aufwand

„Um herauszufinden, ob künstliche Intelligenz die eigenen Produktionsprozesse transparenter und lukrativer machen kann, ist zumeist kein großer Aufwand nötig“, sagt Tanja Krüger. Oft reiche es schon, historische Daten simulativ auswerten zu lassen und so zu schauen, welche aus der Vergangenheit bekannten Fehler viel früher hätten erkannt werden können. Auch die ersten Schritte in Richtung einer Echtzeitinterpretation können überschaubar bleiben. Moderne Datenlogger erfassen die Sensorströme und verbinden sich automatisch mit den Servern des Softwareherstellers, um schnell erste Ergebnisse überprüfen und sehen zu können. Solche Server können mit der lizensierbaren Software aber auch von den produzierenden Anwendern in Eigenregie betrieben werden.