Anzeige
Anzeige
Anzeige
Beitrag drucken

Streaming Analytics an der Netzwerkkante

Daten fließend analysiert

Wenn die eigenen Maschinen und Anlagen digital vernetzt sind, haben Unternehmen im Grunde noch nichts gewonnen. Erst durch die Auswertung der dadurch erhobenen Daten entsteht ein Mehrwert. Streaming Analytics können diese Berechnungen ganz nah an den Ort verlagern, an dem die Daten enstehen.

 (Bild: ©kentoh/stock.adobe.com)

(Bild: ©kentoh/stock.adobe.com)

Eine möglichst hohe Qualität, wenig Ausschuss und minimaler Anlagenstillstand – das sind die Ziele, denen sich Unternehmen durch den Aufbau einer modernen, vollvernetzten Produktion annähern wollen. Basierend auf einem Industrial IoT als Datenplattform sollen so nicht nur schnellere, sondern vor allem auch bessere Entscheidungen getroffen werden. Grundlage für diese Entscheidungen sind über Sensoren und andere Input-Kanäle kontinuierlich erhobene Daten. Doch diese Daten können erst dann einen Mehrwert schaffen, wenn sie auch genutzt werden. Damit aus reinen Daten möglichst früh informierte Entscheidungen werden, kommt Streaming Analytics zum Einsatz, das analytische Modelle direkt in den Datenstrom bringt und eine entsprechende Verarbeitung bereits in den Geräten direkt vor Ort – on the edge – vornimmt. Durch solche Edge Devices können die vernetzten Systeme vorausschauend und effizient auf bereits bestehende oder mit hoher Wahrscheinlichkeit auftretende Probleme adäquat reagieren.

Wissen, was passiert

Für den erfolgreichen Einsatz von Streaming Analytics gibt es zahlreiche Praxisbeispiele, die belegen, wie die oben genannten Anforderungen erfolgreich adressiert werden. Volvo Trucks und Mack Trucks setzen bereits seit rund drei Jahren auf ein System für Predictive Maintenance, um die Ausfallzeiten der Fahrzeuge zu reduzieren. Dabei infomiert das System den Fahrer in Echtzeit über den Zustand seines Lkw und zeigt ihm sogar, wo sich in der Nähe eine Werkstatt befindet, die das vom Verschleiß betroffene Ersatzteil auf Lager hat. Ein weiteres Beispiel ist der Härteofen in einer Zahnradfabrik. Um Hitzeschäden an den Keramikplatten zu vermeiden, wurden teilweise leere Behälter erhitzt – ein unnötiger Verbrauch von Ressourcen. Nach einer Vermessung des Ofens kann die optimale Betriebstemperatur nun über verschiedene Daten wie Temperaturverlauf, Druck oder Verarbeitungsgeschwindigkeit ermittelt und gesteuert werden. So lässt sich nicht nur Leerlauf vermeiden, die teuren Keramikplatten halten zudem deutlich länger.

Ressourcen schonen

Auch bei der Begrenzung von Produktionsausschuss unterstützt Streaming Analytics. Sie kommt beispielsweise bei einer Maschine zum Einsatz, die Gummidichtungen herstellt. Vor dem Einsatz vernetzter IIoT-Lösungen waren die ersten drei produzierten Chargen meist kompletter Ausschuss, da die Maschine nach und nach an die spezifischen Eigenschaften des zu verarbeitenden Kautschuks angepasst werden musste. Variable Faktoren wie Temperatur oder Viskosität sorgten dafür, dass der erste Teil des angelieferten Rohmaterials meist nicht richtig verarbeitet werden konnte. Durch die Erhebung und Auswertung von Daten stellte sich heraus, dass sich vor allem mit besseren Transportmodalitäten ein enormes Einsparpotenzial bei den Produktionsabläufen erzielen lässt. Mittlerweile werden die Informationen über Temperatur und Konsistenz des Rohmaterials über Sensoren in Lkw und Laderampe direkt bei der Anlieferung erhoben und weitergeleitet. Die Produktionsmaschine wird dann entsprechend auf die Betriebsparameter eingestellt. In einer Papierfabrik für Sanitärartikel sorgen Echtzeitdaten ebenfalls für weniger Ausschuss. Die dortigen Anlagen verarbeiten das empfindliche Rohmaterial unter hohen Temperaturen und immensem Druck. Steigt die Luftfeuchtigkeit im Gebäude, löst sich der Zellulosestoff in der Produktion auf und das Material verklumpt. Durch Streaming Analytics hat der Betreiber sowohl Wetterwerte als auch Informationen über das Innenklima im Blick, kann die Maschine also entsprechend einstellen und zeitnah auf veränderte Rahmenbedingungen reagieren. Neben der vorausschauenden Wartung, um Ausfallzeiten zu vermeiden, und der Reduzierung von Fehlproduktionen kommt Streaming Analytics auch zum Einsatz, wenn es darum geht, die vorhandene Produktionsqualität zu steigern. So können Daten beispielsweise Qualitätsunterschiede beim Output von Fräsen beschreiben, die mit bloßem Auge nicht erkennbar sind. In einem zweiten Schritt werden dann automatisch Gegenmaßnahmen eingeleitet, die eine dauerhaft hohe Produktqualität sichern.

Auf die Kommunikation kommt es an

Diese Beispiele lassen erahnen, welches Potenzial in Streaming Analytics für die Fertigungsindustrie noch schlummert. Doch es gibt noch erhebliche Herausforderungen, die vor einer Nutzung der unbestreitbaren Vorteile in großem Stil gemeistert werden müssen. Wie so oft ist dabei eine erfolgreiche Kommunikation der Schlüssel zum Erfolg – und zwar auf verschiedenen Ebenen. Die erste Ebene ist technischer Natur und beschreibt die bereits erwähnte Kommunikation zwischen Maschinen über eine gemeinsame IIoT-Plattform. Voraussetzung für einen funktionierenden Austausch ist eine konsequente Konnektivität der Anlagen. Zwar sind viele Unternehmen bereits dabei, in neue Produktionsanlagen zu investieren oder ältere Maschinen per Retrofitting nachzurüsten, doch es wird schätzungsweise noch drei bis fünf Jahre dauern, bis ein Großteil der Anlagen die Vorteile von Streaming Analytics nutzen kann. In diesem Zusammenhang spielt auch der kommende Mobilfunkstandard 5G eine wichtige Rolle, denn die größere Bandbreite macht nicht nur Edge Devices hinfällig, sie ermöglicht auch eine Analyse in Echtzeit. Mangelnde Konnektivität ist im Übrigen auch ein Grund, warum künstliche Intelligenz in der Produktion momentan noch eine geringe Rolle spielt. Ein flächendeckender Einsatz ist hier erst in zwei bis drei Jahren zu erwarten, wenn eine entsprechende Datengrundlage vorhanden ist. Die zweite Kommunikationsebene betrifft die an den Projekten beteiligten Experten, also Fachingenieure auf der einen und Data Scientists und Solution Architects auf der anderen Seite. Beide Parteien sind Experten auf ihrem Gebiet, haben aber zunächst einen vermeintlich unterschiedlichen Interessensfokus. Während der Ingenieur vorrangig daran interessiert ist, dass die Maschine läuft und möglichst viel produziert, interessiert sich der Data Scientist eher für den Zeitpunkt, die Ursachen und die Dauer eines Ausfalls. Denn aus den generierten Daten kann er dann die Produktqualität ableiten und seine statistischen Modelle verbessern. Doch die jeweiligen Ziele sind kein Widerspruch, im Gegenteil: Ein Projekt funktioniert genau dann besonders gut, wenn sich beide Seiten ergänzen und die Expertise aus ihrem jeweiligen Fachgebiet einfließen lassen.


Das könnte Sie auch interessieren:

Anlässlich des Digital-Gipfels der Bundesregierung präsentiert die Plattform Industrie 4.0 Anwendungen für eine nachhaltige Industrie 4.0. Anhand von Analysen haben die Plattform-Spezialisten dabei drei mögliche Entwicklungspfade identifiziert.‣ weiterlesen

Der SAP-Partner Itelligence übernimmt das finnische SAP-Beratungshaus Pasafin Oy. Mit der Übernahme will das Unternehmen seine Position in Skandinavien stärken.‣ weiterlesen

Bei Hackerangriffen sind die Mitarbeiter und ihre schwachen Passwörter nach wie vor Angriffspunkt Nummer Eins. Doch wie sieht ein starkes Passwort heute aus, und wie können Firmen herbeiführen, dass nur solche vergeben werden?‣ weiterlesen

Immer mehr Produzenten entwickeln zur Zeit hochvernetzte Software in Eigenregie. Gerade bei Microservice-Projekten bringen verfügbare APIs die Vorhaben schneller als früher voran. Doch der Umgang mit ihnen erfordert Strategie.‣ weiterlesen

Seit kurzem ist Version 7.0 der Startup Tools von Inneo verfügbar. Die Lösung soll Anwenderunternehmen die einheitliche Arbeit mit Engineering-Software von PTC erleichtern.‣ weiterlesen

Condition-Monitoring-Systeme werden meist nur an wenigen hochkritischen Stellen installiert, weil sie noch immer kostspielig und kompliziert einzurichten sind. Mit den BCM-Sensoren von Balluf sollen sich auch normale Komponenten wirtschaftlich überwachen lassen.‣ weiterlesen

Der Anbieter von Wearables und AR-Lösungen Ubimax hat ein Release der AR-Softwareplattform Frontline angekündigt. Das kürzlich von Teamviewer übernommene Unternehmen hat in Frontline 3.0 eine Zwei-Faktor-Authentifizierung (2FA) sowie ein erweitertes Identitäts- und Zugriffsmanagement einschließlich Single-Sign-On (SSO) über das grundlegende Nutzerverwaltungssystem des Kunden eingeführt.‣ weiterlesen

Viele Anwendungen aus dem Industrie-4.0-Spektrum basieren auf der Verfügbarkeit von Produktdaten. Um diese strukturiert bereitzustellen, helfen Werkzeuge zur Datenklassifizierung wie die neue NovaDB im Zusammenspiel. Zusammen mit Anwendungspaketen können etwa elektronische Produktkataloge erstellt und gepflegt werden.‣ weiterlesen

Die MTU Maintenance Berlin-Brandenburg GmbH setzt zur Auswertung von Produktionsdaten selbstentwickelte Analysetools ein. Weil diese nicht den vollen Funktionsumfang moderner BI-Lösungen bieten, wurden in einem multiperspektiven Auswahlverfahren geeignete Softwareprodukte identifiziert. Dieses sollte sicherstellen, dass die gewählten Programme die Analyse- und Reportingprozesse bestmöglich unterstützen und im Unternehmen gut angenommen werden.‣ weiterlesen

KI-basierte Systeme und Maschinen werden immer autonomer, selbstständiger und intelligenter. Ob und wie ist es zu schaffen, dass sie auf Dauer menschlichen Werten und Regeln folgen? Dr. Kurt D. Bettenhausen, Vorsitzender des interdisziplinären Gremiums Digitale Transformation im VDI und Vorstandsmitglied der VDI/VDE-GMA, spricht im zehnten Teil unserer Serie Autonome Systeme mit dem VDI.‣ weiterlesen

Nachdem die PSI Software AG bereits bekanntgegeben hatte, das Finanzvorstand Harald Fuchs das Unternehmen im nächsten Jahr verlässt, steht nun fest, dass Gunnar Glöckner den Posten ab Juli 2021 übernehmen wird.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige