Datengetriebene Produktionssteuerung

Wann sich Analysesoftware lohnt

Wer heute von Data Analytics im industriellen Bereich hört, denkt oft an hochtechnisierte Umgebungen, in denen nicht nur alles vollautomatisch abläuft, sondern auch Daten absolut ungehindert fließen. Jedoch entspricht diese Vorstellung – noch – nicht ganz der Realität in der Industrie. Sicherlich gibt es bereits Unternehmen, in denen künstliche Intelligenz Daten von Maschinen, Legacy-Systemen und Logistik verbindet und der Mensch lediglich eine regulative Rolle spielt. Der Regelfall ist das nicht. Häufig gibt es noch große Unterschiede beim Einsatz von Business Intelligence.

Bild: QlikTech GmbH
Bild: QlikTech GmbH

Während viele produzierende Unternehmen noch mit Excel planen, stehen andere vor der Herausforderung, verschiedene Datenformate zusammenzuführen und auszuwerten. Sie kämpfen damit, strukturierte ERP-Daten mit Maschinendaten aus der Produktion zu kombinieren und dabei auch Partner, Wartungen und Lieferantenpreise einzubeziehen. Tatsächlich sind die Herausforderungen aber für kaum ein Unternehmen gleich – auch wenn Leuchtturm-Projekte und Best Practices bereits Lern-Potenzial bieten. Obwohl Unternehmen Advanced Analytics sehr unterschiedlich nutzen, haben sie einige grundlegende Anforderungen gemeinsam. Sie benötigen einen Algorithmus, der für eine solide Auswertung der verfügbaren Daten sorgt, eine möglichst anwenderfreundliche Visualisierung der Ergebnisse und eine einfache Bedienung. Doch das alles nützt nichts, wenn Datenquellen nicht vollständig oder nicht in angemessener Zeit in die Analysen eingebunden werden können. Die Verfügbarkeit von Schnittstellen und die Möglichkeit, auf diesen APIs mit Speziallösungen aufzusetzen, haben heute daher oft hohe Priorität. Es geht um die Analytics-Performance: Wie einfach und schnell ist es, Daten aus vielen Quellen zusammenzubringen und lesbar zu machen? Die verschiedenen Datenformate sollten ohne vorgeschaltetes Tool, ohne Middleware oder Data Warehouse lesbar sein, sonst leidet die Leistung darunter. Diese hohe Integrationsfähigkeit ist auch unter dem Gesichtspunkt der Digitalisierung oft notwendig. Es werden Datenquellen erschlossen, die bisher nicht oder nur mühselig und mit hohem Zeitaufwand zugänglich waren.

Faktor Zeit

Near-Realtime-Fähigkeit ist erfolgskritisch für Transformationsprojekte, die etwa auf eine bedarfsorientierte Produktion mittels entscheidungsintelligenter Softwarelösungen zielen. ERP-Lösungen, die um Advanced-Planning-and-Scheduling-Systeme (APS) und eine Data-Analytics-Lösung ergänzt werden, ermöglichen einen optimierten Ressourceneinsatz und eine flexible Produktion. Ein darauf aufbauendes Shopfloor Management erhöht Mobilität und Visibilität und rückt den Fertigungsprozess ins Zentrum der Wertschöpfung. Sind etwa automatisch generierte, maschinenspezifische Kennzahlen per Tablet direkt in der Produktionshalle an den einzelnen Maschinen verfügbar, entfallen manuelle Prozesse der Datengenerierung, Papierausdrucke, etc. Wichtige Indikatoren für die Produktionsplanung wie Maschinenbelegung, Auslastungsgrade, verfügbare Kapazitäten, Planeinhaltung, Abarbeitungsgrad oder Termintreue sind für Fertigungsleiter je Maschine digital in Echtzeit verfügbar – und eröffnen in Kombination mit Daten aus dem ERP-System neue Wege in der Produktionssteuerung. Diese Wege orientieren sich je nach Unternehmen an Preisentwicklung, Lieferantentreue, Lagerbestand, Nachfrage oder Rohstoffverfügbarkeit. Gerade in Zeiten der Digitalisierung müssen immer mehr Fragen schnell und korrekt beantwortet werden. Erst dann kommen die Vorteile einer Analytics-Lösung zum Tragen. Zusammenhänge lassen sich erkennen und Fakten in einen Bezug stellen. Bereitstellen kann man diese Informationen etwa in Reports, die möglichst einfach erstellt werden. Auch andere Bereiche können von der Datenauswertung und darauf basierenden Prognosen profitieren: Wenn etwa Stromgeneratoren in Windrädern nicht nur Produktionsdaten, sondern auch ihre eigenen Maschinendaten übermitteln, die mit Wetter- und Luftbewegungsdaten kombiniert werden. Oder wenn Kühlaggregate in der Food- und Convenience-Branche in einem smarten IoT-Umfeld Risikoszenarien aufgrund von Umgebungstemperatur oder Stromschwankungen selbst erkennen und Alarme senden, sobald Ausfall und Warenverderb drohen.

Im Standard individuell

Ob sich BI-Projekte lohnen, ist eine Frage des Anwendungsfalls. Ist beispielsweise das Reporting im Unternehmen bisher aufwendig, oder das Datenvolumen einfach zu groß für Excel, kann sich eine Analytics-Lösung schneller rechnen. Aber auch Spezialfälle wie das Messen der Auswirkung von Twitter-Posts auf Verkaufskennzahlen oder die Qualitätsmessung in Produktionslinien haben meist einen hohen ROI. Sonderanforderungen hat fast jedes Unternehmen. Dementsprechend ist es sinnvoll, die BI-Lösung dem Unternehmenscharakter oder branchentypischen Besonderheiten anzupassen. Weniger geläufig ist es derzeit noch, eine Komponente mit künstlicher Intelligenz einzubauen. Machine Learning wird aktuell schon teilweise eingesetzt, dennoch ist noch weitere Arbeit nötig, denn für gute Ergebnisse und weit verzweigte neuronale Fähigkeiten muss ein Algorithmus aufwändig entwickelt werden. Herausfordernd ist es, auch künftige Anwendungsszenarien bei KI-Entwicklungen mitzudenken: Das mag die Kommunikation zwischen Mensch und Maschine sein, die Interaktion autonom handelnder Algorithmen oder zielgenaues Marketing, das nicht an rein personenbezogene Daten gebunden ist. Entsprechende Trends stoßen einen Markt an, in dem Beratung und Anpassung sowie Implementierung enorme Bedeutung haben. Denn im Vordergrund stehen – einmal mehr – offene und erweiterbare Plattformen zur Daten- und Systemintegration.


Robert Schmitz ist Area Vice President Southern Europe & Russia bei Qlik.Robert Schmitz ist Area Vice President Southern Europe & Russia bei Qlik.
Jens Siebertz ist VP Inform Bi & Production.Jens Siebertz ist VP Inform BI & Production.