Datenintegration auf dem Weg zur Industrie 4.0

Wohin mit all den Produktionsdaten?

Jede umfassende Digitalisierungsstrategie basiert auf einem tragfähigen Konzept zur Sammlung, Speicherung und Auswertung von Daten. Das Besondere für Produzenten ist die Integration von Fertigungsdaten. In Stufen strukturiert, gelingt sie bedeutend leichter.

(Bild: ©Halfpoint/shutterstock.com)
(Bild: ©Halfpoint/shutterstock.com)

Eine Integration aller Datenströme stellt das Fundament für wichtige Anpassungen der Produktion dar, um beispielsweise die Gesamtanlageneffektivität oder die Gesamtproduktionseffektivität zu steigern. Um die Möglichkeiten einer digitalisierten Produktion zu nutzen, müssen Unternehmen in drei Bereichen tätig werden: Daten, Datenintegration und Datenanalyse. Denn der Kern von Industrie 4.0-Initativen ist auch zu verstehen als der Dreiklang von Informationen, ihrer Integration und ihrer Auswertung.

Rohstoff für die Wertschöpfungskette

Die klassische Industrie 3.0 hat großen Optimierungsbedarf, was die Nutzung von Daten zum Generieren von Wissen betrifft. Produktionssysteme dieser Generation weisen meist eine starke Fragmentierung in Datensilos auf. Viele sind kaum vernetzt, eine ganzheitliche Betrachtung von Prozessen äußerst schwer. Laut Schätzungen wird gegenwärtig weniger als ein Prozent der unstrukturierten Daten eines Unternehmens analysiert. Deshalb findet auch eine Betrachtung und Verknüpfung von internen wie externen Daten häufig nicht statt – obwohl der Anteil unstrukturierter Daten bis zu 80 Prozent ausmacht.

Fundgrube Produktionsdaten

In den Daten von Fertigungsunternehmen steckt enormes Potential. Es zu heben ist jedoch für viele Organisationen herausfordernd. Mit geeigneten Applikationen lassen sich die Schwierigkeiten lösen:

Volume – die Datenmenge: Produktionsanlagen werden mit immer mehr Sensoren ausgestattet, die permanent und in Echtzeit Daten über die unterschiedlichsten Produktionsparameter liefern. Big Data-Technologien unterstützen bei der Speicherung, Verarbeitung und Analyse dieser Daten und liefern wertvolle Erkenntnisse.

Velocity – die Übermittlungsgeschwindigkeit: Nutzt man beispielweise eine Applikation zur prädiktiven Wartung, also zur Vorhersage und Vermeidung von Anlagenausfällen, müssen die Informationen zeitnah an die Wartungsmitarbeiter übermittelt werden. Moderne Streaming Analytics-Technologien ermöglichen eine solche Alarmierung und Proaktivität in den operativen Prozessen einer Produktion.

Variety – die Datenvielfalt: Die wahrscheinlich größte Herausforderung bei analytischen Industrie-4.0-Anwendungen liegt in der Vielfalt der Daten. Bevor die Daten zentral zusammengebracht werden, müssen erst unzählige proprietäre Datenquellen angezapft werden. Im Bereich der Sensoren existiert keinerlei Standard, und Daten werden über viele Formate und Protokolle geliefert. Es bedarf daher leistungsstarker und flexibler Datenintegrationswerkzeuge zur Überwindung dieser Herausforderungen.

Daten stufenweise integrieren

Eine weitere Herausforderung für die systematische Datennutzung in der Produktion liegt darin, die verstreuten Datenquellen so zusammenzuführen, dass am Ende der gewünschte Datenfluss entsteht, der alle wichtigen Systeme in der richtigen Zeit mit den passenden Daten versorgt. Dafür lassen sich folgende Stufen identifizieren:

Data Warehouse: Klassische Data Warehouse-Implementierungen führen Daten aus den unterschiedlichen Systemen automatisiert zusammen, aggregieren sie und stellen Kennzahlen bereit.

Data Lake: In der nächsten Entwicklungsstufe gilt es, mehr Daten zu integrieren und in den Prozessen als Information verfügbar zu machen. Semi- und unstrukturierte Daten müssen angebunden und genutzt werden. Neben der Ausstattung alter Maschinen mit entsprechenden Sensoren, dem Retro-Fitting, und der Datenanbindung verschiedener Sensoren müssen auch neue Systeme für die Speicherung und Verarbeitung dieser Informationen geschaffen werden. Data Lakes und Big Data-Technologien sind die Basis für alle darauf aufsetzenden Advanced Analytics- und Data Science-Applikationen.

Near Realtime: Die nächste Stufe setzt auf die Verarbeitung von Daten in Fast-Echtzeit. Die Datenströme werden nicht erst im Data Warehouse oder Data Lake persistiert, sondern direkt dort ausgewertet, wo sie entstehen: nah am Sensor. Analytics ‚on the Edge‘ ermöglicht, Probleme bereits im Vorfeld abzuwenden, indem bei Erreichung bestimmter Schwellwerte ein Alarm oder die automatische Abschaltung von Maschinen ausgelöst wird.

Data Blending: Darunter wird der Prozess der Kombination von Daten aus mehreren Quellen verstanden, um einen analytischen Datensatz für Entscheidungen zu haben. Data Blending ist erforderlich, wenn die Datenintegrationsprozesse und die Infrastruktur eines Unternehmens nicht ausreichen, um spezifische Datensätze zusammenzuführen, die von den einzelnen Geschäftsbereichen benötigt werden.