Anzeige
Anzeige
Beitrag drucken

Datenintegration auf dem Weg zur Industrie 4.0

Wohin mit all den Produktionsdaten?

Jede umfassende Digitalisierungsstrategie basiert auf einem tragfähigen Konzept zur Sammlung, Speicherung und Auswertung von Daten. Das Besondere für Produzenten ist die Integration von Fertigungsdaten. In Stufen strukturiert, gelingt sie bedeutend leichter.

(Bild: ©Halfpoint/shutterstock.com)

(Bild: ©Halfpoint/shutterstock.com)

Eine Integration aller Datenströme stellt das Fundament für wichtige Anpassungen der Produktion dar, um beispielsweise die Gesamtanlageneffektivität oder die Gesamtproduktionseffektivität zu steigern. Um die Möglichkeiten einer digitalisierten Produktion zu nutzen, müssen Unternehmen in drei Bereichen tätig werden: Daten, Datenintegration und Datenanalyse. Denn der Kern von Industrie 4.0-Initativen ist auch zu verstehen als der Dreiklang von Informationen, ihrer Integration und ihrer Auswertung.

Rohstoff für die Wertschöpfungskette

Die klassische Industrie 3.0 hat großen Optimierungsbedarf, was die Nutzung von Daten zum Generieren von Wissen betrifft. Produktionssysteme dieser Generation weisen meist eine starke Fragmentierung in Datensilos auf. Viele sind kaum vernetzt, eine ganzheitliche Betrachtung von Prozessen äußerst schwer. Laut Schätzungen wird gegenwärtig weniger als ein Prozent der unstrukturierten Daten eines Unternehmens analysiert. Deshalb findet auch eine Betrachtung und Verknüpfung von internen wie externen Daten häufig nicht statt – obwohl der Anteil unstrukturierter Daten bis zu 80 Prozent ausmacht.

Fundgrube Produktionsdaten

In den Daten von Fertigungsunternehmen steckt enormes Potential. Es zu heben ist jedoch für viele Organisationen herausfordernd. Mit geeigneten Applikationen lassen sich die Schwierigkeiten lösen:

Volume – die Datenmenge: Produktionsanlagen werden mit immer mehr Sensoren ausgestattet, die permanent und in Echtzeit Daten über die unterschiedlichsten Produktionsparameter liefern. Big Data-Technologien unterstützen bei der Speicherung, Verarbeitung und Analyse dieser Daten und liefern wertvolle Erkenntnisse.

Velocity – die Übermittlungsgeschwindigkeit: Nutzt man beispielweise eine Applikation zur prädiktiven Wartung, also zur Vorhersage und Vermeidung von Anlagenausfällen, müssen die Informationen zeitnah an die Wartungsmitarbeiter übermittelt werden. Moderne Streaming Analytics-Technologien ermöglichen eine solche Alarmierung und Proaktivität in den operativen Prozessen einer Produktion.

Variety – die Datenvielfalt: Die wahrscheinlich größte Herausforderung bei analytischen Industrie-4.0-Anwendungen liegt in der Vielfalt der Daten. Bevor die Daten zentral zusammengebracht werden, müssen erst unzählige proprietäre Datenquellen angezapft werden. Im Bereich der Sensoren existiert keinerlei Standard, und Daten werden über viele Formate und Protokolle geliefert. Es bedarf daher leistungsstarker und flexibler Datenintegrationswerkzeuge zur Überwindung dieser Herausforderungen.

Daten stufenweise integrieren

Eine weitere Herausforderung für die systematische Datennutzung in der Produktion liegt darin, die verstreuten Datenquellen so zusammenzuführen, dass am Ende der gewünschte Datenfluss entsteht, der alle wichtigen Systeme in der richtigen Zeit mit den passenden Daten versorgt. Dafür lassen sich folgende Stufen identifizieren:

Data Warehouse: Klassische Data Warehouse-Implementierungen führen Daten aus den unterschiedlichen Systemen automatisiert zusammen, aggregieren sie und stellen Kennzahlen bereit.

Data Lake: In der nächsten Entwicklungsstufe gilt es, mehr Daten zu integrieren und in den Prozessen als Information verfügbar zu machen. Semi- und unstrukturierte Daten müssen angebunden und genutzt werden. Neben der Ausstattung alter Maschinen mit entsprechenden Sensoren, dem Retro-Fitting, und der Datenanbindung verschiedener Sensoren müssen auch neue Systeme für die Speicherung und Verarbeitung dieser Informationen geschaffen werden. Data Lakes und Big Data-Technologien sind die Basis für alle darauf aufsetzenden Advanced Analytics- und Data Science-Applikationen.

Near Realtime: Die nächste Stufe setzt auf die Verarbeitung von Daten in Fast-Echtzeit. Die Datenströme werden nicht erst im Data Warehouse oder Data Lake persistiert, sondern direkt dort ausgewertet, wo sie entstehen: nah am Sensor. Analytics ‚on the Edge‘ ermöglicht, Probleme bereits im Vorfeld abzuwenden, indem bei Erreichung bestimmter Schwellwerte ein Alarm oder die automatische Abschaltung von Maschinen ausgelöst wird.

Data Blending: Darunter wird der Prozess der Kombination von Daten aus mehreren Quellen verstanden, um einen analytischen Datensatz für Entscheidungen zu haben. Data Blending ist erforderlich, wenn die Datenintegrationsprozesse und die Infrastruktur eines Unternehmens nicht ausreichen, um spezifische Datensätze zusammenzuführen, die von den einzelnen Geschäftsbereichen benötigt werden.


Das könnte Sie auch interessieren:

Ab und zu fehlte ein Schlüssel im Kloster der Franziskanerinnen der ewigen Anbetung von Schwäbisch Gmünd. Beim letzten Mal gab das den Impuls, anstatt neue mechanische Zylinder in die rund 220 Türen des Komplexes einzubauen, die alte Technik durch das Bluesmart-System von Winkhaus zu ersetzen.‣ weiterlesen

Mit 100,5 Punkten hält sich das IAB-Arbeitsmarktbarometer im November stabil und liegt weiter im leicht über der neutralen Marke. Auf europäischer Ebene sank der Frühindikator allerdings erneut.‣ weiterlesen

In einer neuen Expertise des Forschungsbeirats Industrie 4.0 untersuchen das FIR an der RWTH Aachen und das Industrie 4.0 Maturity Center den Status-quo und die aktuellen Herausforderungen der deutschen Industrie bei der Nutzung und wirtschaftlichen Verwertung von industriellen Daten und geben Handlungsempfehlungen für Unternehmen, Verbände, Politik und Wissenschaft.‣ weiterlesen

Im Forschungsprojekt FabOS soll eine KI-Bin-Picking-Anwendung entstehen, die ein verbessertes Erkennen, Greifen und definiertes Ablegen von Blechteilen in der Produktion ermöglicht.‣ weiterlesen

Die Digitalisierung des Qualitätsmanagements stellt Unternehmen vor Herausforderungen. Daher haben das Fraunhofer IPT und die FH Südwestfalen im Forschungsvorhaben 'Qbility - Quality 4.0 Capability Determination Model' ein datengetriebenes Reifegradmodell entwickelt, das die Anforderungen eines digitalisierten Qualitätsmanagements bei KMU adressiert.‣ weiterlesen

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) empfiehlt sicherheitsrelevante Patches und Updates so schnell wie möglich, unter Abwägung des jeweiligen Risikos, einzuspielen, auch wenn im professionellen und insbesondere industriellen Umfeld automatisierte Software-Updates mit unerwünschten Einschränkungen der Funktionalität - etwa durch einen Neustart des Systems - verbunden sein können.‣ weiterlesen

Im Gegensatz zu anderen Cyberangriffen bieten Attacken mit Ransomware auf den ersten Blick einen einfachen Ausweg: die Zahlung des geforderten Lösegelds.‣ weiterlesen

Nach 84,5 Punkten im Oktober kletterte der Ifo-Geschäftsklimaindex im November auf 86,3 Punkte. Die Unternehmen blicken demnach weniger pessimistisch auf die nächsten Monate.‣ weiterlesen

In Kombination mit einer Augmented-Reality-Brille bietet eine neue Software des Fraunhofer IGD digitale Unterstützung von Absortiervorgängen. Zusammengehörige Bauteile werden direkt im Sichtfeld der Beschäftigten an der Produktionslinie farblich überlagert. Anwender im Automotive-Bereich können so etwa durch beschleunigte Prozesse und eine minimierte Fehleranfälligkeit Kosten reduzieren.‣ weiterlesen

Edge Management, Digital Twin und Data Spaces bilden die Schwerpunkte einer Zusammenarbeit zwischen der Open Industry 4.0 Alliance und dem Labs Network Industrie 4.0.‣ weiterlesen