Anzeige
Anzeige
Anzeige
Beitrag drucken

Datenintegration auf dem Weg zur Industrie 4.0

Wohin mit all den Produktionsdaten?

Jede umfassende Digitalisierungsstrategie basiert auf einem tragfähigen Konzept zur Sammlung, Speicherung und Auswertung von Daten. Das Besondere für Produzenten ist die Integration von Fertigungsdaten. In Stufen strukturiert, gelingt sie bedeutend leichter.

(Bild: ©Halfpoint/shutterstock.com)

(Bild: ©Halfpoint/shutterstock.com)

Eine Integration aller Datenströme stellt das Fundament für wichtige Anpassungen der Produktion dar, um beispielsweise die Gesamtanlageneffektivität oder die Gesamtproduktionseffektivität zu steigern. Um die Möglichkeiten einer digitalisierten Produktion zu nutzen, müssen Unternehmen in drei Bereichen tätig werden: Daten, Datenintegration und Datenanalyse. Denn der Kern von Industrie 4.0-Initativen ist auch zu verstehen als der Dreiklang von Informationen, ihrer Integration und ihrer Auswertung.

Rohstoff für die Wertschöpfungskette

Die klassische Industrie 3.0 hat großen Optimierungsbedarf, was die Nutzung von Daten zum Generieren von Wissen betrifft. Produktionssysteme dieser Generation weisen meist eine starke Fragmentierung in Datensilos auf. Viele sind kaum vernetzt, eine ganzheitliche Betrachtung von Prozessen äußerst schwer. Laut Schätzungen wird gegenwärtig weniger als ein Prozent der unstrukturierten Daten eines Unternehmens analysiert. Deshalb findet auch eine Betrachtung und Verknüpfung von internen wie externen Daten häufig nicht statt – obwohl der Anteil unstrukturierter Daten bis zu 80 Prozent ausmacht.

Fundgrube Produktionsdaten

In den Daten von Fertigungsunternehmen steckt enormes Potential. Es zu heben ist jedoch für viele Organisationen herausfordernd. Mit geeigneten Applikationen lassen sich die Schwierigkeiten lösen:

Volume – die Datenmenge: Produktionsanlagen werden mit immer mehr Sensoren ausgestattet, die permanent und in Echtzeit Daten über die unterschiedlichsten Produktionsparameter liefern. Big Data-Technologien unterstützen bei der Speicherung, Verarbeitung und Analyse dieser Daten und liefern wertvolle Erkenntnisse.

Velocity – die Übermittlungsgeschwindigkeit: Nutzt man beispielweise eine Applikation zur prädiktiven Wartung, also zur Vorhersage und Vermeidung von Anlagenausfällen, müssen die Informationen zeitnah an die Wartungsmitarbeiter übermittelt werden. Moderne Streaming Analytics-Technologien ermöglichen eine solche Alarmierung und Proaktivität in den operativen Prozessen einer Produktion.

Variety – die Datenvielfalt: Die wahrscheinlich größte Herausforderung bei analytischen Industrie-4.0-Anwendungen liegt in der Vielfalt der Daten. Bevor die Daten zentral zusammengebracht werden, müssen erst unzählige proprietäre Datenquellen angezapft werden. Im Bereich der Sensoren existiert keinerlei Standard, und Daten werden über viele Formate und Protokolle geliefert. Es bedarf daher leistungsstarker und flexibler Datenintegrationswerkzeuge zur Überwindung dieser Herausforderungen.

Daten stufenweise integrieren

Eine weitere Herausforderung für die systematische Datennutzung in der Produktion liegt darin, die verstreuten Datenquellen so zusammenzuführen, dass am Ende der gewünschte Datenfluss entsteht, der alle wichtigen Systeme in der richtigen Zeit mit den passenden Daten versorgt. Dafür lassen sich folgende Stufen identifizieren:

Data Warehouse: Klassische Data Warehouse-Implementierungen führen Daten aus den unterschiedlichen Systemen automatisiert zusammen, aggregieren sie und stellen Kennzahlen bereit.

Data Lake: In der nächsten Entwicklungsstufe gilt es, mehr Daten zu integrieren und in den Prozessen als Information verfügbar zu machen. Semi- und unstrukturierte Daten müssen angebunden und genutzt werden. Neben der Ausstattung alter Maschinen mit entsprechenden Sensoren, dem Retro-Fitting, und der Datenanbindung verschiedener Sensoren müssen auch neue Systeme für die Speicherung und Verarbeitung dieser Informationen geschaffen werden. Data Lakes und Big Data-Technologien sind die Basis für alle darauf aufsetzenden Advanced Analytics- und Data Science-Applikationen.

Near Realtime: Die nächste Stufe setzt auf die Verarbeitung von Daten in Fast-Echtzeit. Die Datenströme werden nicht erst im Data Warehouse oder Data Lake persistiert, sondern direkt dort ausgewertet, wo sie entstehen: nah am Sensor. Analytics ‚on the Edge‘ ermöglicht, Probleme bereits im Vorfeld abzuwenden, indem bei Erreichung bestimmter Schwellwerte ein Alarm oder die automatische Abschaltung von Maschinen ausgelöst wird.

Data Blending: Darunter wird der Prozess der Kombination von Daten aus mehreren Quellen verstanden, um einen analytischen Datensatz für Entscheidungen zu haben. Data Blending ist erforderlich, wenn die Datenintegrationsprozesse und die Infrastruktur eines Unternehmens nicht ausreichen, um spezifische Datensätze zusammenzuführen, die von den einzelnen Geschäftsbereichen benötigt werden.


Das könnte Sie auch interessieren:

Teile auf die Schnelle beim Dienstleister zu drucken, klingt zunächst nach einer Erleichterung. Doch das Knowhow in diesen Bauteilen muss geschützt sein. Damit beschäftigt sich das Forschungsprojekt ProCloud3D, an dem auch der Verschlüsselungsspezialist Wibu-Systems beteiligt ist.‣ weiterlesen

Hotellobbys, Produktionshallen oder Tiefkühlzonen von Lagerhäusern - überall dort reduzieren Luftschottanlagen den Wärme- und Stoffaustausch zwischen verschiedenen Bereichen. Arwus aus Chemnitz produziert diese Anlagen nach Kundenanforderung - und bringt mit ERP-Software von Delta Barth Transparenz in die Abläufe.‣ weiterlesen

Bei HeidelbergCement in Ennigerloh entsteht aus Rohmaterial Zementklinker, der dann zu Zement vermahlen wird. Nachdem die Leitstand zur Überwachung in die Jahre gekommen war, entschieden sich die Verantwortlichen für eine Neugestaltung. Jungmann Systemtechnik errichtete den Kontrollraum mit zwei ergonomischen Arbeitsplätzen und flexibel einsetzbarer Technik.‣ weiterlesen

Cyberangriffe nehmen zu – in Anzahl und auch Heftigkeit. Die Konsequenzen sind vielfältig und können im schlimmsten Fall sogar existenzbedrohend sein. Laut einer Untersuchung von Techconsult sehen sich jedoch lediglich 40 Prozent der DACH-Unternehmen gut gegen Cyberangriffe gerüstet.‣ weiterlesen

Mit Simulationssoftware können Hersteller und Systemintegratoren oft vielfältiges Optimierungspotenzial im Automatisierungssystem aufspüren - entlang ihrer gesamten Lebenszyklen. Die Tools helfen bei der Auslegung der Systeme, beschleunigen die Implementierung und unterstützen im laufenden Betrieb bei Verbesserungen sowie Umbauten.‣ weiterlesen

Mit einem kostenfreien Leisten-Konfigurator und einem 3D-Druck-Service verkürzt Protiq die Vorlaufzeit für die Maßanfertigung orthopädischer Schuhe auf wenige Tage. Dieser Anwendungsfall ließe sich leicht auf andere industrielle und handwerkliche Bereiche übertragen.‣ weiterlesen

Die HTC-Tochter G-Reigns kooperiert mit dem Netzwerkspezialisten Iconec. Im Fokus der Partnerschaft steht die Nutzung privater 5G-Netze bzw. deren Demonstration.‣ weiterlesen

Im Vergleich zum Vorjahresmonat verzeichneten die deutschen Maschinen- und Anlagenbauer einen Auftragsrückgang von 9 Prozent. Im ersten Halbjahr bleibt jedoch unterm Strich ein Auftragsplus.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige