Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Big Data

Mit Analyse zur smarten Fabrik

Die produzierende Branche entdeckt zunehmend Big Data für sich und öffnet damit die Tür weiter zur vierten industriellen Revolution. Die Machine-to-Machine-Kommunikation sorgt hier dank entsprechender Analysemöglichkeiten sowie schneller Datenbanklösungen für eine immer größere Vielfalt an Value Data, die den Weg zu Smart Factory ebnet.

Bild: Semikron Elektronik GmbH & Co. KG

Im Rohstoff Daten verbergen sich vielfältige Quellen zur Optimierung betrieblicher Prozesse und Arbeitsabläufe sowie zur Verbesserung der Qualität. Die generierten Daten dienen verstärkt dazu, in verteilten Produktionsstätten Informations- und Produktionstechnologien miteinander zu vernetzen. Dieses Potenzial wird in deutschen Industrieunternehmen erkannt: Eine aktuell von Capgemini durchgeführte Erhebung zeigt, dass unter 1.000 Entscheidern 61 Prozent in Big Data bereits jetzt eine eigenständige Umsatzquelle sehen, die für Unternehmen genauso wertvoll wird wie Produkte und Dienstleistungen. 43 Prozent der Befragten gaben an, sich zu reorganisieren, um neue Geschäftschancen durch Big Data zu nutzen. Jedoch gilt es für Unternehmen vorerst zu eruieren, welche Big Data-Anwendungsszenarien traditionelle Industriegrenzen verschieben und einen realen Nutzwert bringen können. Ein Beispiel für den Einsatz von Analysesoftware im Produktionsumfeld liefert die Semikron Elektronik GmbH & Co. KG.

Aufbruch zur Digitalisierung

Bereits 2007 etablierte das Unternehmen für sein Spezialgebiet Messdatenarchivierung eine flexible Datenbank-Managementlösung. Bis dahin wurden Messergebnisse in auftragsspezifischen Dateien auf einen Fileserver kopiert und mit einem einfachen Index (Auftragsnummer, Anlage, Datum) in einer SQL-Tabelle versehen, um vertragliche Vereinbarungen zur Aufbewahrung dieser Daten zu erfüllen. Für das monatliche Berichtswesen wurden relevante Qualitätskennzahlen manuell in Excel kopiert und zusammengestellt, um daraus anschließend Diagramme für den Vormonat zu generieren. Der monatliche Zeitaufwand betrug je nach Bedarf fünf bis zehn Wochen. Echtzeit-Auswertungen der Produktion waren aufgrund des hohen manuellen Aufwands nicht möglich, ebenso wie ein Zuordnen der einzelnen Messergebnisse aus vorgehenden oder nachfolgenden Prozessen aus der internationalen Wertschöpfungskette. Das Projekt zur Verbesserung der Situation verfolgte hauptsächlich drei Ziele: die Archivierung aller qualitätsrelevanten Kennzahlen zu den verkauften Produkten während der vorgeschriebenen Aufbewahrungsfristen, die Online-Verfügbarkeit aller archivierten Daten auf Basis von Auftrags- und Artikelnummer mit Recherche nach einzelnen Merkmalen sowie die Bereitstellung der Materialbewegungs- und Lieferinformationen zur lückenlosen Rückverfolgbarkeit der Produktionskette.

Die IT-Verantwortlichen suchten nach einer skalierbaren Datenbanklösung, die Ad-hoc-Analysen ermöglicht und Nutzern einen schnellen Zugriff auf Messdaten gewährt. Welche Analysen diese genau damit machen sollten, war zunächst zweitrangig. Da die einzelnen Fachbereiche des Unternehmens individuelle Anforderungen an ihre Datenanalysen hatten, sollte jeder Bereich eigene Möglichkeiten erhalten. Ziel war, die Daten in eine relationale Datenbank einzugeben und daraus je nach Bedarf verschiedene Export-Formate wie QS-Stat, Minitab und CSV bereitzustellen. Im Kennzahlen-Fokus standen vor allem Boxplot-Diagramme sowie CPK-Berechnungen zur Analyse der Prozessfähigkeit. Im Fokus waren Kennzahlen wie Mittelwert, Standardabweichung, CPK/TPK und diverse Percentile zur Darstellung von Boxplots mit Excel-Kursdiagrammen. Für die geplante Online-Recherche der Messdaten wurde darüber hinaus ein relationales Datenmodell benötigt, das Daten entpacken und gleichzeitig standardisieren konnte. Weitere Voraussetzungen waren die Verhältnismäßigkeit der Total Cost of Ownership und eine einfache Integration des Systems in die vorhandene Infrastruktur.

Verbesserte Abläufe

Semikron sichtete verschiedene Lösungsanbieter. Den Zuschlag bekam das Nürnberger Unternehmen Exasol mit seiner auf In-Memory-Technologie basierenden Datenbank. Das Team des Lösungsanbieters spielte hierfür zunächst Testdaten von je einer Anlage jedes Fertigungsbereiches in Deutschland in ein vollständig modelliertes Datenmodell ein. Anschließend analysierte es die Abfragezeiten mit unterschiedlichen Datenvolumina und Cluster-Konfigurationen. Der Test zeigte schnell eine deutliche Optimierung des Arbeitsauflaufs. „Eine Praxisherausforderung an das Berichtswesen war es beispielsweise, für bestimmte Produktgruppen und ausgewählte Merkmale einen Boxplot zur Ermittlung der Wertverteilung aller Aufträge des vergangenen Monats zu erstellen“, sagt Gerhard Zapf, Senior Manager IT Application bei Semikron. „Für eine einzige Produktgruppe hatten wir hierfür ursprünglich einen Aufwand von einer Woche pro Monat benötigt. Bereits während der Testphase wurde dieses Pensum auf nur eine Stunde reduziert – im realen Projektverlauf dann später auf nur noch eine Minute pro Monat.“

Nach Ende der Testphase schloss das zuständige Projektteam in circa einjähriger Arbeit alle Messanlagen in Deutschland und der Slowakei zusammen. Weitere Anlagen folgten später im Laufe des Regelbetriebs nach Projektabschluss. Bis heute sind fünf internationale Standorte und 60 Messanlagen an die Datenbank angeschlossen, die mit Projektbeginn zum ersten Mal für die Messdatenarchivierung eingesetzt wurde. Im Unterschied zu gut verteilten klassischen BI-Datenmodellen liegen hier die meisten Daten in einer einzigen, großen Wertetabelle ab. Im Laufe des Projektes wurden deshalb die Datenbank sowie die zugehörigen Programmierschnittstellen von den Entwicklern kontinuierlich an die Anforderungen des Herstellers angepasst, um die Systemleistung zu verbessern. Fertigt das Unternehmen heute Leistungshalbleitermodule und -systeme beispielsweise in der Slowakei, so sorgen in einem ersten Schritt spezielle Eingabe-Plugins dafür, dass die ankommenden heterogenen Mess- und Prozessdaten vereinheitlicht und auf einem internationalen Server abgelegt werden. In einem zweiten Schritt findet der Transfer dieser standardisierten Daten vom internationalen Server auf einen zentralen Server in Deutschland statt. Anschließend werden die Daten entpackt und an die In-Memory-Datenbank weitergegeben. Dort stehen sie jederzeit für analytische Abfragen und Reports bereit.

Das System besteht aus Einzelrechnern, die zu einem Cluster zusammengeschlossen sind. Die Verteilung der Daten im Cluster erfolgt automatisch, so dass bei Berechnungen sämtliche Hardware-Ressourcen genutzt und alle Informationen während des Prozesses in Spalten und nicht in Zeilen gespeichert werden. Die Systemkonfiguration ermitteln das Datenbanksystem selbständig. Dem Administrator bleiben damit die Analyse der Queries sowie die Erstellung der dafür benötigten Indizes erspart.


Das könnte Sie auch interessieren:

Im Forschungsprojekt ’Fluently’ wollen die Beteiligten das Teamwork von Mensch und Maschine optimieren. So sollen zwischen beiden echte soziale Interaktionen ermöglicht werden.‣ weiterlesen

Selbst gut ausgeprägte ERP-Systemlandschaften weisen meist Lücken auf, in denen Prozesse ohne digitales Abbild ablaufen. Individuell erstellte mobile Anwendungen können solche Lücken schließen - und so manch andere Schwachstelle in der ERP-Landschaft ausbügeln.‣ weiterlesen

Waren Cloudkosten verschwendet oder sinnvoll? Wer Ausgaben keinen Verursachern zuordnet, kann dies kaum hinlänglich beantworten. Erst die interne Verrechnung legt die Ursachen für die Ausgaben offen - und somit das Potenzial für Optimierungen.‣ weiterlesen

Zum Jahresende verzeichnet der Maschinen- und Anlagenbau einen rückläufigen Auftragseingang. Preisbereinigt vermeldet der VDMA ein Minus von 4 Prozent im Vergleich zum Jahr 2021. Im vierten Quartal gingen die Aufträge um 16 Prozent zurück.‣ weiterlesen

Zehn Unternehmen beteiligen sich am Joint Venture Cofinity-X. Die Partner wollen damit die Umsetzung von Datenökosystems Catena-X weiter vorantreiben.‣ weiterlesen

Mit einem Plus von 1,9 Punkten verzeichnet das Geschäftsklima der Digitalbranche im Januar einen erneuten Anstieg und liegt nun bei 18,5 Punkten. Erstmals seit Sommer 2022 liegen zudem die Geschäftserwartungen im positiven Bereich.‣ weiterlesen

Ob zur Remote-Unterstützung der Mitarbeiter vor Ort, zur Schulung und technischen Einweisung neuen Personals oder bei der Umplanung von Produktionsstraßen - fotorealistische digitale Zwillinge können Unternehmen vielfältig unterstützen.‣ weiterlesen

Viele ERP-Lösungen wurden einst von Spezialisten entwickelt und danach nur noch angepasst, erweitert und mit Updates versorgt. Doch steigende Digitalisierungsanforderungen, schnellere Produkteinführungen sowie der Fachkräftemangel schrauben die Anforderungen in die Höhe. Könnte Low-Code-Softwareentwicklung die Lösung sein?‣ weiterlesen

Mit einem Anstieg von 1,6 Punkten im Januar liegt das IAB-Arbeitsmarktbarometer bei 102,9 Punkten und damit über der neutralen Marke von 100. Für die Arbeitsmarktforscher deutet dies auf positive Entwicklungen auf dem Arbeitsmarkt hin.‣ weiterlesen

Mit ProKI, einem Demonstrations- und Transfernetzwerk für künstliche Intelligenz (KI) in der Produktion, soll die Anwendung von KI bei kleinen und mittleren Unternehmen (KMU) weiter vorangetrieben werden.‣ weiterlesen