Big Data

Mit Analyse zur smarten Fabrik

Die produzierende Branche entdeckt zunehmend Big Data für sich und öffnet damit die Tür weiter zur vierten industriellen Revolution. Die Machine-to-Machine-Kommunikation sorgt hier dank entsprechender Analysemöglichkeiten sowie schneller Datenbanklösungen für eine immer größere Vielfalt an Value Data, die den Weg zu Smart Factory ebnet.

Bild: Semikron Elektronik GmbH & Co. KG

Im Rohstoff Daten verbergen sich vielfältige Quellen zur Optimierung betrieblicher Prozesse und Arbeitsabläufe sowie zur Verbesserung der Qualität. Die generierten Daten dienen verstärkt dazu, in verteilten Produktionsstätten Informations- und Produktionstechnologien miteinander zu vernetzen. Dieses Potenzial wird in deutschen Industrieunternehmen erkannt: Eine aktuell von Capgemini durchgeführte Erhebung zeigt, dass unter 1.000 Entscheidern 61 Prozent in Big Data bereits jetzt eine eigenständige Umsatzquelle sehen, die für Unternehmen genauso wertvoll wird wie Produkte und Dienstleistungen. 43 Prozent der Befragten gaben an, sich zu reorganisieren, um neue Geschäftschancen durch Big Data zu nutzen. Jedoch gilt es für Unternehmen vorerst zu eruieren, welche Big Data-Anwendungsszenarien traditionelle Industriegrenzen verschieben und einen realen Nutzwert bringen können. Ein Beispiel für den Einsatz von Analysesoftware im Produktionsumfeld liefert die Semikron Elektronik GmbH & Co. KG.

Aufbruch zur Digitalisierung

Bereits 2007 etablierte das Unternehmen für sein Spezialgebiet Messdatenarchivierung eine flexible Datenbank-Managementlösung. Bis dahin wurden Messergebnisse in auftragsspezifischen Dateien auf einen Fileserver kopiert und mit einem einfachen Index (Auftragsnummer, Anlage, Datum) in einer SQL-Tabelle versehen, um vertragliche Vereinbarungen zur Aufbewahrung dieser Daten zu erfüllen. Für das monatliche Berichtswesen wurden relevante Qualitätskennzahlen manuell in Excel kopiert und zusammengestellt, um daraus anschließend Diagramme für den Vormonat zu generieren. Der monatliche Zeitaufwand betrug je nach Bedarf fünf bis zehn Wochen. Echtzeit-Auswertungen der Produktion waren aufgrund des hohen manuellen Aufwands nicht möglich, ebenso wie ein Zuordnen der einzelnen Messergebnisse aus vorgehenden oder nachfolgenden Prozessen aus der internationalen Wertschöpfungskette. Das Projekt zur Verbesserung der Situation verfolgte hauptsächlich drei Ziele: die Archivierung aller qualitätsrelevanten Kennzahlen zu den verkauften Produkten während der vorgeschriebenen Aufbewahrungsfristen, die Online-Verfügbarkeit aller archivierten Daten auf Basis von Auftrags- und Artikelnummer mit Recherche nach einzelnen Merkmalen sowie die Bereitstellung der Materialbewegungs- und Lieferinformationen zur lückenlosen Rückverfolgbarkeit der Produktionskette.

Die IT-Verantwortlichen suchten nach einer skalierbaren Datenbanklösung, die Ad-hoc-Analysen ermöglicht und Nutzern einen schnellen Zugriff auf Messdaten gewährt. Welche Analysen diese genau damit machen sollten, war zunächst zweitrangig. Da die einzelnen Fachbereiche des Unternehmens individuelle Anforderungen an ihre Datenanalysen hatten, sollte jeder Bereich eigene Möglichkeiten erhalten. Ziel war, die Daten in eine relationale Datenbank einzugeben und daraus je nach Bedarf verschiedene Export-Formate wie QS-Stat, Minitab und CSV bereitzustellen. Im Kennzahlen-Fokus standen vor allem Boxplot-Diagramme sowie CPK-Berechnungen zur Analyse der Prozessfähigkeit. Im Fokus waren Kennzahlen wie Mittelwert, Standardabweichung, CPK/TPK und diverse Percentile zur Darstellung von Boxplots mit Excel-Kursdiagrammen. Für die geplante Online-Recherche der Messdaten wurde darüber hinaus ein relationales Datenmodell benötigt, das Daten entpacken und gleichzeitig standardisieren konnte. Weitere Voraussetzungen waren die Verhältnismäßigkeit der Total Cost of Ownership und eine einfache Integration des Systems in die vorhandene Infrastruktur.

Verbesserte Abläufe

Semikron sichtete verschiedene Lösungsanbieter. Den Zuschlag bekam das Nürnberger Unternehmen Exasol mit seiner auf In-Memory-Technologie basierenden Datenbank. Das Team des Lösungsanbieters spielte hierfür zunächst Testdaten von je einer Anlage jedes Fertigungsbereiches in Deutschland in ein vollständig modelliertes Datenmodell ein. Anschließend analysierte es die Abfragezeiten mit unterschiedlichen Datenvolumina und Cluster-Konfigurationen. Der Test zeigte schnell eine deutliche Optimierung des Arbeitsauflaufs. „Eine Praxisherausforderung an das Berichtswesen war es beispielsweise, für bestimmte Produktgruppen und ausgewählte Merkmale einen Boxplot zur Ermittlung der Wertverteilung aller Aufträge des vergangenen Monats zu erstellen“, sagt Gerhard Zapf, Senior Manager IT Application bei Semikron. „Für eine einzige Produktgruppe hatten wir hierfür ursprünglich einen Aufwand von einer Woche pro Monat benötigt. Bereits während der Testphase wurde dieses Pensum auf nur eine Stunde reduziert – im realen Projektverlauf dann später auf nur noch eine Minute pro Monat.“

Nach Ende der Testphase schloss das zuständige Projektteam in circa einjähriger Arbeit alle Messanlagen in Deutschland und der Slowakei zusammen. Weitere Anlagen folgten später im Laufe des Regelbetriebs nach Projektabschluss. Bis heute sind fünf internationale Standorte und 60 Messanlagen an die Datenbank angeschlossen, die mit Projektbeginn zum ersten Mal für die Messdatenarchivierung eingesetzt wurde. Im Unterschied zu gut verteilten klassischen BI-Datenmodellen liegen hier die meisten Daten in einer einzigen, großen Wertetabelle ab. Im Laufe des Projektes wurden deshalb die Datenbank sowie die zugehörigen Programmierschnittstellen von den Entwicklern kontinuierlich an die Anforderungen des Herstellers angepasst, um die Systemleistung zu verbessern. Fertigt das Unternehmen heute Leistungshalbleitermodule und -systeme beispielsweise in der Slowakei, so sorgen in einem ersten Schritt spezielle Eingabe-Plugins dafür, dass die ankommenden heterogenen Mess- und Prozessdaten vereinheitlicht und auf einem internationalen Server abgelegt werden. In einem zweiten Schritt findet der Transfer dieser standardisierten Daten vom internationalen Server auf einen zentralen Server in Deutschland statt. Anschließend werden die Daten entpackt und an die In-Memory-Datenbank weitergegeben. Dort stehen sie jederzeit für analytische Abfragen und Reports bereit.

Das System besteht aus Einzelrechnern, die zu einem Cluster zusammengeschlossen sind. Die Verteilung der Daten im Cluster erfolgt automatisch, so dass bei Berechnungen sämtliche Hardware-Ressourcen genutzt und alle Informationen während des Prozesses in Spalten und nicht in Zeilen gespeichert werden. Die Systemkonfiguration ermitteln das Datenbanksystem selbständig. Dem Administrator bleiben damit die Analyse der Queries sowie die Erstellung der dafür benötigten Indizes erspart.