Anzeige
Anzeige
Anzeige
Beitrag drucken

Big Data

Mit Analyse zur smarten Fabrik

Die produzierende Branche entdeckt zunehmend Big Data für sich und öffnet damit die Tür weiter zur vierten industriellen Revolution. Die Machine-to-Machine-Kommunikation sorgt hier dank entsprechender Analysemöglichkeiten sowie schneller Datenbanklösungen für eine immer größere Vielfalt an Value Data, die den Weg zu Smart Factory ebnet.

Bild: Semikron Elektronik GmbH & Co. KG

Im Rohstoff Daten verbergen sich vielfältige Quellen zur Optimierung betrieblicher Prozesse und Arbeitsabläufe sowie zur Verbesserung der Qualität. Die generierten Daten dienen verstärkt dazu, in verteilten Produktionsstätten Informations- und Produktionstechnologien miteinander zu vernetzen. Dieses Potenzial wird in deutschen Industrieunternehmen erkannt: Eine aktuell von Capgemini durchgeführte Erhebung zeigt, dass unter 1.000 Entscheidern 61 Prozent in Big Data bereits jetzt eine eigenständige Umsatzquelle sehen, die für Unternehmen genauso wertvoll wird wie Produkte und Dienstleistungen. 43 Prozent der Befragten gaben an, sich zu reorganisieren, um neue Geschäftschancen durch Big Data zu nutzen. Jedoch gilt es für Unternehmen vorerst zu eruieren, welche Big Data-Anwendungsszenarien traditionelle Industriegrenzen verschieben und einen realen Nutzwert bringen können. Ein Beispiel für den Einsatz von Analysesoftware im Produktionsumfeld liefert die Semikron Elektronik GmbH & Co. KG.

Aufbruch zur Digitalisierung

Bereits 2007 etablierte das Unternehmen für sein Spezialgebiet Messdatenarchivierung eine flexible Datenbank-Managementlösung. Bis dahin wurden Messergebnisse in auftragsspezifischen Dateien auf einen Fileserver kopiert und mit einem einfachen Index (Auftragsnummer, Anlage, Datum) in einer SQL-Tabelle versehen, um vertragliche Vereinbarungen zur Aufbewahrung dieser Daten zu erfüllen. Für das monatliche Berichtswesen wurden relevante Qualitätskennzahlen manuell in Excel kopiert und zusammengestellt, um daraus anschließend Diagramme für den Vormonat zu generieren. Der monatliche Zeitaufwand betrug je nach Bedarf fünf bis zehn Wochen. Echtzeit-Auswertungen der Produktion waren aufgrund des hohen manuellen Aufwands nicht möglich, ebenso wie ein Zuordnen der einzelnen Messergebnisse aus vorgehenden oder nachfolgenden Prozessen aus der internationalen Wertschöpfungskette. Das Projekt zur Verbesserung der Situation verfolgte hauptsächlich drei Ziele: die Archivierung aller qualitätsrelevanten Kennzahlen zu den verkauften Produkten während der vorgeschriebenen Aufbewahrungsfristen, die Online-Verfügbarkeit aller archivierten Daten auf Basis von Auftrags- und Artikelnummer mit Recherche nach einzelnen Merkmalen sowie die Bereitstellung der Materialbewegungs- und Lieferinformationen zur lückenlosen Rückverfolgbarkeit der Produktionskette.

Die IT-Verantwortlichen suchten nach einer skalierbaren Datenbanklösung, die Ad-hoc-Analysen ermöglicht und Nutzern einen schnellen Zugriff auf Messdaten gewährt. Welche Analysen diese genau damit machen sollten, war zunächst zweitrangig. Da die einzelnen Fachbereiche des Unternehmens individuelle Anforderungen an ihre Datenanalysen hatten, sollte jeder Bereich eigene Möglichkeiten erhalten. Ziel war, die Daten in eine relationale Datenbank einzugeben und daraus je nach Bedarf verschiedene Export-Formate wie QS-Stat, Minitab und CSV bereitzustellen. Im Kennzahlen-Fokus standen vor allem Boxplot-Diagramme sowie CPK-Berechnungen zur Analyse der Prozessfähigkeit. Im Fokus waren Kennzahlen wie Mittelwert, Standardabweichung, CPK/TPK und diverse Percentile zur Darstellung von Boxplots mit Excel-Kursdiagrammen. Für die geplante Online-Recherche der Messdaten wurde darüber hinaus ein relationales Datenmodell benötigt, das Daten entpacken und gleichzeitig standardisieren konnte. Weitere Voraussetzungen waren die Verhältnismäßigkeit der Total Cost of Ownership und eine einfache Integration des Systems in die vorhandene Infrastruktur.

Verbesserte Abläufe

Semikron sichtete verschiedene Lösungsanbieter. Den Zuschlag bekam das Nürnberger Unternehmen Exasol mit seiner auf In-Memory-Technologie basierenden Datenbank. Das Team des Lösungsanbieters spielte hierfür zunächst Testdaten von je einer Anlage jedes Fertigungsbereiches in Deutschland in ein vollständig modelliertes Datenmodell ein. Anschließend analysierte es die Abfragezeiten mit unterschiedlichen Datenvolumina und Cluster-Konfigurationen. Der Test zeigte schnell eine deutliche Optimierung des Arbeitsauflaufs. „Eine Praxisherausforderung an das Berichtswesen war es beispielsweise, für bestimmte Produktgruppen und ausgewählte Merkmale einen Boxplot zur Ermittlung der Wertverteilung aller Aufträge des vergangenen Monats zu erstellen“, sagt Gerhard Zapf, Senior Manager IT Application bei Semikron. „Für eine einzige Produktgruppe hatten wir hierfür ursprünglich einen Aufwand von einer Woche pro Monat benötigt. Bereits während der Testphase wurde dieses Pensum auf nur eine Stunde reduziert – im realen Projektverlauf dann später auf nur noch eine Minute pro Monat.“

Nach Ende der Testphase schloss das zuständige Projektteam in circa einjähriger Arbeit alle Messanlagen in Deutschland und der Slowakei zusammen. Weitere Anlagen folgten später im Laufe des Regelbetriebs nach Projektabschluss. Bis heute sind fünf internationale Standorte und 60 Messanlagen an die Datenbank angeschlossen, die mit Projektbeginn zum ersten Mal für die Messdatenarchivierung eingesetzt wurde. Im Unterschied zu gut verteilten klassischen BI-Datenmodellen liegen hier die meisten Daten in einer einzigen, großen Wertetabelle ab. Im Laufe des Projektes wurden deshalb die Datenbank sowie die zugehörigen Programmierschnittstellen von den Entwicklern kontinuierlich an die Anforderungen des Herstellers angepasst, um die Systemleistung zu verbessern. Fertigt das Unternehmen heute Leistungshalbleitermodule und -systeme beispielsweise in der Slowakei, so sorgen in einem ersten Schritt spezielle Eingabe-Plugins dafür, dass die ankommenden heterogenen Mess- und Prozessdaten vereinheitlicht und auf einem internationalen Server abgelegt werden. In einem zweiten Schritt findet der Transfer dieser standardisierten Daten vom internationalen Server auf einen zentralen Server in Deutschland statt. Anschließend werden die Daten entpackt und an die In-Memory-Datenbank weitergegeben. Dort stehen sie jederzeit für analytische Abfragen und Reports bereit.

Das System besteht aus Einzelrechnern, die zu einem Cluster zusammengeschlossen sind. Die Verteilung der Daten im Cluster erfolgt automatisch, so dass bei Berechnungen sämtliche Hardware-Ressourcen genutzt und alle Informationen während des Prozesses in Spalten und nicht in Zeilen gespeichert werden. Die Systemkonfiguration ermitteln das Datenbanksystem selbständig. Dem Administrator bleiben damit die Analyse der Queries sowie die Erstellung der dafür benötigten Indizes erspart.


Das könnte Sie auch interessieren:

Bei allen Vorteilen, die Industrie-4.0-Technologien mit sich bringen, muss zunächst auch eine leistungsstarke digitale Infrastruktur vorhanden sein. Sie muss große Volumen an Sensordaten schnell, sicher und ortsunabhängig übertragen und auswerten können. Mit dem Rückgriff auf externe Partner erhalten Firmen eine solche Infrastruktur - und gleichzeitig Zugang zu einem erweiterten Ökosystem.‣ weiterlesen

Im nordrhein-westfälischen Düren findet sich die vermutlich einzige professionelle Wurmzucht Deutschlands - und die wahrscheinlich am weitesten automatisierte weltweit. Die nötigen Anlagen dafür wurden vom Unternehmer selbst in bester Daniel-Düsentrieb-Manier entwickelt und gebaut - mit einem Fokus auf kostengünstige, aber zuverlässige Automatisierungstechnik.‣ weiterlesen

Die Hoffmann Group hat auf der Emo 2019 erstmals ihr Hoffmann Group Tool Management gezeigt. Mit der Software können kleine und mittelgroße Betriebe ihre Werkzeuge verwalten und deren Einsatz planen.‣ weiterlesen

Der Autobauer Porsche hatte am Dienstag mit einem zeitweisen Stillstand in seiner Produktion zu kämpfen. Grund dafür war ein Serverausfall.‣ weiterlesen

Software für das Product Lifecycle Management (PLM) ist eine substanzielle Investition in die Zukunft. Die Frage nach ihrer Wirtschaftlichkeit beschäftigt deshalb alle Unternehmen - und ist nach heutigem Kenntnisstand gut zu beantworten.‣ weiterlesen

Der Einsatz des digitalen Zwillings verspricht vielfältige Potenziale für den gesamten Lebenszyklus eines Produktes. Im Rahmen einer Befragung der Managementberatung Detecon halten die Studienteilnehmer vor allem den Unternehmensübergreifenden Einsatz für erfolgversprechend.‣ weiterlesen

Auf insgesamt 8.400m² errichtet Wibu System zwei neue Gebäude. Das eine soll zukünftig als Unternehmenssitz dienen, das andere soll als House of IT Security u.a. die Zusammenarbeit mit Startups fördern.‣ weiterlesen

Mehr Fachbesucher und eine größere Ausstellerzahl: Die IT-Sicherheitsmesse it-sa in Nürnberg hat mit ihrer diesjährigen Ausgabe neue Bestmarken erzielt.‣ weiterlesen

Die Auftragseingänge in der deutschen Elektroindustrie sind im August 2019 um 6,7% gegenüber Vorjahr zurückgegangen. Die Inlandsbestellungen gaben um 9,6 und die Auslandsbestellungen um 4,5% nach. Im Gesamtzeitraum von Januar bis August dieses Jahres lagen die Auftragseingänge damit 1,6% unter Vorjahr. Hier bestellten inländische Kunden 1,1 und ausländische 2,1% weniger.‣ weiterlesen

Der Anteil der deutschen Unternehmen, die 3D-Druck einsetzen, ist zwar im Vergleich zum Jahr 2016 gestiegen – von 37 auf 63 Prozent. Eine Führungsposition hat Deutschland in der Studie des Beratungsunternehmens EY eingebüßt.‣ weiterlesen

Im Forschungsprojekt 'Instant Factory Maps' des Instituts für Integrierte Produktion Hannover IPH werden Fabriklayouts per Kameradrohne erfasst. Bei einem kurzen Rundflug durch die Fabrik nimmt die Drohne Tausende Fotos auf, die eine Software automatisch zu einem dreidimensionalen Layout zusammensetzt.‣ weiterlesen

Anzeige
Anzeige
Anzeige