Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Big Data

Mit Analyse zur smarten Fabrik

Die produzierende Branche entdeckt zunehmend Big Data für sich und öffnet damit die Tür weiter zur vierten industriellen Revolution. Die Machine-to-Machine-Kommunikation sorgt hier dank entsprechender Analysemöglichkeiten sowie schneller Datenbanklösungen für eine immer größere Vielfalt an Value Data, die den Weg zu Smart Factory ebnet.

Bild: Semikron Elektronik GmbH & Co. KG

Im Rohstoff Daten verbergen sich vielfältige Quellen zur Optimierung betrieblicher Prozesse und Arbeitsabläufe sowie zur Verbesserung der Qualität. Die generierten Daten dienen verstärkt dazu, in verteilten Produktionsstätten Informations- und Produktionstechnologien miteinander zu vernetzen. Dieses Potenzial wird in deutschen Industrieunternehmen erkannt: Eine aktuell von Capgemini durchgeführte Erhebung zeigt, dass unter 1.000 Entscheidern 61 Prozent in Big Data bereits jetzt eine eigenständige Umsatzquelle sehen, die für Unternehmen genauso wertvoll wird wie Produkte und Dienstleistungen. 43 Prozent der Befragten gaben an, sich zu reorganisieren, um neue Geschäftschancen durch Big Data zu nutzen. Jedoch gilt es für Unternehmen vorerst zu eruieren, welche Big Data-Anwendungsszenarien traditionelle Industriegrenzen verschieben und einen realen Nutzwert bringen können. Ein Beispiel für den Einsatz von Analysesoftware im Produktionsumfeld liefert die Semikron Elektronik GmbH & Co. KG.

Aufbruch zur Digitalisierung

Bereits 2007 etablierte das Unternehmen für sein Spezialgebiet Messdatenarchivierung eine flexible Datenbank-Managementlösung. Bis dahin wurden Messergebnisse in auftragsspezifischen Dateien auf einen Fileserver kopiert und mit einem einfachen Index (Auftragsnummer, Anlage, Datum) in einer SQL-Tabelle versehen, um vertragliche Vereinbarungen zur Aufbewahrung dieser Daten zu erfüllen. Für das monatliche Berichtswesen wurden relevante Qualitätskennzahlen manuell in Excel kopiert und zusammengestellt, um daraus anschließend Diagramme für den Vormonat zu generieren. Der monatliche Zeitaufwand betrug je nach Bedarf fünf bis zehn Wochen. Echtzeit-Auswertungen der Produktion waren aufgrund des hohen manuellen Aufwands nicht möglich, ebenso wie ein Zuordnen der einzelnen Messergebnisse aus vorgehenden oder nachfolgenden Prozessen aus der internationalen Wertschöpfungskette. Das Projekt zur Verbesserung der Situation verfolgte hauptsächlich drei Ziele: die Archivierung aller qualitätsrelevanten Kennzahlen zu den verkauften Produkten während der vorgeschriebenen Aufbewahrungsfristen, die Online-Verfügbarkeit aller archivierten Daten auf Basis von Auftrags- und Artikelnummer mit Recherche nach einzelnen Merkmalen sowie die Bereitstellung der Materialbewegungs- und Lieferinformationen zur lückenlosen Rückverfolgbarkeit der Produktionskette.

Die IT-Verantwortlichen suchten nach einer skalierbaren Datenbanklösung, die Ad-hoc-Analysen ermöglicht und Nutzern einen schnellen Zugriff auf Messdaten gewährt. Welche Analysen diese genau damit machen sollten, war zunächst zweitrangig. Da die einzelnen Fachbereiche des Unternehmens individuelle Anforderungen an ihre Datenanalysen hatten, sollte jeder Bereich eigene Möglichkeiten erhalten. Ziel war, die Daten in eine relationale Datenbank einzugeben und daraus je nach Bedarf verschiedene Export-Formate wie QS-Stat, Minitab und CSV bereitzustellen. Im Kennzahlen-Fokus standen vor allem Boxplot-Diagramme sowie CPK-Berechnungen zur Analyse der Prozessfähigkeit. Im Fokus waren Kennzahlen wie Mittelwert, Standardabweichung, CPK/TPK und diverse Percentile zur Darstellung von Boxplots mit Excel-Kursdiagrammen. Für die geplante Online-Recherche der Messdaten wurde darüber hinaus ein relationales Datenmodell benötigt, das Daten entpacken und gleichzeitig standardisieren konnte. Weitere Voraussetzungen waren die Verhältnismäßigkeit der Total Cost of Ownership und eine einfache Integration des Systems in die vorhandene Infrastruktur.

Verbesserte Abläufe

Semikron sichtete verschiedene Lösungsanbieter. Den Zuschlag bekam das Nürnberger Unternehmen Exasol mit seiner auf In-Memory-Technologie basierenden Datenbank. Das Team des Lösungsanbieters spielte hierfür zunächst Testdaten von je einer Anlage jedes Fertigungsbereiches in Deutschland in ein vollständig modelliertes Datenmodell ein. Anschließend analysierte es die Abfragezeiten mit unterschiedlichen Datenvolumina und Cluster-Konfigurationen. Der Test zeigte schnell eine deutliche Optimierung des Arbeitsauflaufs. „Eine Praxisherausforderung an das Berichtswesen war es beispielsweise, für bestimmte Produktgruppen und ausgewählte Merkmale einen Boxplot zur Ermittlung der Wertverteilung aller Aufträge des vergangenen Monats zu erstellen“, sagt Gerhard Zapf, Senior Manager IT Application bei Semikron. „Für eine einzige Produktgruppe hatten wir hierfür ursprünglich einen Aufwand von einer Woche pro Monat benötigt. Bereits während der Testphase wurde dieses Pensum auf nur eine Stunde reduziert – im realen Projektverlauf dann später auf nur noch eine Minute pro Monat.“

Nach Ende der Testphase schloss das zuständige Projektteam in circa einjähriger Arbeit alle Messanlagen in Deutschland und der Slowakei zusammen. Weitere Anlagen folgten später im Laufe des Regelbetriebs nach Projektabschluss. Bis heute sind fünf internationale Standorte und 60 Messanlagen an die Datenbank angeschlossen, die mit Projektbeginn zum ersten Mal für die Messdatenarchivierung eingesetzt wurde. Im Unterschied zu gut verteilten klassischen BI-Datenmodellen liegen hier die meisten Daten in einer einzigen, großen Wertetabelle ab. Im Laufe des Projektes wurden deshalb die Datenbank sowie die zugehörigen Programmierschnittstellen von den Entwicklern kontinuierlich an die Anforderungen des Herstellers angepasst, um die Systemleistung zu verbessern. Fertigt das Unternehmen heute Leistungshalbleitermodule und -systeme beispielsweise in der Slowakei, so sorgen in einem ersten Schritt spezielle Eingabe-Plugins dafür, dass die ankommenden heterogenen Mess- und Prozessdaten vereinheitlicht und auf einem internationalen Server abgelegt werden. In einem zweiten Schritt findet der Transfer dieser standardisierten Daten vom internationalen Server auf einen zentralen Server in Deutschland statt. Anschließend werden die Daten entpackt und an die In-Memory-Datenbank weitergegeben. Dort stehen sie jederzeit für analytische Abfragen und Reports bereit.

Das System besteht aus Einzelrechnern, die zu einem Cluster zusammengeschlossen sind. Die Verteilung der Daten im Cluster erfolgt automatisch, so dass bei Berechnungen sämtliche Hardware-Ressourcen genutzt und alle Informationen während des Prozesses in Spalten und nicht in Zeilen gespeichert werden. Die Systemkonfiguration ermitteln das Datenbanksystem selbständig. Dem Administrator bleiben damit die Analyse der Queries sowie die Erstellung der dafür benötigten Indizes erspart.


Das könnte Sie auch interessieren:

Gerade bei innovativen Technologien wie künstlicher Intelligenz ist die Bedienung nicht erste Priorität der Softwarehersteller. Aus Sicht der Industrie ist das bedauerlich, denn anlagennah Beschäftigte haben oft die interessantesten Impulse für werksnahe KI-Projekte. Über integrierte Explainability rücken KI-Tools nun näher an die Prozessspezialisten heran.‣ weiterlesen

Der Begriff Industrie 4.0 ist nun schon seit fast einem Jahrzehnt präsent. Seitdem haben viele Industrieunternehmen neue Technologien ausgerollt und Produktionslayouts sowie -prozesse überarbeitet. Was hat sich auf dem Weg zur vernetzten und digitalisierten Produktion getan und was wirkt auf diese Entwicklung?‣ weiterlesen

Hinter neuen Geschäftsmodellen und Strategien sollte der Grundgedanke stehen: Was wollen die Kunden? Es geht darum, neue Strategien nicht nur am reinen Verkauf auszurichten, sondern sich an realen Bedürfnissen zu orientieren. Erst das sorgt für eine langfristige Bindung an das Unternehmen.‣ weiterlesen

Beim allem technologischen Fortschritt sollten Nutzer nicht die IT-Sicherheit aus dem Blick verlieren. Der elfte State of Software Security (SoSS) Report zeigt, dass die Fertigungsindustrie im Vergleich zu anderen Branchen im Bereich der Anwendungssicherheit schlecht abschneidet. Julian Totzek-Hallhuber, Principal Solution Architect von Veracode, fasst die Ergebnisse zusammen.‣ weiterlesen

Schneider Electric bringt mit Harmony P6 neue Industrie-PCs auf den Markt. Alle Modelle sind mit Intel-Prozessoren der 8. Generation und 4 bis 32GB RAM Arbeitsspeicher ausgestattet. ‣ weiterlesen

Seit Januar 2020 ist das Forschungszulagengesetz in Kraft. Mit dieser Forschungszulage können Unternehmehn ihre Innovationen fördern lassen. Marcus Arens, Director Sales & Marketing bei Ayming, zeigt, was Unternehmen beim Beantragen beachten sollten.‣ weiterlesen

Lieferengpässe drücken die Stimmung der deutschen Wirtschaft. So gehen die Indexwerte von Industrie, Handel und Dienstleistungen im Oktober zurück. Lediglich aus dem Bauhauptgewerbe kommen positive Signale.‣ weiterlesen

Produktionsabläufe und Wartungsmodelle werden schon länger auf der Basis von Daten optimiert. Doch gut integrierte IIoT-Plattformen ermöglichen heute Prozesse, die zu deutlich besseren Ergebnissen und einer neuen Form der Zusammenarbeit führen können.‣ weiterlesen

Die EU soll bis 2050 klimaneutral werden – über den European Green Deal und eine Abgabe auf CO2-Emissionen. Fraunhofer-Forschende unterstützen Unternehmen bei der Reduktion ihrer Emissionen mittels Net-Zero-Technologien.‣ weiterlesen

Universal Robots (UR) baut sein Vertriebsnetz in Deutschland aus. Mit SCS Robotik, JDT Robotics, PTS Automation sowie der Somack sind vier neue Partner hinzugekommen.‣ weiterlesen

Im seinem neuen Lagebericht zur IT-Sicherheit in Deutschland fordert das Bundesamt für Sicherheit in der Informationstechnik der Cybersicherheit eine stärkere Bedeutung beizumessen. Die Gefährdungslage sei hoch, so Bundesinnenminister Horst Seehofer.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige