Anzeige
Anzeige
Anzeige
Beitrag drucken

Big Data

Mit Analyse zur smarten Fabrik

Die produzierende Branche entdeckt zunehmend Big Data für sich und öffnet damit die Tür weiter zur vierten industriellen Revolution. Die Machine-to-Machine-Kommunikation sorgt hier dank entsprechender Analysemöglichkeiten sowie schneller Datenbanklösungen für eine immer größere Vielfalt an Value Data, die den Weg zu Smart Factory ebnet.

Bild: Semikron Elektronik GmbH & Co. KG

Im Rohstoff Daten verbergen sich vielfältige Quellen zur Optimierung betrieblicher Prozesse und Arbeitsabläufe sowie zur Verbesserung der Qualität. Die generierten Daten dienen verstärkt dazu, in verteilten Produktionsstätten Informations- und Produktionstechnologien miteinander zu vernetzen. Dieses Potenzial wird in deutschen Industrieunternehmen erkannt: Eine aktuell von Capgemini durchgeführte Erhebung zeigt, dass unter 1.000 Entscheidern 61 Prozent in Big Data bereits jetzt eine eigenständige Umsatzquelle sehen, die für Unternehmen genauso wertvoll wird wie Produkte und Dienstleistungen. 43 Prozent der Befragten gaben an, sich zu reorganisieren, um neue Geschäftschancen durch Big Data zu nutzen. Jedoch gilt es für Unternehmen vorerst zu eruieren, welche Big Data-Anwendungsszenarien traditionelle Industriegrenzen verschieben und einen realen Nutzwert bringen können. Ein Beispiel für den Einsatz von Analysesoftware im Produktionsumfeld liefert die Semikron Elektronik GmbH & Co. KG.

Aufbruch zur Digitalisierung

Bereits 2007 etablierte das Unternehmen für sein Spezialgebiet Messdatenarchivierung eine flexible Datenbank-Managementlösung. Bis dahin wurden Messergebnisse in auftragsspezifischen Dateien auf einen Fileserver kopiert und mit einem einfachen Index (Auftragsnummer, Anlage, Datum) in einer SQL-Tabelle versehen, um vertragliche Vereinbarungen zur Aufbewahrung dieser Daten zu erfüllen. Für das monatliche Berichtswesen wurden relevante Qualitätskennzahlen manuell in Excel kopiert und zusammengestellt, um daraus anschließend Diagramme für den Vormonat zu generieren. Der monatliche Zeitaufwand betrug je nach Bedarf fünf bis zehn Wochen. Echtzeit-Auswertungen der Produktion waren aufgrund des hohen manuellen Aufwands nicht möglich, ebenso wie ein Zuordnen der einzelnen Messergebnisse aus vorgehenden oder nachfolgenden Prozessen aus der internationalen Wertschöpfungskette. Das Projekt zur Verbesserung der Situation verfolgte hauptsächlich drei Ziele: die Archivierung aller qualitätsrelevanten Kennzahlen zu den verkauften Produkten während der vorgeschriebenen Aufbewahrungsfristen, die Online-Verfügbarkeit aller archivierten Daten auf Basis von Auftrags- und Artikelnummer mit Recherche nach einzelnen Merkmalen sowie die Bereitstellung der Materialbewegungs- und Lieferinformationen zur lückenlosen Rückverfolgbarkeit der Produktionskette.

Die IT-Verantwortlichen suchten nach einer skalierbaren Datenbanklösung, die Ad-hoc-Analysen ermöglicht und Nutzern einen schnellen Zugriff auf Messdaten gewährt. Welche Analysen diese genau damit machen sollten, war zunächst zweitrangig. Da die einzelnen Fachbereiche des Unternehmens individuelle Anforderungen an ihre Datenanalysen hatten, sollte jeder Bereich eigene Möglichkeiten erhalten. Ziel war, die Daten in eine relationale Datenbank einzugeben und daraus je nach Bedarf verschiedene Export-Formate wie QS-Stat, Minitab und CSV bereitzustellen. Im Kennzahlen-Fokus standen vor allem Boxplot-Diagramme sowie CPK-Berechnungen zur Analyse der Prozessfähigkeit. Im Fokus waren Kennzahlen wie Mittelwert, Standardabweichung, CPK/TPK und diverse Percentile zur Darstellung von Boxplots mit Excel-Kursdiagrammen. Für die geplante Online-Recherche der Messdaten wurde darüber hinaus ein relationales Datenmodell benötigt, das Daten entpacken und gleichzeitig standardisieren konnte. Weitere Voraussetzungen waren die Verhältnismäßigkeit der Total Cost of Ownership und eine einfache Integration des Systems in die vorhandene Infrastruktur.

Verbesserte Abläufe

Semikron sichtete verschiedene Lösungsanbieter. Den Zuschlag bekam das Nürnberger Unternehmen Exasol mit seiner auf In-Memory-Technologie basierenden Datenbank. Das Team des Lösungsanbieters spielte hierfür zunächst Testdaten von je einer Anlage jedes Fertigungsbereiches in Deutschland in ein vollständig modelliertes Datenmodell ein. Anschließend analysierte es die Abfragezeiten mit unterschiedlichen Datenvolumina und Cluster-Konfigurationen. Der Test zeigte schnell eine deutliche Optimierung des Arbeitsauflaufs. „Eine Praxisherausforderung an das Berichtswesen war es beispielsweise, für bestimmte Produktgruppen und ausgewählte Merkmale einen Boxplot zur Ermittlung der Wertverteilung aller Aufträge des vergangenen Monats zu erstellen“, sagt Gerhard Zapf, Senior Manager IT Application bei Semikron. „Für eine einzige Produktgruppe hatten wir hierfür ursprünglich einen Aufwand von einer Woche pro Monat benötigt. Bereits während der Testphase wurde dieses Pensum auf nur eine Stunde reduziert – im realen Projektverlauf dann später auf nur noch eine Minute pro Monat.“

Nach Ende der Testphase schloss das zuständige Projektteam in circa einjähriger Arbeit alle Messanlagen in Deutschland und der Slowakei zusammen. Weitere Anlagen folgten später im Laufe des Regelbetriebs nach Projektabschluss. Bis heute sind fünf internationale Standorte und 60 Messanlagen an die Datenbank angeschlossen, die mit Projektbeginn zum ersten Mal für die Messdatenarchivierung eingesetzt wurde. Im Unterschied zu gut verteilten klassischen BI-Datenmodellen liegen hier die meisten Daten in einer einzigen, großen Wertetabelle ab. Im Laufe des Projektes wurden deshalb die Datenbank sowie die zugehörigen Programmierschnittstellen von den Entwicklern kontinuierlich an die Anforderungen des Herstellers angepasst, um die Systemleistung zu verbessern. Fertigt das Unternehmen heute Leistungshalbleitermodule und -systeme beispielsweise in der Slowakei, so sorgen in einem ersten Schritt spezielle Eingabe-Plugins dafür, dass die ankommenden heterogenen Mess- und Prozessdaten vereinheitlicht und auf einem internationalen Server abgelegt werden. In einem zweiten Schritt findet der Transfer dieser standardisierten Daten vom internationalen Server auf einen zentralen Server in Deutschland statt. Anschließend werden die Daten entpackt und an die In-Memory-Datenbank weitergegeben. Dort stehen sie jederzeit für analytische Abfragen und Reports bereit.

Das System besteht aus Einzelrechnern, die zu einem Cluster zusammengeschlossen sind. Die Verteilung der Daten im Cluster erfolgt automatisch, so dass bei Berechnungen sämtliche Hardware-Ressourcen genutzt und alle Informationen während des Prozesses in Spalten und nicht in Zeilen gespeichert werden. Die Systemkonfiguration ermitteln das Datenbanksystem selbständig. Dem Administrator bleiben damit die Analyse der Queries sowie die Erstellung der dafür benötigten Indizes erspart.


Das könnte Sie auch interessieren:

John Abel wechselt von Veritas zu Extreme Networks, wo er künftig die Position des CIOs wahrnehmen wird.‣ weiterlesen

Nach fünf Messetagen ging am Freitag die Hannover Messe zu Ende. Insgesamt 90.000 Teilnehmer haben sich für die digitale Edition der Industrieschau registriert. Auch ohne Präsenzveranstaltung zog die Deutsche Messe ein positives Fazit. Ein Ersatz sei die digitale Messe jedoch nicht, so Dr. Jochen Köckler, Vorstandsvorsitzender der Deutschen Messe. Die nächste Messe soll als Hybridveranstaltung teilnehmen.‣ weiterlesen

Produzierende Unternehmen brauchen Transparenz über Zusammenhänge, über Kosten und Erträge und die Prozessqualität. Business Intelligence ist die Antwort der Softwareanbieter für dieses Problem. Für SAP S/4Hana-Anwender könnte dafür insbesondere die SAP Analytics Cloud interessant sein.‣ weiterlesen

Seit gut eineinhalb Jahren betreibt Simus Systems eine Online-Plattform, auf der Auftraggeber und Auftragnehmer die Metallbearbeitung von Bauteilen kalkulieren - und das Interesse am Tool ist rege. Anwender laden ihr CAD-Modell hoch und erhalten eine valide Vorkalkulation des geplanten Bauteils.‣ weiterlesen

Erst die Interoperabilität von Maschinen und Anlagen ermöglicht Unternehmen die Teilhabe an neuen digitalen Strukturen und ist Grundvoraussetzung für neue digitale Geschäftsmodelle. Durch interoperable Schnittstellen können neue Maschinen effizienter integriert werden. Die VDMA-Studie ‘Interoperabilität im Maschinen- und Anlagenbau‘ zeigt die Relevanz von interoperablen Schnittstellen und dazugehörigen Standards in den Unternehmen.‣ weiterlesen

Im Gewerbebau gehört ein differenziertes Zutrittsmanagement zum Standard der meisten Ausschreibungen. Für Betriebe lohnt es, sich mit dem Thema zu beschäftigen. Denn die Infrastruktur sollte später neue Anforderungen im Besuchermanagement ohne hohe Mehrkosten abbilden können.‣ weiterlesen

Die Vor- und Nachteile von SQL-, NoSQL- und Cloud-Datenbanken in Produktionsumgebungen werden noch immer diskutiert. Es wird höchste Zeit für ein Datenbankmanagement-System, das die Stärken aller drei miteinander verbindet.‣ weiterlesen

Predictive Maintenance, oder auch vorausschauende Instandhaltung, bildet einen der primären Anwendungsfälle im Spektrum der Industrie 4.0. Doch noch sind viele Unternehmen von den Ergebnissen enttäuscht, nachdem ihnen die technische Umsetzung gelungen ist. Eine planvolle Roadmap beugt dem vor, indem ein vorteilhafter Rahmen um das Werkzeug gezogen wird.‣ weiterlesen

Das Systemhaus Solid System Team wird von einer Doppelspitze geleitet. Neben Werner Heckl ist seit 1. April auch Torsten Hartinger mit der Geschäftsführung betraut.‣ weiterlesen

Anzeige
Anzeige
Anzeige