Anzeige
Anzeige
Anzeige
Beitrag drucken

In-Memory-Computing

Infrastruktur für Mess- und Prozessdatenmanagement

Die Semikron Elektronik GmbH & Co. KG zählt zu den führenden Herstellern von Leistungshalbleitern. Um den steigenden Anforderungen an Produktqualität und Dokumentation besser begegnen zu können, setzt das Unternehmen für die Datenauswertung seiner zahlreichen Messanlagen eine maßgeschneiderte In-Memory-Datenbank ein.

Bild: Semikron

In Wind- und Solaranlagen, Hybrid- und Elektrofahrzeugen, Industrieantrieben, sowie in der Stromversorgung basieren die leistungsleketronischen Systeme auf Leistungshalbleitern. Dementsprechend sind diese Komponenten auch gefragt. Das Marktforschungsunternehmen IMS Research prognostizierte Ende 2011 ein Wachstum des weltweiten Marktes für Leistungshalbleiter von 50 Prozent bis 2015. Die Semikron Elektronik GmbH & Co. KG ist einer der führenden Hersteller auf diesem Gebiet.

Das Familienunternehmen wurde 1951 gegründet und hat seinen Hauptsitz in Nürnberg. 3.900 Mitarbeiter in 36 Gesellschaften fertigen und entwickeln an zehn Produktionsstandorten weltweit sowohl standardisierte Leistungshalbleiterkomponenten als auch maßgeschneiderte Systeme und Lösungen wie Transistoren, Ansteuerungen, spezielle Kühlungen für Anlagen, Kondensatoren oder auch anwendungsspezifische Controller-Software. Dabei muss sich das Unternehmen mit den für die Branche typischen Herausforderungen wie hohem Preisdruck, immer kürzeren Entwicklungs- und Produktlebenszyklen bei sehr hohen Qualitätsanforderungen sowie Technologiesprüngen auseinander setzen.

Datenarchivierung für Rückverfolgung und Recherche

Während des Produktionsprozesses fällt bei Semikron eine enorme Anzahl von Mess- und Prozessdaten, Materialbewegungs- und Lieferinformationen an. Die anfallenden Daten sind aufgrund gesetzlicher oder vertraglicher Anforderungen über lange Zeiträume hinweg aufzubewahren. Im Jahr 2007 beschloss das Unternehmen, für sein Spezialgebiet ‚Messdatenarchivierung‘ eine flexible Datenbank-Management-Lösung, die nicht nur die leistungsstarke effiziente Speicherung, sondern auch die Auswertung der Messdaten über die gesamte Wertschöpfungskette hinweg sicherstellt, zu etablieren.

Mit dem IT-Projekt wurden drei große Ziele verfolgt: Die Verringerung des Aufwandes der Aufbewahrung aller qualitätsrelevanten Kennzahlen, die Bereitstellung der Materialbewegungs- und Lieferinformationen zur lückenlosen Rückverfolgbarkeit der Produktionskette sowie die Online-Verfügbarkeit aller archivierten Daten zur Echtzeit-Recherche nach einzelnen Merkmalen und Artikeln in einem einzigen, zentralen IT-System. Die IT-Verantwortlichen waren daher auf der Suche nach einer leistungsstarken Datenbanklösung, die mit der stetig steigenden Datenmenge problemlos mitwachsen kann und vielschichtige Ad-hoc-Analysen ermöglicht.

Geschwindigkeitstest im ‚Proof-of Concept‘

Die Fachbereiche, die jeweils individuelle Anforderungen an Ihre Datenanalysen haben, sollten verschiedene Möglichkeiten erhalten, Daten auszuwerten. Für die geplante Online-Recherche der Messdaten wurde darüber hinaus ein relationales Datenmodell benötigt, das Daten entpacken und gleichzeitig vereinheitlichen kann. Auch die Total Cost of Ownership (TCO) sollte überschaubar bleiben. Außerdem sollte das System einfach in die vorhandene Infrastruktur integriert werden können. Anbieter von damals marktüblichen Systemen konnten die Daten nicht im erforderlichen Umfang online vorhalten. Der Einsatz leistungsfähiger Manufacturing Execution Systemen hätte hingegen den Zukauf einer Vielzahl von Funktionen bedingt, die für das Unternehmen zu diesem Zeitpunkt nicht erforderlich waren.

Ende 2008 erhielt die Nürnberger Exasol AG daher die Möglichkeit, die Leistung ihrer auf In-Memory-Technologie basierenden Hochleistungsdatenbank Exasolution in einem ‚Proof-Of-Concept‘ (POC) zu prüfen. Dafür wurden zunächst Testdaten von je einer Anlage jedes Fertigungsbereiches in Deutschland in ein vollständig modelliertes Datenmodell eingespielt. Die Abfragezeiten wurden mit unterschiedlichen Datenvolumina und Cluster-Konfiguration analysiert. Bereits auf Basis der Testdaten konnte gezeigt werden, dass eine deutliche Optimierung der Prozesskette möglich ist. „Exasol war der einzige Datenbankanbieter, der im Rahmen des Projektbudgets bei dem gegebenen Datenvolumen noch ausreichend kurze Antwortzeiten erwarten ließ und dies unter Beweis stellen konnte“, erläutert Gerhard Zapf, Gruppenleiter IT-Applications bei Semikron.

google plus


Das könnte Sie auch interessieren:

Microsoft hat Azure IoT Edge kostenfrei auf Github zur Verfügung gestellt. Der Dienst ermöglicht das lokale Ausführen von Datenanalysen und künstlicher Intelligenz (z.B. mit Azure Cognitive Services oder Machine Learning) in Geräten, Maschinen und Anlagen ohne dauerhafte Cloud-Konnektivität sowie die Übertragung dieser Daten in die Cloud für genauere Analysen. ‣ weiterlesen

Um Verwaltungsaufgaben schneller abzuwickeln, heißt es: Erst vereinfachen, dann automatisieren. Digitale Werkzeuge bieten hierzu weitreichende Möglichkeiten. Um eine umfassenden Analyse zuvor kommen Unternehmen aber nicht herum.‣ weiterlesen

Das Übersetzen der Produktdokumentation muss in internationalen Märkten heute schneller gehen als je zuvor. Software kann in Verbindung mit definierten Dokumentations- und Übersetzungsprozessen einen wichtigen Beitrag dazu leisten.‣ weiterlesen

Mit einer Strategie für die Entwicklung, Forschung und Anwendung Künstlicher Intelligenz will die Bundesregierung Deutschland zu einem führenden Standort im KI-Bereich machen. Die Eckpunkte für die Strategie wurden in dieser Woche vorgestellt.‣ weiterlesen

Anzeige
Anzeige
Anzeige