Anzeige
Anzeige
Anzeige
Beitrag drucken

In-Memory-Technologie ersetzt Datenwürfel

Produktionscontrolling mit Business Intelligence

Business-Intelligence-Lösungen auf Basis von In-Memory-Technologie eignen sich auch für den Einsatz im Produktionscontrolling, um Daten etwa aus Geschäftsystemen, Qualitätskontrolle oder Zeiterfassung zusammenzuführen. So lässt sich eine Effizienzbewertung für Anlagen realisieren, ohne auf komplexe Datenstrukturen in Form von 'Data Cubes' zurückzugreifen.

Bild: Fotolia / Peter Adrian

Der Druck auf den Produktionsleiter ist groß. Das Jahresziel, die Steigerung der Effizienz um fünf Prozent, droht zu scheitern. Obwohl Maßnahmen im Bereich Anlagensteuerung, Materiallogistik und in einer Produktionslinie Erfolg versprechend aussahen, ist die Gesamteffizienz nicht im geforderten Maße gestiegen. Die Ursachen für solche Probleme sind vielfach nicht klar erkennbar, noch können sie bestimmten Maßnahmen eindeutig zugeordnet werden: Wirkzusammenhänge sind nicht ersichtlich, verwendete Kennzahlen werden oft losgelöst voneinander in Excel-Tabellen betrachtet. Abhilfe kann der Einsatz einer Business Intelligence-Lösung bringen, mit deren Hilfe sich die Anlageneffizienz (Overall Equipment Efficiency, OEE) umfassend darstellen und Wirkzusammenhänge abbilden lassen. Bereits im Rahmen eines Workshops lässt sich beispielsweise überprüfen, ob Maßnahmen zur Verbesserungen von Verfügbarkeit und Leistung negative Auswirkungen auf Qualitätsparameter zeigen – und damit möglicherweise die Umsetzung von Effizenz-Zielen gefährden.

Dreieck aus Verfügbarkeit, Effektivität und Qualität

Die drei Faktoren Verfügbarkeit, Effektivität und Qualität der Overall Equipment Effectiveness beeinflussen sich gegenseitig und können nur im Zusammenhang betrachtet werden. In der Praxis stellt sich die exakte Bestimmung des Ist-Zustands allerdings als schwierig heraus. Auf der Ebene einzelner Maschinen oder einzelner Bestandteile der OEE ist die Datenlage noch übersichtlich, und die Stellschrauben für eine bessere Effizienz lassen sich schnell finden.

Für die Analyse der Gesamtanlage müssen dagegen sehr viele unterschiedliche Datenquellen und eine kaum zu bewältigende Datenmenge erfasst werden. Planwerte aus der Enterprise Resource Planning-Welt (ERP), Maschinendaten aus dem Manufacturing Execution-System (MES) einschließlich der Echtzeiterfassung der Maschinen- und Betriebsdaten (MDE/BDE) und unterschiedlichste Qualitätskennzahlen überfordern einfache Auswerteprogramme. Gerade die Integration der wichtigen Fehlerdatenbanken und Maßnahmenpläne wird oftmals ausgeblendet, um ein System nicht zu überlasten. Aber gerade diese Quellen geben Aufschluss über Effizienzpotenziale und deren Auswirkung auf die Gesamteffizienz. Reports mit Wochen- beziehungsweise Monatsauswertungen werden daher oft noch manuell erstellt, für Ad-hoc-Auswertungen oder weitergehende Trenddarstellungen fällt der Aufwand dabei jedoch zu hoch aus.

Die Bestimmung der Overall Equipment Effectiveness stellt oft eine Herausforderung dar. In-Memory-Technologie kann hier neue Wege zeigen. Bild: fme AG

Fortschritt im Produktionscontrolling

Es sind vor allem drei Faktoren, die den Fortschritt im Produktionscontrolling begründen: Durch den Übergang von 32- auf 64-Bit-Betriebssysteme können bei Servern mehr als vier Gigabyte Arbeitsspeicher direkt adressiert werden. So verfügen aktuelle Geräte bereits über 512 Gigabyte Arbeitsspeicher (RAM) und können Daten daher direkt anstatt auf der Festplatte verfügbar halten. Dieses Verfahren wird als In-Memory-Technologie bezeichnet. Zum zweiten ermöglicht die Verbreitung von Mehrkernprozessoren die Ausführung paralleler Berechnungen und führt so zu einer Steigerung der Prozessorleistung. Der dritte Faktor sind IT-Anwendungen, die diese leistungsfähige Infrastruktur gezielt nutzen. Im Bereich der BI-Lösungen hat sich unter anderem der Anbieter Qliktech mit der Lösung Qlikview einen Namen gemacht. Deren Datenablage basiert auf einer mehrdimensionalen Datenbank, die im Arbeitsspeicher gehalten wird.

Der Vorläufer dieser Technik wurde bereits 1993 in der schwedischen Universitätsstadt Lund entwickelt, weil der dort ansässige Verpackungsmittelhersteller Tetrapak eine Software für die Datenanalyse benötigte. Daraus entstand das Programm Quickview, das später in Qlikview umbenannt wurde. Nach Angaben der FME AG, einem Beratungsunternehmen für Enterprise Information Management, eignet sich die BI-Lösung auch für den Einsatz im Produktionsbereich. „Wir haben die Erfahrung gemacht, dass sich die sehr unterschiedlichen Datenquellen in der Produktion ohne umfangreiche Prozesse innerhalb weniger Tage integrieren lassen“, berichtet Andreas Buchholz, BI-Verantwortlicher bei dem IT-Dienstleister. Dabei könne auf die bei BI-Systemen sonst notwendige, personalaufwändige Aggregation der Kennzahlen und Analysen in Form von mehrdimensionalen Matrizen oder ‚OLAP-Würfeln‘ verzichtet werden.

Die Erstellung solcher Datenwürfel im Rahmen eines Data-Warehouse führe nach Aussagen der Berater oft zu Verzögerungen von Projekten. Andreas Buchholz erläutert: „Durch die Anwendung der In-Memory-Technologie sind auch bei bei einer extrem hohen Anzahl von Datensätzen Ad-hoc-Auswertungen innerhalb von Sekunden möglich.“ Und eine unmittelbare OEE-Analyse eignet sich als effizientes Werkzeug, um die Daten eines Maschinenparks automatisiert zu durchleuchten, Schwachstellen im Produktionsablauf und bei Bedarf angrenzender Prozesse zu identifizieren und einen zielorientierten Maßnahmenplan zu entwickeln. Nach den Erfahrungen des Beraters sind die Vorbehalte gegenüber der Leistungsfähigkeit eines Produktionscontrollings bei Produktions- und Fertigungsleitern zwar groß. Doch in der Regel zeigten Praxisworkhops auf Basis realer Produktionsdaten und Fragestellungen von Unternehmen, dass sich praxisfähige Lösungsansätze innerhalb weniger Tage entwickeln lassen.

Vorbehalte gegenüber Controlling-Systemen

Bei der Projektierung eines BI-Systems wird dann gemeinsam mit dem Fachbereich Werk für Werk oder Kennzahl für Kennzahl eine Reporting-Lösung erarbeitet. Nachdem erst ein Teil der Daten einbezogen wurde, entsteht nachfolgend ein umfassendes Monitoringsystem. Der Fachbereich wird so mit der Vorgehensweise vertraut und kann später Auswertungen selbstständig umsetzen, was die Aufgabe der IT-Abteilung auf Datenbereitstellung und -sicherheit beschränkt. „Durch die größere Flexibilität für neue oder geänderte Auswertungen ist es einfacher, neue Kennzahlen zu integrieren und Wirkzusammenhänge zu erkennen. Die Abfragegeschwindigkeit erlaubt schnelle Ad-hoc-Auswertungen und sorgt so für eine gute Akzeptanz in der Produktion“, fasst Buchholz seine Erfahrungen mit der In-Memory-Lösung zusammen.


Das könnte Sie auch interessieren:

Früher war Scada oft nur zweckmäßiges Instrument zur Anlagen- und Prozessverwaltung. Doch im Zeitalter des Internet of Things und damit verbundenen neuen Geschäftsmodellen rückt auch die Bedeutung der Scada-Plattform an eine bedeutendere Stelle.‣ weiterlesen

Viele große Unternehmen investieren derzeit in Digitaltechnik, um Transparenz in ihre Lieferketten zu bringen - und so Kosten einzusparen. Mit Radio-Frequency-Identification(RFID)-Technik von Kathrein werden die Durchläufe bei einem Stuttgarter Automobilhersteller besser planbar und Wartezeiten kürzer.‣ weiterlesen

Mit der Übernahme des IoT-Spezialisten Bright Wolf, will der IT-Dienstleister Cognizant seine Expertise im Bereich Internet of Things erweitern.‣ weiterlesen

Vorherzusagen, wann ein Werkzeug kaputt geht, ist nicht leicht. Mittels der Messung von Schallemissionen ist dies zwar möglich, aber auch teuer. Kombiniert man jedoch gängige Verfahren mit neuen Technologien, ergeben sich immer bessere und schnellere Verfahren.‣ weiterlesen

Seit dem 25. Mai 2018 gilt die europäische Datenschutzgrundverordnung, meist nur DSGVO genannt. Der IT-Sicherheitsspezialist Rohde & Schwarz Cybersecurity berichtet, wie es um die Umsetzung in der hiesigen Industrie steht.‣ weiterlesen

In vielen Ländern Europas scheint sich der Arbeitsmarkt zu stabilisieren. Darauf deuten die Zahlen des Europäischen Arbeitsmarktbarometers hin, das nun erstmals veröffentlicht wurde.‣ weiterlesen

Eine IoT-Sicherheitsarchitektur sollte sowohl in IT- als auch in OT-Umgebungen für mehr Transparenz sorgen und Prozesse schützen. Dazu müssen die Daten aus dem IoT-Edge erfasst und extrahiert werden. Auf dieser Grundlage können Unternehmen effizienter agieren, bessere Geschäftsentscheidungen treffen und Digitalisierungsprojekte beschleunigen.‣ weiterlesen

GBTEC und Proalpha haben angekündigt, zukünftig in den Bereichen Process Mining und Business Intelligence zusammenzuarbeiten. Kunden sollen so einen Mehrwert bei der digitalen Transformation erhalten.‣ weiterlesen

Beim Anlagen- und Werkzeugbau setzt die Volkswagen AG auf Datendurchgängigkeit. Die Projektmanagement-Software Coman vernetzt die Projektbeteiligten dazu durchgängig und digital, bis hin zu den Zulieferern. Denn wenn Manager Giuseppe Lo Presti früh erkennt, dass es in einem Gewerk gerade nicht rund läuft, können gezielte Maßnahmen erfolgen.‣ weiterlesen

Mehr als eine Milliarde Schadprogramme verzeichnet das Bundesamt für Sicherheit in der Informationstechnik im aktuellen Lagebericht. Und auch die Corona-Pandemie wirkt sich auf die aktuelle Sicherheitslage aus.‣ weiterlesen

Eine Voraussetzung bei der Entwicklung von industriellen KI-Anwendungen sind ausreichende Daten. Diese sind jedoch nicht immer in der benötigten Menge, Qualität oder Struktur vorhanden. Anhand eines konkreten Beispiels erläutert dieser Beitrag, wie sich ein Data Lake anlegen und mit Daten füllen lässt, bis er ein Fundament für quasi beliebige KI-Applikationen bildet.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige