Anzeige
Anzeige
Beitrag drucken

Overall Equipment Effectiveness

Wie effektiv ist meine Produktion?

Um den Forderungen des Marktes an die Geschwindigkeit und Termintreue bei gleichbleibender Kosteneffizienz gerecht zu werden, führt an der Optimierung der Overall Equipment Effectiveness oft kein Weg vorbei. Heterogene Maschinenlandschaften und individuelle Prozesse erschweren allerdings häufig den Einsatz von schnell verfügbarer Standardsoftware.

Grafik-Schema eines OEE-ModulWie lässt sich die Produktion optimieren, wo verstecken sich Verbesserungsmöglichkeiten, welche Prozesse bremsen vielleicht sogar indirekt aus dem Hintergrund das operative Geschäft? Als Kennzahl hierfür hat sich die Gesamtanlageneffektivität (GAE) beziehungsweise die Overall Equipment Effectiveness (OEE) etabliert. Sie beschreibt das Maß der Wertschöpfung einer bestimmten Anlage und kann somit die Werte null bis eins beziehungsweise null Prozent bis 100 Prozent annehmen. Berechnet wird die OEE aus dem Produkt von Verfügbarkeitsfaktor, Leistungsfaktor und Qualitätsfaktor, wobei die Begriffe sowohl den Zeitaspekt als auch den Mengenaspekt der Produktion beinhalten. Das Ziel einer jeden OEE-Optimierung ist es herauszufinden, welche Gründe für die Abweichung der OEE-Faktoren von 100 Prozent vorliegen, sprich, warum wurde nicht 100 Prozent

  • der Betriebszeit produziert
  • der geplanten Taktzeit erreicht
  • der Produkte in der definierten Qualität produziert?

Die Overall Equipment Effectiveness ermitteln

Um Optimierungsmöglichkeiten zur Steigerung der OEE zu identifizieren, bedarf es im ersten Schritt der Berechnung der OEE. Hier ist eine zentrale Herausforderung, alle benötigten Daten aus der Produktion digitalisiert zusammenzuführen, um sie per Software berechnen und analysieren zu können. Dazu zählen beispielsweise die geplante Betriebsdauer, ungeplante Stillstände, Soll-Menge, Ist-Menge und Gut-Menge. Die Daten hierfür können aus verschiedenen Quellen stammen: Vielerorts lassen sich bereits bestehende digitale Infrastrukturen wie beispielsweise Datenbanken, Dateisysteme oder Manufacturing Execution Systems nutzen. Zusätzlich bedarf es häufig noch weiterer Daten, die erst aus der heterogenen Landschaft vieler verschiedener Steuerungen, Industrie-PCs und Sensoren extrahiert werden müssen. Da die einzelnen Komponenten innerhalb dieser heterogenen Struktur unterschiedliche Protokolle für die Datenübermittlung verwenden, müssen die Daten zuerst über sogenannte Konnektoren vereinheitlicht werden. Je nach Anwendungsfall bedarf es hierfür entweder zusätzlicher Hardware wie beispielsweise Gateways, die die Daten an definierten Schnittstellen abgreifen und vereinheitlichen, oder Software-Konnektoren, die installiert auf den entsprechenden PCs beziehungsweise Steuerungen die relevanten Daten direkt abrufen. Über ein standardisiertes Protokoll werden die harmonisierten Daten schließlich an die OEE-Software übermittelt. Damit diese die OEE exakt und aussagekräftig berechnen kann, müssen Unternehmen vorab definieren, welche Daten in die Berechnung einfließen sollen. So stehen möglicherweise keine Daten hinsichtlich der korrekt produzierten Teile zur Verfügung, jedoch lässt sich dieser Wert aus der Kombination anderer Produktionsdaten ermitteln (zum Beispiel Soll-Drehwinkel eines Schraubers nicht erreicht? Verschraubung ‘nicht in Ordnung’). Auch führen Stillstandzeiten häufig zu erhöhtem Diskussionsbedarf, da Unternehmen für jede ihrer Anlagen definieren müssen, was ein geplanter und was ein ungeplanter Ausfall ist. So bedarf es für die geplanten Rüst- und Wartungszeiten beispielsweise Obergrenzen, damit ein Überschreiten dieser Zeiten als ungeplanter Ausfall kategorisiert werden kann. Ebenso muss die Software in die Lage versetzt werden, verschiedene Stillstände unterscheiden zu können. Nur so lässt sich später der Verfügbarkeitsfaktor richtig berechnen.

Standardprodukte und Prozesswissen kombinieren

So nachvollziehbar OEE-Analysen und -Optimierung in der Theorie sind, so herausfordernd sind sie für viele produzierende Unternehmen in der Praxis. Insbesondere die bereits erwähnte Beschaffung der notwendigen Daten ist aufgrund der heterogenen Maschinenlandschaften und parallel laufenden Softwaresysteme häufig der Knackpunkt zwischen Erfolg und Misserfolg. Tatsächlich gibt es keinen Grund, das Rad hier neu zu erfinden – es muss lediglich rund gemacht werden. Auf dem Markt existiert bereits Standardsoftware, die im Vergleich zur Neuentwicklung mit kurzer Time-to-Market und geringen Kosten deutliche Vorteile aufweist. Beispielhaft sei hier der Production Performance Manager (PPM) von Bosch Software Innovations erwähnt. Der PPM verfügt über standardisierte Schnittstellen, über die verschiedenste Datenquellen vereinheitlicht und in das Gesamtsystem integriert werden können. Dieser Transfer erfolgt über das fertigungsspezifische und offene Production Performance Management Protocol (PPMP). Anders als das weitverbreitete OPC UA liegt der Fokus dabei nicht auf der Kommunikation von Maschine zu Maschine (M2M), sondern auf der Kommunikation zwischen Maschinen und IoT-Lösungen. Zudem visualisiert der PPM die Datensätze bereits in ersten anpassbaren Detailauswertungen, die dann als Diskussionsgrundlage für Anomalien in der Fertigung dienen. Alle Standardprodukte haben gemein, dass sie zwar die notwendigen Standardoptionen für das Erfassen, Standardisieren und Auswerten der notwendigen Parameter beinhalten, es jedoch gerade bei der OEE-Analyse firmenspezifischen Prozesswissens bedarf, das in der Software abgebildet werden muss. Es liegt deshalb auf der Hand, auf Basis einer erweiterbaren Standardsoftware individuell entwickelte Zusatzmodule zu implementieren, die passgenau entsprechend den Anforderungen des Unternehmens die OEE ermitteln und hierfür die Daten aus der Standardsoftware nutzen (siehe Titelbild). Gleichzeitig können die OEE-Module auf Funktionen der Standardsoftware zurückgreifen. Bei Veränderungen der OEE können so beispielsweise die Rohdaten bis ins kleinste Detail überprüft werden, um die Ursache zu lokalisieren. Ebenso lassen sich bestehende Ticketsysteme nutzen, um bei definierten Werten aus der Produktion automatisiert Aufgaben an die entsprechenden Mitarbeiter zu verteilen. So verkürzt sich die Maschinenstillstandzeit deutlich, da die Reaktionszeit bei Normabweichungen minimiert wird.


Das könnte Sie auch interessieren:

Wer Produktion und Logistik in einer Echtzeit-Visualisierung abbildet, kann niedrigschwellig in die digitale Transformation einsteigen und viel Papier aus dem Shopfloor bannen. Ergänzt um zentrale MES-Funktionen lassen sich solche Visualisierungssysteme zur Operational Excellence-Plattform ausprägen, die bei fortlaufenden Prozessoptimierungen unterstützt.‣ weiterlesen

Industrielle Trends wie IIoT und Digitalisierung setzen immense Datenströme voraus. Doch im Gegensatz zur IT-Security für Büros müssen Fabrikbetreiber auf wesentlich mehr Stolpersteine achten, damit ihre Anlagen nicht schon einfachen Angriffen zum Opfer fallen.‣ weiterlesen

Ab und zu fehlte ein Schlüssel im Kloster der Franziskanerinnen der ewigen Anbetung von Schwäbisch Gmünd. Beim letzten Mal gab das den Impuls, anstatt neue mechanische Zylinder in die rund 220 Türen des Komplexes einzubauen, die alte Technik durch das Bluesmart-System von Winkhaus zu ersetzen.‣ weiterlesen

Mit 100,5 Punkten hält sich das IAB-Arbeitsmarktbarometer im November stabil und liegt weiter im leicht über der neutralen Marke. Auf europäischer Ebene sank der Frühindikator allerdings erneut.‣ weiterlesen

In einer neuen Expertise des Forschungsbeirats Industrie 4.0 untersuchen das FIR an der RWTH Aachen und das Industrie 4.0 Maturity Center den Status-quo und die aktuellen Herausforderungen der deutschen Industrie bei der Nutzung und wirtschaftlichen Verwertung von industriellen Daten und geben Handlungsempfehlungen für Unternehmen, Verbände, Politik und Wissenschaft.‣ weiterlesen

Im Forschungsprojekt FabOS soll eine KI-Bin-Picking-Anwendung entstehen, die ein verbessertes Erkennen, Greifen und definiertes Ablegen von Blechteilen in der Produktion ermöglicht.‣ weiterlesen

Die Digitalisierung des Qualitätsmanagements stellt Unternehmen vor Herausforderungen. Daher haben das Fraunhofer IPT und die FH Südwestfalen im Forschungsvorhaben 'Qbility - Quality 4.0 Capability Determination Model' ein datengetriebenes Reifegradmodell entwickelt, das die Anforderungen eines digitalisierten Qualitätsmanagements bei KMU adressiert.‣ weiterlesen