Anzeige
Anzeige
Anzeige
Beitrag drucken

Interview

Gibt es ein CIM 4.0?

Nach der Lean-Welle hat mit Industrie 4.0 die Digitalisierung und Automatisierung der Unternehmensprozesse erneut Fahrt aufgenommen. Deutlich verbesserte technische Möglichkeiten und methodische Ansätze rücken die Vision des Computer Integrated Manufacturing (CIM) aus den 1980er Jahre plötzlich in greifbare Nähe.

Bild: Fraunhofer‐Institut für Produktionstechnik und Automatisierung IPA

Bild: Fraunhofer‐Institut für Produktionstechnik und Automatisierung IPA

Auf den ersten Blick gelten die klassischen logistischen Zielkonflikte einer Produktion zwischen hoher Termintreue und kurzen Durchlaufzeiten einerseits sowie geringen Beständen und hoher Auslastung anderseits weiterhin. Doch der genauere Blick auf eine digitalisierte Auftragsabwicklung eröffnet insbesondere Verbesserungen in indirekten Prozessen, was wiederum eine wirksamere Planung und Steuerung der direkten Prozesse ermöglicht.

Am 15. Oktober findet am Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA der 20. Stuttgarter PPS-Tag statt (hier geht es zur Meldung), der sich mit der digitalisierten Auftragsabwicklung auseinandersetzt. Das Seminar bietet neben Einblicken in die neuesten Entwicklungen der Produktionsplanung und -steuerung auch eine Plattform zum Austausch mit Experten aus Wissenschaft und Praxis. Dr.-Ing. habil. Hans-Hermann Wiendahl, Leiter der Gruppe Produktionsplanung und -steuerung am Fraunhofer IPA, und Veranstaltungsleiter des PPS-Tags erläutert im Gespräch, wie sich die Digitalisierung auf die Auftragsabwicklung auswirkt.

Bild: Fraunhofer‐Institut für Produktionstechnik und Automatisierung IPA

Dr.-Ing. habil. Hans-Hermann Wiendahl, Leiter der Gruppe Produktionsplanung und -steuerung am Fraunhofer IPA, und Veranstaltungsleiter des PPS-Tags (Bild: Fraunhofer‐Institut für Produktionstechnik und Automatisierung IPA)

Herr Dr. Wiendahl, bereits in den 1980er Jahren integrierte August-Wilhelm Scheer mit seinem Y-Modell den technischen Ast (CAx) und logistischen Ast (PPS) zu einem umfassenden Verständnis des Computer Integrated Manufacturing (CIM). Doch aus unterschiedlichen Gründen stieß diese Vision an Grenzen, so dass viele Experten sie als gescheitert ansehen. Wird das Konzept jetzt auf dem Weg zur Industrie 4.0 doch noch realisiert?

Dr. Hans-Hermann Wiendahl: Die integrative Sichtweise ist heute allgemein anerkannt. Doch gegenüber den damals entwickelten Konzepten erscheinen drei Unterschiede wichtig:

  • Zum ersten hat Lean uns gelehrt, zuerst die Prozesse zu verbessern und sie dann erst zu automatisieren  – nicht umgekehrt, wie das in der Hochphase von CIM oft üblich war.
  • Zum zweiten stoßen zentrale Entscheidungen schnell an Grenzen, vor allem wo starke Umfeldveränderungen entsprechende Plananpassungen oder gar eine Umgestaltung der Produktionsprozesse und des -layouts erfordern.
  • Zum dritten ist eine menschenleere Fabrik nicht erstrebenswert. Vielmehr gilt es, die Stärken des Menschen mit denen der IT zu koppeln und so bestmögliche Ergebnisse zu erzielen.

Viele Unternehmen bevorzugen robuste, teilautomatisierte Prozesse, da diese auch unter geänderten Rahmenbedingungen noch gute Ergebnisse liefern. Demgegenüber sind hochintegrierte, vollautomatisierte Prozesse im dafür konzipierten Zielfeld zwar typischerweise überlegen. Aber ein Verfehlen der Zielstückzahlen oder des Auftragsmix führt in der Regel auch zu deutlichen Produktivitätsverlusten. Zudem ist ihre Fehleranfälligkeit oftmals zu hoch. Diese Grundphilosophie beeinflusst auch die angestrebte IT-Unterstützung in der Fabrik.

Nun werden die IT-Systeme immer leistungsfähiger und auch indirekte Prozesse stehen seit längerer Zeit im Fokus. Wie können diese digitalisiert beziehungsweise automatisiert werden? Wo sind die Grenzen?

Dr. Wiendahl: Zunächst ist die Automatisierung indirekter Prozesse kein neues Phänomen. Beispielsweise zeigen Stichproben im Maschinen- und Anlagenbau, dass die zentrale Planungs- und Dispositionsabteilung im Vergleich zu den 1990er Jahren heute lediglich mit einem Fünftel oder nur einem Zehntel des Personals ausgestattet ist. Das ist zum einen in der Aufgabendezentralisierung in Einzelbereiche begründet. Zum anderen standardisierten viele Unternehmen ihre Auftragsabwicklungsprozesse und die damit verbundenen Planungs- und Steuerungsaktivitäten konsequent. Hier hat sich das Vorgehen bewährt:

  1. Standardisieren der Abwicklungsfälle und ihrer Bearbeitungsschritte.
  2. Digitalisieren der Standardfälle. Hier sollte mit den einfachen Fällen begonnen werden.
  3. Installieren von Datenqualitäts- und Regeleinhaltungskennzahlen, um neben den operativen Prozessleistungskennzahlen – etwa First Pass Yield, Liefertreue und -zeit – auch die Wirksamkeit der Umgestaltung zu überwachen.
  4. Erarbeiten entsprechender Planungs- und Steuerungsregeln für diese Prozessschritte.

Nach Erfahrungen des Fraunhofer IPA bietet es sich an, zunächst Prozessbausteine – analog zum Lego-Prinzip – zu definieren, um diese dann zu Abwicklungsfällen zu kombinieren. Workflow Engines erlauben ihre flexible Verknüpfung. Sie sind heute oftmals Teil der Standard-ERP- und Standard-MES-Anwendungen. Darüber hinaus ist ein reifegradbasiertes Vorgehen sinnvoll: Es berücksichtigt die heterogenen Anforderungen – beispielsweise bezüglich Wiederholhäufigkeit, Kundenindividualität oder Mitarbeiterkompetenz. Das Seminar am 15. Oktober geht ausführlich auf diese Aspekte ein und Praxisreferenten schildern ihre Erfahrungen.

In der aktuellen Produktions-IT kommen immer häufiger maschinelles Lernen und künstliche Intelligenz zum Einsatz. Wie wird sich das auf PPS-Systeme auswirken? Rechnen Sie mit erfolgversprechenden Überlappungen beider Systeme?

Dr. Wiendahl: Historisch entstanden PPS-Systeme wie MES und ERP aus der Notwendigkeit einer IT-Unterstützung von Routineaufgaben in der Produktion. Demgegenüber entstammen Ansätze der künstlichen Intelligenz und des maschinellen Lernens aus der IT und sie versuchen beispielsweise über Verhaltensbeobachtung aus der Vergangenheit Verhaltensempfehlungen für die Zukunft abzuleiten. Dies gelingt mit höherer Wiederholhäufigkeit besser. Für die Anwendungsfälle der Produktion bedeutet dies:

  • Entweder es herrschen Prozesse mit einer hohen Wiederholhäufigkeit vor. Dies ist für Großserien- und Massenfertigungen oder Branchen mit hohem Automatisierungsgrad typisch. Kurze Prozesszeiten begünstigen mögliche Lerneffekte zusätzlich.
  • Oder es gelingt den Verantwortlichen, die Gesamtprozesse in kleine Abschnitte zu zerlegen und diese dann zusammenzusetzen. Somit entsteht eine ähnlich vielversprechende Situation wie im ersten Fall.

Doch sinnvolle Anwendungsfälle allein reichen für aussichtsreiche Überlappungen nicht aus. Zusätzlich sind die beiden Fachdisziplinen so zusammenzuführen, dass sie eine gemeinsame Sprache sprechen und so über eine Interaktion zu einer besseren Problemlösung kommen.

Angenommen, beide Systeme sprechen eine gemeinsame Sprache und können interagieren – was ändert sich dann in der Produktion?

Dr. Wiendahl: Unter solchen Rahmenbedingungen kann es vergleichsweise schnell gelingen, erste erfolgreiche Prototypen zu installieren. Einstiegspunkte ins Machine Learning in der Produktion bilden Optimierungsprobleme bezüglich Performance, Qualität und technischer Verfügbarkeit der Maschinen und Anlagen, die bisher durch Lean-Methoden gelöst wurden. Einige dieser Analyse- und Optimierungsaufgaben lassen sich somit automatisieren und erzeugen zudem neue Geschäftsmodelle für den Handel mit domänenspezifischen Optimierungsservices, Algorithmen sowie repräsentativen Trainingsdaten. Die Durchdringungsbreite hängt allerdings von den oben genannten Faktoren ab, die aktuell sehr heterogen sind.

Was bedeutet diese Entwicklung für die Aufgaben des Produktionsplaners und -steuerers in der Zukunft?

Dr. Wiendahl: Die Stärken der IT liegen unstrittig im Verarbeiten und Aufbereiten großer Datenmengen. Der Mensch hingegen erkennt – insbesondere erfahrungsgestützt – oftmals Unplausibilitäten schneller. Seine originäre Aufgabe besteht darin, Entscheidungen zu treffen und im Falle von Alternativen die Beste auszuwählen. So könnte also eine Aufgabenteilung so aussehen, dass die IT die erforderlichen Entscheidungsbedarfe anwendergerecht aufbereitet – beispielsweise in Form rollenspezifischer Anwender-Cockpits. Der PPS-Verantwortliche entwickelt Entscheidungsalternativen, die die IT gegebenenfalls wiederum in Form von Szenarien probeweise auf Zielerreichung prüft. Der Mensch trifft abschließend eine Entscheidung, dokumentiert diese in der IT und überwacht Umsetzung und Wirkung. Umsetzungserfahrungen bei der Realisierung solcher PPS-Assistenzsysteme bewiesen erhebliche Zeiteinsparungen in der Vorbereitung, sodass freiwerdende Zeit in einer höheren Entscheidungsqualität mündet.

Herr Dr. Wiendahl, vielen Dank für das Gespräch.


Das könnte Sie auch interessieren:

Nach German Edge Cloud (GEC) gehört jetzt auch das Startup IoTOS zur Friedhelm Loh Group. Die Übernahme gab die Unternehmensgruppe nun bekannt. Die drei Unternehmen der Friedhelm Loh Group – Rittal, German Edge Cloud und IoTOS – bieten zudem mit Bosch Connected Industry eine Komplettlösung zur Integration, Harmonisierung und Analyse industrieller Produktionsdaten an.‣ weiterlesen

Längst differenzieren sich Mittelständler im weltweiten Wettbewerb durch ihre Effizienz, Transparenz und Rückverfolgbarkeit in der Fertigung. Hierfür wurden Manufacturing Execution Systems geschaffen. Und mit einer schlanken modularen Lösung, die schnell betriebsbereit ist, gelingt der Einstieg in die digitale Fertigung auch leicht im Mittelstand.‣ weiterlesen

Die Möglichkeit, auch Legacy-Anwendungen in Prozessautomatisierungsprojekte zu integrieren, ist oft der ausschlaggebende Faktor für Robotic-Process-Automation-Initiativen.‣ weiterlesen

Wie sieht die perfekte Produktion aus? Dieser Frage widmet sich das Managementforum Perfect Production an zwei Terminen: am 24.Oktober in Frankfurt sowie am 21.November in Leipzig. Teilnehmer erfahren anhand von Praxisbeispielen und Diskussionen, wie andere Unternehmen die Digitalisierung angehen.‣ weiterlesen

Sollte Quantentechnologie einmal verfügbar sein, könnte sich das Thema IT-Sicherheit deutlich verändern. Denn Cyberkriminelle dürften sich dann vor allem auf Endpunktangriffe und Social Engineering konzentrieren.‣ weiterlesen

Jede hinreichend komplexe Software dürfte eine unbekannte Anzahl von Fehlern beinhaltet. Zwar existieren Verfahren zur Schätzung der Anzahl dieser Fehler aus Erfahrungswerten, präzise lassen sie sich aber weder quantifizieren noch vollständig lokalisieren.‣ weiterlesen

Haltian hat einen End-to-End-Smart-Factory-Service vorgestellt. Der Dienst kombiniert die IoT-Plattform von Thingsee mit industrietauglichen umgerüsteten Sensoren und AWS IoT Greengrass Edge Computing sowie Private-LTE-Unterstützung.‣ weiterlesen

Die Fachkonferenz Smart MES bringt Produktionsleiter, Werkverantwortliche und Fertigungs-IT aller Unternehmensgrößen zusammen.‣ weiterlesen

Das Joint Venture der beiden Konzerne Osram und Continental stand vor der Aufgabe, eine völlig neue IT-Infrastruktur einzurichten. Teil des Projektes beim globalen Unternehmen war es, einen Service Desk samt Managementsoftware einzurichten - in zwölf Tagen.‣ weiterlesen

Mit Maximilian Brandl hat sich das SCM-Projekthaus Salt Solutions Verstärkung für den Vorstand ins Haus geholt.‣ weiterlesen

Bill McDermott tritt als CEO der SAP SE zurück. Dies gab der Walldorfer Softwarekonzern am Freitag bekannt. Als Nachfolger sollen nun Jennifer Morgan und Christian Klein das Unternehmen als Doppelspitze führen.‣ weiterlesen

Anzeige
Anzeige
Anzeige