Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Interview

Gibt es ein CIM 4.0?

Nach der Lean-Welle hat mit Industrie 4.0 die Digitalisierung und Automatisierung der Unternehmensprozesse erneut Fahrt aufgenommen. Deutlich verbesserte technische Möglichkeiten und methodische Ansätze rücken die Vision des Computer Integrated Manufacturing (CIM) aus den 1980er Jahre plötzlich in greifbare Nähe.

Bild: Fraunhofer‐Institut für Produktionstechnik und Automatisierung IPA

Bild: Fraunhofer‐Institut für Produktionstechnik und Automatisierung IPA

Auf den ersten Blick gelten die klassischen logistischen Zielkonflikte einer Produktion zwischen hoher Termintreue und kurzen Durchlaufzeiten einerseits sowie geringen Beständen und hoher Auslastung anderseits weiterhin. Doch der genauere Blick auf eine digitalisierte Auftragsabwicklung eröffnet insbesondere Verbesserungen in indirekten Prozessen, was wiederum eine wirksamere Planung und Steuerung der direkten Prozesse ermöglicht.

Am 15. Oktober findet am Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA der 20. Stuttgarter PPS-Tag statt (hier geht es zur Meldung), der sich mit der digitalisierten Auftragsabwicklung auseinandersetzt. Das Seminar bietet neben Einblicken in die neuesten Entwicklungen der Produktionsplanung und -steuerung auch eine Plattform zum Austausch mit Experten aus Wissenschaft und Praxis. Dr.-Ing. habil. Hans-Hermann Wiendahl, Leiter der Gruppe Produktionsplanung und -steuerung am Fraunhofer IPA, und Veranstaltungsleiter des PPS-Tags erläutert im Gespräch, wie sich die Digitalisierung auf die Auftragsabwicklung auswirkt.

Bild: Fraunhofer‐Institut für Produktionstechnik und Automatisierung IPA

Dr.-Ing. habil. Hans-Hermann Wiendahl, Leiter der Gruppe Produktionsplanung und -steuerung am Fraunhofer IPA, und Veranstaltungsleiter des PPS-Tags (Bild: Fraunhofer‐Institut für Produktionstechnik und Automatisierung IPA)

Herr Dr. Wiendahl, bereits in den 1980er Jahren integrierte August-Wilhelm Scheer mit seinem Y-Modell den technischen Ast (CAx) und logistischen Ast (PPS) zu einem umfassenden Verständnis des Computer Integrated Manufacturing (CIM). Doch aus unterschiedlichen Gründen stieß diese Vision an Grenzen, so dass viele Experten sie als gescheitert ansehen. Wird das Konzept jetzt auf dem Weg zur Industrie 4.0 doch noch realisiert?

Dr. Hans-Hermann Wiendahl: Die integrative Sichtweise ist heute allgemein anerkannt. Doch gegenüber den damals entwickelten Konzepten erscheinen drei Unterschiede wichtig:

  • Zum ersten hat Lean uns gelehrt, zuerst die Prozesse zu verbessern und sie dann erst zu automatisieren  – nicht umgekehrt, wie das in der Hochphase von CIM oft üblich war.
  • Zum zweiten stoßen zentrale Entscheidungen schnell an Grenzen, vor allem wo starke Umfeldveränderungen entsprechende Plananpassungen oder gar eine Umgestaltung der Produktionsprozesse und des -layouts erfordern.
  • Zum dritten ist eine menschenleere Fabrik nicht erstrebenswert. Vielmehr gilt es, die Stärken des Menschen mit denen der IT zu koppeln und so bestmögliche Ergebnisse zu erzielen.

Viele Unternehmen bevorzugen robuste, teilautomatisierte Prozesse, da diese auch unter geänderten Rahmenbedingungen noch gute Ergebnisse liefern. Demgegenüber sind hochintegrierte, vollautomatisierte Prozesse im dafür konzipierten Zielfeld zwar typischerweise überlegen. Aber ein Verfehlen der Zielstückzahlen oder des Auftragsmix führt in der Regel auch zu deutlichen Produktivitätsverlusten. Zudem ist ihre Fehleranfälligkeit oftmals zu hoch. Diese Grundphilosophie beeinflusst auch die angestrebte IT-Unterstützung in der Fabrik.

Nun werden die IT-Systeme immer leistungsfähiger und auch indirekte Prozesse stehen seit längerer Zeit im Fokus. Wie können diese digitalisiert beziehungsweise automatisiert werden? Wo sind die Grenzen?

Dr. Wiendahl: Zunächst ist die Automatisierung indirekter Prozesse kein neues Phänomen. Beispielsweise zeigen Stichproben im Maschinen- und Anlagenbau, dass die zentrale Planungs- und Dispositionsabteilung im Vergleich zu den 1990er Jahren heute lediglich mit einem Fünftel oder nur einem Zehntel des Personals ausgestattet ist. Das ist zum einen in der Aufgabendezentralisierung in Einzelbereiche begründet. Zum anderen standardisierten viele Unternehmen ihre Auftragsabwicklungsprozesse und die damit verbundenen Planungs- und Steuerungsaktivitäten konsequent. Hier hat sich das Vorgehen bewährt:

  1. Standardisieren der Abwicklungsfälle und ihrer Bearbeitungsschritte.
  2. Digitalisieren der Standardfälle. Hier sollte mit den einfachen Fällen begonnen werden.
  3. Installieren von Datenqualitäts- und Regeleinhaltungskennzahlen, um neben den operativen Prozessleistungskennzahlen – etwa First Pass Yield, Liefertreue und -zeit – auch die Wirksamkeit der Umgestaltung zu überwachen.
  4. Erarbeiten entsprechender Planungs- und Steuerungsregeln für diese Prozessschritte.

Nach Erfahrungen des Fraunhofer IPA bietet es sich an, zunächst Prozessbausteine – analog zum Lego-Prinzip – zu definieren, um diese dann zu Abwicklungsfällen zu kombinieren. Workflow Engines erlauben ihre flexible Verknüpfung. Sie sind heute oftmals Teil der Standard-ERP- und Standard-MES-Anwendungen. Darüber hinaus ist ein reifegradbasiertes Vorgehen sinnvoll: Es berücksichtigt die heterogenen Anforderungen – beispielsweise bezüglich Wiederholhäufigkeit, Kundenindividualität oder Mitarbeiterkompetenz. Das Seminar am 15. Oktober geht ausführlich auf diese Aspekte ein und Praxisreferenten schildern ihre Erfahrungen.

In der aktuellen Produktions-IT kommen immer häufiger maschinelles Lernen und künstliche Intelligenz zum Einsatz. Wie wird sich das auf PPS-Systeme auswirken? Rechnen Sie mit erfolgversprechenden Überlappungen beider Systeme?

Dr. Wiendahl: Historisch entstanden PPS-Systeme wie MES und ERP aus der Notwendigkeit einer IT-Unterstützung von Routineaufgaben in der Produktion. Demgegenüber entstammen Ansätze der künstlichen Intelligenz und des maschinellen Lernens aus der IT und sie versuchen beispielsweise über Verhaltensbeobachtung aus der Vergangenheit Verhaltensempfehlungen für die Zukunft abzuleiten. Dies gelingt mit höherer Wiederholhäufigkeit besser. Für die Anwendungsfälle der Produktion bedeutet dies:

  • Entweder es herrschen Prozesse mit einer hohen Wiederholhäufigkeit vor. Dies ist für Großserien- und Massenfertigungen oder Branchen mit hohem Automatisierungsgrad typisch. Kurze Prozesszeiten begünstigen mögliche Lerneffekte zusätzlich.
  • Oder es gelingt den Verantwortlichen, die Gesamtprozesse in kleine Abschnitte zu zerlegen und diese dann zusammenzusetzen. Somit entsteht eine ähnlich vielversprechende Situation wie im ersten Fall.

Doch sinnvolle Anwendungsfälle allein reichen für aussichtsreiche Überlappungen nicht aus. Zusätzlich sind die beiden Fachdisziplinen so zusammenzuführen, dass sie eine gemeinsame Sprache sprechen und so über eine Interaktion zu einer besseren Problemlösung kommen.

Angenommen, beide Systeme sprechen eine gemeinsame Sprache und können interagieren – was ändert sich dann in der Produktion?

Dr. Wiendahl: Unter solchen Rahmenbedingungen kann es vergleichsweise schnell gelingen, erste erfolgreiche Prototypen zu installieren. Einstiegspunkte ins Machine Learning in der Produktion bilden Optimierungsprobleme bezüglich Performance, Qualität und technischer Verfügbarkeit der Maschinen und Anlagen, die bisher durch Lean-Methoden gelöst wurden. Einige dieser Analyse- und Optimierungsaufgaben lassen sich somit automatisieren und erzeugen zudem neue Geschäftsmodelle für den Handel mit domänenspezifischen Optimierungsservices, Algorithmen sowie repräsentativen Trainingsdaten. Die Durchdringungsbreite hängt allerdings von den oben genannten Faktoren ab, die aktuell sehr heterogen sind.

Was bedeutet diese Entwicklung für die Aufgaben des Produktionsplaners und -steuerers in der Zukunft?

Dr. Wiendahl: Die Stärken der IT liegen unstrittig im Verarbeiten und Aufbereiten großer Datenmengen. Der Mensch hingegen erkennt – insbesondere erfahrungsgestützt – oftmals Unplausibilitäten schneller. Seine originäre Aufgabe besteht darin, Entscheidungen zu treffen und im Falle von Alternativen die Beste auszuwählen. So könnte also eine Aufgabenteilung so aussehen, dass die IT die erforderlichen Entscheidungsbedarfe anwendergerecht aufbereitet – beispielsweise in Form rollenspezifischer Anwender-Cockpits. Der PPS-Verantwortliche entwickelt Entscheidungsalternativen, die die IT gegebenenfalls wiederum in Form von Szenarien probeweise auf Zielerreichung prüft. Der Mensch trifft abschließend eine Entscheidung, dokumentiert diese in der IT und überwacht Umsetzung und Wirkung. Umsetzungserfahrungen bei der Realisierung solcher PPS-Assistenzsysteme bewiesen erhebliche Zeiteinsparungen in der Vorbereitung, sodass freiwerdende Zeit in einer höheren Entscheidungsqualität mündet.

Herr Dr. Wiendahl, vielen Dank für das Gespräch.


Das könnte Sie auch interessieren:

Novayre Solutions SL und dessen RPA-Plattform Jidoka gehören nun zu Appian. Mit dem Erwerb will das amerikanischen IT-Unternehmen seine Prozessautomatisierungsplattform um Werkzeuge für Robotic Process Automation ergänzen.‣ weiterlesen

Nutzer von Citrix-Systemen sollten unbedingt die aktuell bekannt gewordene Sicherheitslücke per Workaround schließen. Das meldet das BSI erneut, nachdem sich die Zahl der bekannt gewordenen Cyberangriffe über diese Schwachstelle häufen.‣ weiterlesen

Jörg Jung leitet beim ERP-Hersteller Infor seit mehr als zwei Jahren als verantwortlicher Geschäftsführer die Regionen Zentral- und Osteuropa. In diesem Zeitraum konnte der Softwareanbieter sein Geschäft fast verdoppeln, merkte Jung im Gespräch mit der IT&Production an. Vor allem der Absatz mit Cloud-Lösungen scheint zu brummen: In den letzten zwei Jahren sei der Umsatz mit den Multi-Tenant-Lösungen weltweit um den Faktor zehn gestiegen.‣ weiterlesen

Rockwell Automation hat den israelischen Cybersecurity-Anbieter Avnet Data Security übernommen. Das Unternehmen bietet seinen Kunden Services wie Risikobewertungen, Penetrationstests, Netzwerk- und Sicherheitslösungen sowie Schulungen zur Verschmelzung von IT und OT unter dem Gesichtspunkt der Cybersecurity an. ‣ weiterlesen

In der Werkshalle von morgen sind nur noch die Außenwände fest verbaut. Maschinen und Anlagen bewegen sich frei und kommunizieren miteinander. Wichtige Voraussetzung hierfür: Eine dezentrale Versorgungs- und Dateninfrastruktur. Mit dem intelligenten Boden hat Bosch Rexroth ein solches System entwickelt - und dabei Lösungen von Weidmüller verbaut.‣ weiterlesen

In einer Industrie 4.0 stellen vernetzte Maschinen nicht nur Produkte her, sie generieren auch massenhaft Daten. Mit einem ERP-System als Informationsdrehscheibe lassen sich diese Produktionsdaten mit anderen Geschäftsbereichen verknüpfen und so die Wertschöpfung ankurbeln.‣ weiterlesen

Per Radiofrequenzidentifikation lassen sich Waren entlang der gesamten Lieferkette nachverfolgen - oder gleich lückenlos ihren Zustand dokumentieren. Erst RFID-Technologie ermöglicht viele Anwendungen, die mit Industrie 4.0 verbunden werden.‣ weiterlesen

Der ERP-Anbieter Proalpha hat einen Wechsel an der Unternehmensspitze bekanntgegeben. Eric Verniaut übernimmt das Amt des CEO.‣ weiterlesen

Die Siemens AG hat die AIT GmbH übernommen. Das Stuttgarter Unternehmen bietet Softwarelösungen auf der Basis von Microsoft .NET Plattformen an.‣ weiterlesen

Weniger Energie zu verbrauchen, heißt nicht automatisch, auch Kosten einzusparen. Viele Energiemanager kennen das: Vielleicht war das Jahr wärmer, die Auftragslage schlechter, vielleicht konnten sie durch Umstrukturierung der Arbeitsabläufe etwas sparen. Welcher der Punkte zutrifft, weiß man allerdings erst, wenn die Daten genau analysiert wurden. Und genau das verlangt auch die Norm ISO50001, die nach der letzten Revision die Leistungsindikatoren in den Fokus rückt.‣ weiterlesen

Obwohl der Anteil individuell programmierter Geschäftssoftware insgesamt rückläufig ist, setzen speziell mittelständische Fertiger noch oft auf Individuallösungen. Dabei gibt es Alternativen, um Unternehmensprozesse weitaus effizienter und risikoloser abzubilden.‣ weiterlesen

Anzeige
Anzeige
Anzeige