Anzeige
Anzeige
Anzeige
Beitrag drucken

Kollaborative Materialflusssimulation

Firmenübergreifend die Lieferkette optimieren

Das größte Potenzial könnte die simulationsgestützte Lieferkettenplanung entfalten, wenn sich ganze Wertschöpfungsnetzwerke abbilden und optimieren ließen. Das geschieht fast nie, da kaum ein Unternehmen sensible Daten wie Verfügbarkeiten und Kostensätze aus der Hand gibt. In einem Forschungsprojekt wird derzeit an einer Lösung für dieses Problem gearbeitet.

SCM | Simulation | Simplan | Lieferkette | Kollaborative Materialflusssimulation | Integrierter Szenariengenerator (hier Kundenstandorte und Aufträge)

Bild: SimPlan AG

Simulations– und Optimierungswerkzeuge führen bereits bei Betrachtung interner Lieferstrukturen meist zu deutlichen Verbesserungen der Prozesse sowie zur Kostenreduktion durch höhere Auslastung von Ressourcen. Den Erfahrungen des Software- und Beratungsunternehmens Simplan zufolge lassen sich durch Änderungen der Netzwerkstruktur und der damit verbundenen Prozesse 250.000 bis zu 800.000 Euro pro Jahr einsparen. Noch mehr Einsparungen verspricht, wenn unternehmensübergreifende Lieferketten auf den Prüfstand kommen. Das liegt vor allem an der Spezialisierung der Unternehmen auf Kernkompetenzen und der damit einhergehenden Zunahme der Integration vieler Unternehmen in Wertschöpfungsketten. Eine enge Zusammenarbeit bei der Planung und Auslegung von unternehmensübergreifenden Lieferketten findet aber in aller Regel nicht statt. Zum einen ist eine Datenerhebung über verschiedene Teilnehmer sehr zeit- und kostenintensiv. Die Konsistenz der Daten kann immer erst nach Bereitstellung während der Validierung geprüft werden. Dies bedeutet oftmals hohen manuellen Aufwand aufgrund notwendiger Rücksprachen mit den beteiligten Unternehmen. Des Weiteren müssen die für eine Gesamtbetrachtung benötigten Daten, wie Ressourcenverfügbarkeit oder Kostensätze, dem Modellersteller und -nutzer preisgegeben werden. Eine Weitergabe solcher Daten an andere Unternehmen ist aber häufig nicht gewollt.

Forscher arbeiten an Lösung

Im Rahmen des vom BMWi geförderten ZIM-Forschungsprojekts ‚Entwicklung eines Supply-Chain-Werkzeugs in der Cloud unter Berücksichtigung dynamischer Verschlüsselungstechnologien‘ wird aktuell an einer Lösung für dieses Problem gearbeitet. Im Vorhaben soll eine Software entstehen, mit der Anwender solche unternehmensübergreifenden Simulationsstudien durchführen können. Eine Grundlage ist, dass ein Simulationsmodell generisch aus bereitgestellten Daten erzeugt werden kann. So müssen alle Standorte, Ressourcen und Transportverbindungen in Tabellen parametrisiert werden, um das Design und die Abläufe einer Lieferkette vollständig zu beschreiben. Anschließend sind Artikel den Standorten, Ressourcen sowie Lieferbeziehungen zuzuordnen und Kostensätze zu hinterlegen. In diesem generischen Ansatz kann die Modellerstellung unabhängig von seinem Besitzer sowie weiteren Unternehmen erfolgen, die ebenfalls Daten bereitstellen. Keiner der Teilnehmer muss zu irgendeinem Zeitpunkt die Daten der anderen einsehen. Die Projektbeteiligten entschieden sich für die Modellierung in einer Cloud-Architektur, in der alle Daten verschlüsselt abgelegt werden.

Vorgehen bei der Modellierung

Datenbereitstellung: Die Struktur eines Netzwerkes wird zu Beginn einer Studie zentral vom Besitzer des Modells erstellt. Hierzu gehören die Modellierung der Kunden, von SKU-Gruppen und die auf SKU-Gruppen bezogenen Sourcing-Wege im Netzwerk. Ein Generator für Kundenstandorte und Auftragsdaten ist Teil der Software. Jedem Knoten, wie Produktionsstandorten sowie Lieferanten und jeder sich ergebenden grundlegenden Transportbeziehung ist ein Teilnehmer zuzuordnen, der für die Parametrisierung verantwortlich ist und alle Aufgaben als Task-List nach Einloggen und Anmeldung für das Projekt angezeigt bekommt. Alle Teilnehmer können ihre Daten verschlüsselt über eine im Web-Browser laufende Webanwendung in die Cloud überführen. Die Cloud-Anwendung, die auf einem Web-Server eines unabhängigen Providers läuft, besteht aus einer Datenbank, einem Kryptographiemodul, einem neu entwickelten Simulationskern und einer Optimierungskomponente, die auf der gleichen Datenbasis aufsetzen und eine Überführung von Modellen ermöglichen. Der Modellbesitzer und die Datenlieferanten können Szenarien für die betrachtete Lieferkette beziehungsweise für relevante Ausschnitte definieren und die Durchführung von Simulationsexperimenten anstoßen. Für die Durchführung eines Experiments werden die Daten aus der Datenbank geladen und entschlüsselt. Nach dem Experiment wird das Modell nicht gespeichert, sondern die Applikation direkt wieder geschlossen, nachdem die Ergebnisse in der Datenbank abgelegt sind. Die Ergebnisse kann der Modellbesitzer wiederum per Webanwendung einsehen.

Modellvalidierung: Die Modellvalidierung liegt typischerweise in den Händen des Modellerstellers oder -besitzers. Da bei unternehmensübergreifender Analysen von Lieferketten aber Eingangsdaten zu prüfen und in Verbindung mit Simulationsergebnissen zu bewerten sind, muss eine Modellvalidierung bei unserem Ansatz ebenfalls verteilt erfolgen, wenn die relevanten Daten nicht alle für den Modellersteller oder -besitzer freigegeben werden sollen. Aufgrund des generischen Modellierungskonzepts können auch Teilmodelle erstellt werden, die den Ausschnitt einer Lieferkette beschreiben, den ein einzelnes Unternehmen verantwortet. Bei solchen Ausschnitten werden die Schnittstellen zu den anderen Teilmodellen aus den Basisdaten abgeleitet, das heißt das Auftragsverhalten des kundenseitigen Partners in der Kette und das Lieferverhalten des entsprechenden Partners werden berechnet und als Eingangsdaten des Teilmodells genutzt.

Definition von Szenarien: Nachdem alle Basisdaten hochgeladen worden sind und ein lauffähiges Gesamtmodell der Lieferkette erstellt und über Teilmodelle validiert worden ist, beginnen die Experimente mit dem Modell. Hierzu werden in der Regel Szenarien definiert, die Änderungen in der Lieferkette definieren. Da aber jeder Teilnehmer grundsätzlich seine Daten nicht freigegeben hat, sind die Freiheitsgrade des Modellbesitzers stark eingeschränkt, Änderungen in anderen Teilen der Lieferkette zu untersuchen sowie entsprechende Auswirkungen auf die Gesamtkette zu bewerten. Um die Zusammenarbeit zu verbessern, wurde ein Drei-Ebenen-Konzept entwickelt.

SCM | Simulation | Simplan | Lieferkette | Kollaborative Materialflusssimulation | Die Projektbeteiligten entschieden sich für eine Cloud-Architektur, in der alle Daten individuell verschlüsselt in einer Datenbank abgelegt werden.

Bild: SimPlan AG

Das Drei-Ebenen-Konzept

Ebene 1: Die Daten sind nur für die Simulationsexperimente freigegeben und können nicht vom Modellbesitzer für seine Untersuchungen eingesehen oder modifiziert werden. Für den Modellbesitzer besteht aber der Vorteil, dass er Auswirkungen von Datenänderungen auf die gesamte Kette untersuchen kann.

Ebene 2: Ein Teilnehmer erlaubt die relative Änderung spezifischer Parameter durch den Modellbesitzer, etwa eine Erhöhung der Sicherheitsbestände um zehn Prozent. Damit kann der Einfluss von Änderungen in den Teilmodellen anderer Teilnehmer auf die gesamte Lieferkette eruiert werden, ohne dass die konkreten Daten veröffentlicht werden müssen. Diese Option ist zwangsläufig auf eine Reihe quantitativer Parameter beschränkt.

Ebene 3: Daten werden für die Einsicht und die Möglichkeit der Änderung für andere Teilnehmer freigegeben. Dies kann sowohl für die Modellvalidierung als auch die Definition von Szenarien genutzt werden und bietet die höchste Flexibilität für den Modellbesitzer.

Bei der Parametrisierung der einzelnen Standorte, Produkte und Transportbeziehungen wird stets die gewünschte Ebene der Geheimhaltung abgefragt. Dabei sind die einzelnen Parameter zu sinnvollen Gruppen zusammengefasst, um Inkonsistenzen zu vermeiden. Die Ergebnispräsentation ist dabei ebenfalls abhängig von den gewählten Ebenen der Geheimhaltung. So soll sich nicht über Ergebniswerte auf Daten schließen lassen, die geheim bleiben solten.

Zusammenfassung und Ausblick

Mit dem hier vorgestellten Ansatz sollen sich organisationsübergreifende Lieferketten mit Materialflusssimulationen optimieren lassen, ohne dass Unternehmen sensible Daten offen legen müssen. Das Ebenenkonzept und die darin definierte selektive Datenfreigabe garantiert, dass mit dem Gesamtmodell der Lieferkette sinnvoll gearbeitet werden kann. Dabei ist auch sichergestellt, dass nicht von Ergebnissen auf Parameter zurückgeschlossen werden kann. Das Forschungsprojekt läuft noch bis zum Februar 2019. Die Ergebnisse des Projekts sollen anschließend in das SCM-Tool SimChain der Simplan AG integriert werden.


Das könnte Sie auch interessieren:

Die Plattform Industrie 4.0 und das US-amerikanische CESMII - The Smart Manufacturing Institute arbeiten zusammen und wollen gemeinsam die digitale Transformation der Fertigung vorantreiben. Hauptziele sollen die Förderung von Interoperabilität und gemeinsamen Fähigkeiten und Kompetenzen sein.‣ weiterlesen

Knapp die Hälfte der im Rahmen einer von Hewlett Packard Enterprise in Auftrag gegebenen Studie befragten Firmen in Deutschland hat die eigene Cloud-Nutzung seit Beginn der Corona-Krise ausgebaut.‣ weiterlesen

Ohne Digitalisierung und Automation kann kein Fertigungsunternehmen langfristig bestehen, ist Marco Bauer, Geschäftsführer der BAM GmbH, überzeugt. Er setzt daher auf eine digitale automatisierte Prozesskette von Onlineshop bis zu den Fertigungszellen. Zentrales Element ist die automatisierte CAM-Programmierung mit Hypermill.‣ weiterlesen

Google Cloud und Siemens wollen im Rahmen einer Partnerschaft und unter Einsatz von KI-Technologien Fertigungsprozesse verbessern.‣ weiterlesen

Die ZEW-Konjunkturerwartungen für Deutschland sinken in der aktuellen Umfrage vom April 2021 um 5,9 Punkte und liegen damit bei 70,7 Punkten. Dies ist der erste Rückgang seit November 2020. Laut ZEW liegen die Erwartungen nach wie vor auf einem sehr hohen Niveau.‣ weiterlesen

Drei Viertel der Entscheider in deutschen Industrieunternehmen sehen ihren Markt im Prozess der digitalen Transformation. Die Hälfte der Unternehmen setzt dabei bereits auf den Einsatz von Industrial IoT-Technologien. Zu diesen Ergebnissen kommt eines Studie des IIoT-Spezialisten Relayr, die unter 200 Entscheidern aus der Fertigungsindustrie in Deutschland im Sommer 2020 vom Marktforschungsunternehmen Forsa durchgeführt wurde.‣ weiterlesen

Damit die anspruchsvollen Maschinen von Heidelberger Druckmaschinen nicht ungeplant ausfallen, bietet das Unternehmen die Software Maintenance Manager zur vorausschauenden Wartung an. Jetzt hat Tochterunternehmen Docufy das Tool hinter der Lösung als White-Label-Angebot auf den Markt gebracht.‣ weiterlesen

Im Rahmen einer Partnerschaft wollen T-Systems und GFT gemeinsame Lösungen für die Fertigungsindustrie anbieten, mit denen Fehler in der Produktion schneller erkannt werden können.‣ weiterlesen

John Abel wechselt von Veritas zu Extreme Networks, wo er künftig die Position des CIOs wahrnehmen wird.‣ weiterlesen

Nach fünf Messetagen ging am Freitag die Hannover Messe zu Ende. Insgesamt 90.000 Teilnehmer haben sich für die digitale Edition der Industrieschau registriert. Auch ohne Präsenzveranstaltung zog die Deutsche Messe ein positives Fazit. Ein Ersatz sei die digitale Messe jedoch nicht, so Dr. Jochen Köckler, Vorstandsvorsitzender der Deutschen Messe. Die nächste Messe soll als Hybridveranstaltung teilnehmen.‣ weiterlesen

Produzierende Unternehmen brauchen Transparenz über Zusammenhänge, über Kosten und Erträge und die Prozessqualität. Business Intelligence ist die Antwort der Softwareanbieter für dieses Problem. Für SAP S/4Hana-Anwender könnte dafür insbesondere die SAP Analytics Cloud interessant sein.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige