Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Kollaborative Materialflusssimulation

Firmenübergreifend die Lieferkette optimieren

Das größte Potenzial könnte die simulationsgestützte Lieferkettenplanung entfalten, wenn sich ganze Wertschöpfungsnetzwerke abbilden und optimieren ließen. Das geschieht fast nie, da kaum ein Unternehmen sensible Daten wie Verfügbarkeiten und Kostensätze aus der Hand gibt. In einem Forschungsprojekt wird derzeit an einer Lösung für dieses Problem gearbeitet.

SCM | Simulation | Simplan | Lieferkette | Kollaborative Materialflusssimulation | Integrierter Szenariengenerator (hier Kundenstandorte und Aufträge)

Bild: SimPlan AG

Simulations– und Optimierungswerkzeuge führen bereits bei Betrachtung interner Lieferstrukturen meist zu deutlichen Verbesserungen der Prozesse sowie zur Kostenreduktion durch höhere Auslastung von Ressourcen. Den Erfahrungen des Software- und Beratungsunternehmens Simplan zufolge lassen sich durch Änderungen der Netzwerkstruktur und der damit verbundenen Prozesse 250.000 bis zu 800.000 Euro pro Jahr einsparen. Noch mehr Einsparungen verspricht, wenn unternehmensübergreifende Lieferketten auf den Prüfstand kommen. Das liegt vor allem an der Spezialisierung der Unternehmen auf Kernkompetenzen und der damit einhergehenden Zunahme der Integration vieler Unternehmen in Wertschöpfungsketten. Eine enge Zusammenarbeit bei der Planung und Auslegung von unternehmensübergreifenden Lieferketten findet aber in aller Regel nicht statt. Zum einen ist eine Datenerhebung über verschiedene Teilnehmer sehr zeit- und kostenintensiv. Die Konsistenz der Daten kann immer erst nach Bereitstellung während der Validierung geprüft werden. Dies bedeutet oftmals hohen manuellen Aufwand aufgrund notwendiger Rücksprachen mit den beteiligten Unternehmen. Des Weiteren müssen die für eine Gesamtbetrachtung benötigten Daten, wie Ressourcenverfügbarkeit oder Kostensätze, dem Modellersteller und -nutzer preisgegeben werden. Eine Weitergabe solcher Daten an andere Unternehmen ist aber häufig nicht gewollt.

Forscher arbeiten an Lösung

Im Rahmen des vom BMWi geförderten ZIM-Forschungsprojekts ‚Entwicklung eines Supply-Chain-Werkzeugs in der Cloud unter Berücksichtigung dynamischer Verschlüsselungstechnologien‘ wird aktuell an einer Lösung für dieses Problem gearbeitet. Im Vorhaben soll eine Software entstehen, mit der Anwender solche unternehmensübergreifenden Simulationsstudien durchführen können. Eine Grundlage ist, dass ein Simulationsmodell generisch aus bereitgestellten Daten erzeugt werden kann. So müssen alle Standorte, Ressourcen und Transportverbindungen in Tabellen parametrisiert werden, um das Design und die Abläufe einer Lieferkette vollständig zu beschreiben. Anschließend sind Artikel den Standorten, Ressourcen sowie Lieferbeziehungen zuzuordnen und Kostensätze zu hinterlegen. In diesem generischen Ansatz kann die Modellerstellung unabhängig von seinem Besitzer sowie weiteren Unternehmen erfolgen, die ebenfalls Daten bereitstellen. Keiner der Teilnehmer muss zu irgendeinem Zeitpunkt die Daten der anderen einsehen. Die Projektbeteiligten entschieden sich für die Modellierung in einer Cloud-Architektur, in der alle Daten verschlüsselt abgelegt werden.

Vorgehen bei der Modellierung

Datenbereitstellung: Die Struktur eines Netzwerkes wird zu Beginn einer Studie zentral vom Besitzer des Modells erstellt. Hierzu gehören die Modellierung der Kunden, von SKU-Gruppen und die auf SKU-Gruppen bezogenen Sourcing-Wege im Netzwerk. Ein Generator für Kundenstandorte und Auftragsdaten ist Teil der Software. Jedem Knoten, wie Produktionsstandorten sowie Lieferanten und jeder sich ergebenden grundlegenden Transportbeziehung ist ein Teilnehmer zuzuordnen, der für die Parametrisierung verantwortlich ist und alle Aufgaben als Task-List nach Einloggen und Anmeldung für das Projekt angezeigt bekommt. Alle Teilnehmer können ihre Daten verschlüsselt über eine im Web-Browser laufende Webanwendung in die Cloud überführen. Die Cloud-Anwendung, die auf einem Web-Server eines unabhängigen Providers läuft, besteht aus einer Datenbank, einem Kryptographiemodul, einem neu entwickelten Simulationskern und einer Optimierungskomponente, die auf der gleichen Datenbasis aufsetzen und eine Überführung von Modellen ermöglichen. Der Modellbesitzer und die Datenlieferanten können Szenarien für die betrachtete Lieferkette beziehungsweise für relevante Ausschnitte definieren und die Durchführung von Simulationsexperimenten anstoßen. Für die Durchführung eines Experiments werden die Daten aus der Datenbank geladen und entschlüsselt. Nach dem Experiment wird das Modell nicht gespeichert, sondern die Applikation direkt wieder geschlossen, nachdem die Ergebnisse in der Datenbank abgelegt sind. Die Ergebnisse kann der Modellbesitzer wiederum per Webanwendung einsehen.

Modellvalidierung: Die Modellvalidierung liegt typischerweise in den Händen des Modellerstellers oder -besitzers. Da bei unternehmensübergreifender Analysen von Lieferketten aber Eingangsdaten zu prüfen und in Verbindung mit Simulationsergebnissen zu bewerten sind, muss eine Modellvalidierung bei unserem Ansatz ebenfalls verteilt erfolgen, wenn die relevanten Daten nicht alle für den Modellersteller oder -besitzer freigegeben werden sollen. Aufgrund des generischen Modellierungskonzepts können auch Teilmodelle erstellt werden, die den Ausschnitt einer Lieferkette beschreiben, den ein einzelnes Unternehmen verantwortet. Bei solchen Ausschnitten werden die Schnittstellen zu den anderen Teilmodellen aus den Basisdaten abgeleitet, das heißt das Auftragsverhalten des kundenseitigen Partners in der Kette und das Lieferverhalten des entsprechenden Partners werden berechnet und als Eingangsdaten des Teilmodells genutzt.

Definition von Szenarien: Nachdem alle Basisdaten hochgeladen worden sind und ein lauffähiges Gesamtmodell der Lieferkette erstellt und über Teilmodelle validiert worden ist, beginnen die Experimente mit dem Modell. Hierzu werden in der Regel Szenarien definiert, die Änderungen in der Lieferkette definieren. Da aber jeder Teilnehmer grundsätzlich seine Daten nicht freigegeben hat, sind die Freiheitsgrade des Modellbesitzers stark eingeschränkt, Änderungen in anderen Teilen der Lieferkette zu untersuchen sowie entsprechende Auswirkungen auf die Gesamtkette zu bewerten. Um die Zusammenarbeit zu verbessern, wurde ein Drei-Ebenen-Konzept entwickelt.

SCM | Simulation | Simplan | Lieferkette | Kollaborative Materialflusssimulation | Die Projektbeteiligten entschieden sich für eine Cloud-Architektur, in der alle Daten individuell verschlüsselt in einer Datenbank abgelegt werden.

Bild: SimPlan AG

Das Drei-Ebenen-Konzept

Ebene 1: Die Daten sind nur für die Simulationsexperimente freigegeben und können nicht vom Modellbesitzer für seine Untersuchungen eingesehen oder modifiziert werden. Für den Modellbesitzer besteht aber der Vorteil, dass er Auswirkungen von Datenänderungen auf die gesamte Kette untersuchen kann.

Ebene 2: Ein Teilnehmer erlaubt die relative Änderung spezifischer Parameter durch den Modellbesitzer, etwa eine Erhöhung der Sicherheitsbestände um zehn Prozent. Damit kann der Einfluss von Änderungen in den Teilmodellen anderer Teilnehmer auf die gesamte Lieferkette eruiert werden, ohne dass die konkreten Daten veröffentlicht werden müssen. Diese Option ist zwangsläufig auf eine Reihe quantitativer Parameter beschränkt.

Ebene 3: Daten werden für die Einsicht und die Möglichkeit der Änderung für andere Teilnehmer freigegeben. Dies kann sowohl für die Modellvalidierung als auch die Definition von Szenarien genutzt werden und bietet die höchste Flexibilität für den Modellbesitzer.

Bei der Parametrisierung der einzelnen Standorte, Produkte und Transportbeziehungen wird stets die gewünschte Ebene der Geheimhaltung abgefragt. Dabei sind die einzelnen Parameter zu sinnvollen Gruppen zusammengefasst, um Inkonsistenzen zu vermeiden. Die Ergebnispräsentation ist dabei ebenfalls abhängig von den gewählten Ebenen der Geheimhaltung. So soll sich nicht über Ergebniswerte auf Daten schließen lassen, die geheim bleiben solten.

Zusammenfassung und Ausblick

Mit dem hier vorgestellten Ansatz sollen sich organisationsübergreifende Lieferketten mit Materialflusssimulationen optimieren lassen, ohne dass Unternehmen sensible Daten offen legen müssen. Das Ebenenkonzept und die darin definierte selektive Datenfreigabe garantiert, dass mit dem Gesamtmodell der Lieferkette sinnvoll gearbeitet werden kann. Dabei ist auch sichergestellt, dass nicht von Ergebnissen auf Parameter zurückgeschlossen werden kann. Das Forschungsprojekt läuft noch bis zum Februar 2019. Die Ergebnisse des Projekts sollen anschließend in das SCM-Tool SimChain der Simplan AG integriert werden.

google plus


Das könnte Sie auch interessieren:

Der Fachkräftemangel wird als größte Hürde auf ihrem Weg zur Digitalisierung angesehen und die Ausbildungseinrichtungen stellen sich zunehmend darauf ein. Um den Nachwuchs gezielt auf die Arbeit in der vernetzten Industrie vorzubereiten, hat etwa die Hochschule Dresden eine Industrie-4.0-Modellfabrik aufgebaut.‣ weiterlesen

Oetinger Aluminium probt für den Ernstfall: Angenommen, die IT-Systeme des Unternehmens fallen einem Hackerangriff zum Opfer. Was passiert dann? Es gilt, den Überblick zu behalten und so die Folgen wie Datendiebstahl, Spionage oder den Ausfall von Systemen möglichst gering zu halten – also einfach den Notfallplan zu befolgen. Die Realität ist jedoch eine andere: Wie bei knapp der Hälfte aller Industrieunternehmen in Deutschland wäre auch hier kein Notfallplan zur Hand.1 Ab sofort stellt sich Oetinger diese Fragen nicht mehr, denn die IT-Abteilung hat jetzt eine softwarebasierte Notfallplanung im Einsatz.‣ weiterlesen

Blitz-Umfrage unter Managern und Hochschulprofessoren im VDE: Deutschlands Innovationskraft in Gefahr VDE-CEO Ansgar Hinz: KI-Forschung gleicht Kampf gegen Windmühlen VDE fordert Konzentration auf Mikroelektronik und IT-Security, um wettbewerbsfähig zu bleiben‣ weiterlesen

Mit ihren neuen Open Shuttles will die Knapp AG besonders flexible Organisationen des innerbetrieblichen Warentransportes erlauben. Der Clou an den selbstfahrenden Transportfahrzeugen ist, dass sie Lastspitzen in einem anderen Teil des Lagers durch den selbstständigen Wechsel ihres Einsatzsortes auffangen sollen.‣ weiterlesen

Sind der Online-Shop oder Unternehmensanwendungen nicht erreichbar, könnte dahinter eine DDoS-Attacke stehen. Bei dieser Art von Cyberangriff wird das Ziel durch eine große Anzahl gleichzeitiger Anfragen überlastet. Schützen Sie sich mit einer Kombination von verschiedene Security-Lösungen.‣ weiterlesen

Anzeige
Anzeige
Anzeige