Das größte Potenzial könnte die simulationsgestützte Lieferkettenplanung entfalten, wenn sich ganze Wertschöpfungsnetzwerke abbilden und optimieren ließen. Das geschieht fast nie, da kaum ein Unternehmen sensible Daten wie Verfügbarkeiten und Kostensätze aus der Hand gibt. In einem Forschungsprojekt wird derzeit an einer Lösung für dieses Problem gearbeitet.
Bild: SimPlan AG
Simulations– und Optimierungswerkzeuge führen bereits bei Betrachtung interner Lieferstrukturen meist zu deutlichen Verbesserungen der Prozesse sowie zur Kostenreduktion durch höhere Auslastung von Ressourcen. Den Erfahrungen des Software- und Beratungsunternehmens Simplan zufolge lassen sich durch Änderungen der Netzwerkstruktur und der damit verbundenen Prozesse 250.000 bis zu 800.000 Euro pro Jahr einsparen. Noch mehr Einsparungen verspricht, wenn unternehmensübergreifende Lieferketten auf den Prüfstand kommen. Das liegt vor allem an der Spezialisierung der Unternehmen auf Kernkompetenzen und der damit einhergehenden Zunahme der Integration vieler Unternehmen in Wertschöpfungsketten. Eine enge Zusammenarbeit bei der Planung und Auslegung von unternehmensübergreifenden Lieferketten findet aber in aller Regel nicht statt. Zum einen ist eine Datenerhebung über verschiedene Teilnehmer sehr zeit- und kostenintensiv. Die Konsistenz der Daten kann immer erst nach Bereitstellung während der Validierung geprüft werden. Dies bedeutet oftmals hohen manuellen Aufwand aufgrund notwendiger Rücksprachen mit den beteiligten Unternehmen. Des Weiteren müssen die für eine Gesamtbetrachtung benötigten Daten, wie Ressourcenverfügbarkeit oder Kostensätze, dem Modellersteller und -nutzer preisgegeben werden. Eine Weitergabe solcher Daten an andere Unternehmen ist aber häufig nicht gewollt.
Forscher arbeiten an Lösung
Im Rahmen des vom BMWi geförderten ZIM-Forschungsprojekts ‚Entwicklung eines Supply-Chain-Werkzeugs in der Cloud unter Berücksichtigung dynamischer Verschlüsselungstechnologien‘ wird aktuell an einer Lösung für dieses Problem gearbeitet. Im Vorhaben soll eine Software entstehen, mit der Anwender solche unternehmensübergreifenden Simulationsstudien durchführen können. Eine Grundlage ist, dass ein Simulationsmodell generisch aus bereitgestellten Daten erzeugt werden kann. So müssen alle Standorte, Ressourcen und Transportverbindungen in Tabellen parametrisiert werden, um das Design und die Abläufe einer Lieferkette vollständig zu beschreiben. Anschließend sind Artikel den Standorten, Ressourcen sowie Lieferbeziehungen zuzuordnen und Kostensätze zu hinterlegen. In diesem generischen Ansatz kann die Modellerstellung unabhängig von seinem Besitzer sowie weiteren Unternehmen erfolgen, die ebenfalls Daten bereitstellen. Keiner der Teilnehmer muss zu irgendeinem Zeitpunkt die Daten der anderen einsehen. Die Projektbeteiligten entschieden sich für die Modellierung in einer Cloud-Architektur, in der alle Daten verschlüsselt abgelegt werden.
Vorgehen bei der Modellierung
Datenbereitstellung: Die Struktur eines Netzwerkes wird zu Beginn einer Studie zentral vom Besitzer des Modells erstellt. Hierzu gehören die Modellierung der Kunden, von SKU-Gruppen und die auf SKU-Gruppen bezogenen Sourcing-Wege im Netzwerk. Ein Generator für Kundenstandorte und Auftragsdaten ist Teil der Software. Jedem Knoten, wie Produktionsstandorten sowie Lieferanten und jeder sich ergebenden grundlegenden Transportbeziehung ist ein Teilnehmer zuzuordnen, der für die Parametrisierung verantwortlich ist und alle Aufgaben als Task-List nach Einloggen und Anmeldung für das Projekt angezeigt bekommt. Alle Teilnehmer können ihre Daten verschlüsselt über eine im Web-Browser laufende Webanwendung in die Cloud überführen. Die Cloud-Anwendung, die auf einem Web-Server eines unabhängigen Providers läuft, besteht aus einer Datenbank, einem Kryptographiemodul, einem neu entwickelten Simulationskern und einer Optimierungskomponente, die auf der gleichen Datenbasis aufsetzen und eine Überführung von Modellen ermöglichen. Der Modellbesitzer und die Datenlieferanten können Szenarien für die betrachtete Lieferkette beziehungsweise für relevante Ausschnitte definieren und die Durchführung von Simulationsexperimenten anstoßen. Für die Durchführung eines Experiments werden die Daten aus der Datenbank geladen und entschlüsselt. Nach dem Experiment wird das Modell nicht gespeichert, sondern die Applikation direkt wieder geschlossen, nachdem die Ergebnisse in der Datenbank abgelegt sind. Die Ergebnisse kann der Modellbesitzer wiederum per Webanwendung einsehen.
Modellvalidierung: Die Modellvalidierung liegt typischerweise in den Händen des Modellerstellers oder -besitzers. Da bei unternehmensübergreifender Analysen von Lieferketten aber Eingangsdaten zu prüfen und in Verbindung mit Simulationsergebnissen zu bewerten sind, muss eine Modellvalidierung bei unserem Ansatz ebenfalls verteilt erfolgen, wenn die relevanten Daten nicht alle für den Modellersteller oder -besitzer freigegeben werden sollen. Aufgrund des generischen Modellierungskonzepts können auch Teilmodelle erstellt werden, die den Ausschnitt einer Lieferkette beschreiben, den ein einzelnes Unternehmen verantwortet. Bei solchen Ausschnitten werden die Schnittstellen zu den anderen Teilmodellen aus den Basisdaten abgeleitet, das heißt das Auftragsverhalten des kundenseitigen Partners in der Kette und das Lieferverhalten des entsprechenden Partners werden berechnet und als Eingangsdaten des Teilmodells genutzt.
Definition von Szenarien: Nachdem alle Basisdaten hochgeladen worden sind und ein lauffähiges Gesamtmodell der Lieferkette erstellt und über Teilmodelle validiert worden ist, beginnen die Experimente mit dem Modell. Hierzu werden in der Regel Szenarien definiert, die Änderungen in der Lieferkette definieren. Da aber jeder Teilnehmer grundsätzlich seine Daten nicht freigegeben hat, sind die Freiheitsgrade des Modellbesitzers stark eingeschränkt, Änderungen in anderen Teilen der Lieferkette zu untersuchen sowie entsprechende Auswirkungen auf die Gesamtkette zu bewerten. Um die Zusammenarbeit zu verbessern, wurde ein Drei-Ebenen-Konzept entwickelt.
Bild: SimPlan AG
Das Drei-Ebenen-Konzept
Ebene 1: Die Daten sind nur für die Simulationsexperimente freigegeben und können nicht vom Modellbesitzer für seine Untersuchungen eingesehen oder modifiziert werden. Für den Modellbesitzer besteht aber der Vorteil, dass er Auswirkungen von Datenänderungen auf die gesamte Kette untersuchen kann.
Ebene 2: Ein Teilnehmer erlaubt die relative Änderung spezifischer Parameter durch den Modellbesitzer, etwa eine Erhöhung der Sicherheitsbestände um zehn Prozent. Damit kann der Einfluss von Änderungen in den Teilmodellen anderer Teilnehmer auf die gesamte Lieferkette eruiert werden, ohne dass die konkreten Daten veröffentlicht werden müssen. Diese Option ist zwangsläufig auf eine Reihe quantitativer Parameter beschränkt.
Ebene 3: Daten werden für die Einsicht und die Möglichkeit der Änderung für andere Teilnehmer freigegeben. Dies kann sowohl für die Modellvalidierung als auch die Definition von Szenarien genutzt werden und bietet die höchste Flexibilität für den Modellbesitzer.
Bei der Parametrisierung der einzelnen Standorte, Produkte und Transportbeziehungen wird stets die gewünschte Ebene der Geheimhaltung abgefragt. Dabei sind die einzelnen Parameter zu sinnvollen Gruppen zusammengefasst, um Inkonsistenzen zu vermeiden. Die Ergebnispräsentation ist dabei ebenfalls abhängig von den gewählten Ebenen der Geheimhaltung. So soll sich nicht über Ergebniswerte auf Daten schließen lassen, die geheim bleiben solten.
Zusammenfassung und Ausblick
Mit dem hier vorgestellten Ansatz sollen sich organisationsübergreifende Lieferketten mit Materialflusssimulationen optimieren lassen, ohne dass Unternehmen sensible Daten offen legen müssen. Das Ebenenkonzept und die darin definierte selektive Datenfreigabe garantiert, dass mit dem Gesamtmodell der Lieferkette sinnvoll gearbeitet werden kann. Dabei ist auch sichergestellt, dass nicht von Ergebnissen auf Parameter zurückgeschlossen werden kann. Das Forschungsprojekt läuft noch bis zum Februar 2019. Die Ergebnisse des Projekts sollen anschließend in das SCM-Tool SimChain der Simplan AG integriert werden.
Autoren:Dr. Till Fechteler ist Leiter der Niederlassung Braunschweig bei der Simplan AG, Professor Kai Gutenschwager von der Ostfalia Hochschule für angewandte Wissenschaften in Wolfenbüttel.
Autoren: Dr. Till Fechteler ist Leiter der Niederlassung Braunschweig bei der Simplan AG, Professor Kai Gutenschwager von der Ostfalia Hochschule für angewandte Wissenschaften in Wolfenbüttel.
Mittelständische Unternehmen investieren selbst in schwierigen Zeiten in Microsoft-Technologien, weil sie überzeugt sind, dass ihre Mitarbeiterproduktivität steigt und sich ihre Kostenstruktur bessert. Microsoft hat mit dem Microsoft-Partner-Network ein Netzwerk aufgebaut, das ein Forum für den Aufbau von Partnerschaften, Zugang zu Ressourcen und einen Rahmen für Dialoge und Kooperationen bietet. Für unsere Leser gibt die Microsoft-Partnerübersicht in Ausgabe Juli/August der IT&Production Tipps für die Suche nach einer geeigneten Branchen- oder Speziallösung im Bereich des produzierenden Gewerbes.
Auf der Suche nach Innovation, nach neuen Lösungen und der Abgrenzung zum Mitbewerb vernetzen sich zunehmend mehr Unternehmen mit externen Experten und Partnern. SAP hat mit dem SAP-Ecosystem ein Netzwerk aufgebaut, das ein Forum für den Aufbau von Partnerschaften, Zugang zu Ressourcen und einen Rahmen für Dialoge und Kooperationen bietet. In der Maiausgabe der Fachzeitschrift IT&Production erhalten unsere Leser einen aktuellen Überblick zum SAP-Ecosystem im Bereich des produzierenden Gewerbes.
Immer mehr Anbieter von Maschinen, Automatisierungstechnik und Industriesoftware integrieren künstliche Intelligenz in ihre Produkte. Das ganze Potenzial spielen selbstlernende Systeme aber erst aus, wenn sie passgenau auf ihren Einsatz in Fertigung und Büro zugeschnitten wurden. Über beide Möglichkeiten, als Fertiger die Vorzüge von industrieller KI zu nutzen, geht es im regelmäßig aktualisierten Themenheft Künstliche Intelligenz.
Das Internet of Things verändert Produktwelten und die Vernetzung in der Fertigung gleichermaßen. Entstehende Ökosysteme laden zur einer neuen Form der Zusammenarbeit ein. Die Spezialausgabe IoT Wissen Kompakt informiert über die Technologie, Projektierung und Anbieter für die eigene Applikation, in- und außerhalb der Fabrik.
Um alle Potenziale eines MES umfassend ausnutzen zu können, beleuchten unsere Autoren in der Serie von MES Wissen Kompakt die erfolgskritischen Faktoren, um Fertigungsunternehmen präventiv zu steuern. Darüber hinaus präsentiert MES Wissen Kompakt ein breites Spektrum an Firmenportraits, Produkt- neuheiten und Dienst- leistungen im MES-Umfeld.
Ein Unternehmen, das sich mit der Auswahl eines ERP- Systems befasst, muss sich gleichsam mit einem viel- schichtigen Software-Markt und unklaren Interessen- lagen an interne Abwick- lungsprozesse auseinander- setzen. Guter Rat bei der Investitionsentscheidung ist teuer. ERP/CRM Wissen Kompakt unterstützt Sie bei der gezielten Investition in die IT-Infrastruktur.