Expertenurteil und Automatisierung kombiniert

Das passende Planungsmodell entwickeln

Predictive Analytics-Lösungen können im Sales & Operations Planning maßgeblich dazu beitragen, Prozesse zu beschleunigen und die Qualität gegenüber manuellen Planungsmodellen zu steigern. Dabei geht es aber nicht um ‚Entweder-Oder‘, sondern vielmehr um ‚Sowohl-Als-Auch‘.

Bild: Infomotion GmbH

Nach einer aktuellen Studie der Unternehmensberatung Pierre Audoin Consultants (PAC) bewerten circa 40 Prozent der Produktionsverantwortlichen von Unternehmen der Fertigungsindustrie die Steigerung der Termintreue und Lieferfähigkeit als das Kernproblem. Weitere wichtige Herausforderungen sind der Studie zufolge eine optimierte Bedarfsplanung sowie die Reduzierung der Warenbestände. Der Planung kommt angesichts dieser Herausforderungen und des wachsenden Wettbewerbsdrucks eine zentrale Bedeutung zu. Mehr denn je ist eine Flexibilität in der Produktion gefragt, die es ermöglicht, Bedürfnisse der Kunden schneller zu erfüllen, Produktzyklen und Lieferzeiten zu verkürzen und die Kapitalbindung durch dynamische, bedarfsgerechte Anpassung der Warenbestände zu reduzieren. Diesen Anforderungen müssen Planungsprozesse gerecht werden.

Planungsdauer als Bremsklotz

Hier klafft allerdings eine eklatante Lücke zwischen Planungsanspruch und -wirklichkeit. Verschiedene Rahmenbedingungen führen dazu, dass die Planungsprozesse im Bereich Sales & Operations Planning (S&OP) die Produktionsprozesse nur unzureichend unterstützen. Oftmals fehlt es bereits an einer ausreichend technischen Unterstützung, weil in vielen Unternehmen nach wie vor Excel beziehungsweise eine Vielzahl von Excel-Sheets als Plattform zur Planung genutzt wird. IT-gestützte Planungsframeworks bieten zahlreiche Funktionalitäten, die die Komplexität der Planungsprozesse stark reduzieren, ihre Dauer erheblich verkürzen und die Qualität von S&OP deutlich steigern können. Mittels Planungsansätzen auf höher aggregierten Hierarchien, der Verringerung des Detaillierungsgrades, der Nutzung von treiberbasierten Modellen bis hin zu einem engen Statustracking der Planung können Unternehmen effiziente Planungsumgebungen gestalten.

Neben dem nicht selten hohen zeitlichen Aufwand innerhalb der Planungsrunden sind existierende Planungslösungen oftmals zu starr und unflexibel, um schnell auf sich ändernde Rahmenbedingungen reagieren zu können. Dieses Plus an Reaktionsschnelligkeit ist jedoch bei zunehmender Volatilität eine große Unterstützung. Hierfür sind Lösungen am Markt, die ohne hohen Einfluss von IT-Spezialisten durch Fachanwender betrieben und weiterentwickelt werden können. Passen die technischen Rahmenbedingungen, lassen sich die Planungsmodelle entwickeln und optimieren. Hierzu sind verschiedene Fakten zu Planungssystematiken zu berücksichtigen, die zeigen, dass auf dem Weg zu austarierten Modellen weitere Herausforderungen zu lösen sind:

  • Mit komplexen Modellen können oft Fakten der Vergangenheit gut beschrieben werden. Sie zeigen aber häufig Schwächen bei der Vorhersage der Zukunft.
  • Einfache Modelle, die nicht auf die Vergangenheit passen, können teilweise sehr gute Prognosen erstellen.
  • Weder statistische Modelle noch Expertenurteile können die Unsicherheit der Zukunft vollständig erfassen.
  • Reine Expertenurteile sind in der Regel schlechter als Prognosen, die alleine mittels statistischer Modelle ermittelt wurden.

Sowohl expertenabhängige, manuelle als auch statistische, automatisierte Planungsmodelle haben ihre Existenzberechtigung und sind im jeweiligen Anwendungsfall mehr oder weniger sinnvoll und zielführend. Der zentrale Erfolgsfaktor ist daher die richtige Wahl der Planungsmodelle. Qualitative, manuelle Planungsmodelle können dann zum Einsatz kommen, wenn die Grundlage statistischer Vorhersagemodelle nicht vorhanden, nicht relevant, unvollständig oder zum Planungszeitpunkt nicht verfügbar ist. In diesem Fall ist die Expertenmeinung unumgänglich. Quantitative, statistische Planungsmodelle sollten dann genutzt werden, wenn historische numerische Informationen verfügbar sind oder wenn angenommen wird, dass Muster der Vergangenheit auch in der Zukunft auftreten werden. Neben beispielsweise multiplen Regressionen und additiven Modellen werden vor allem Time Series-Methoden wie verschiedene exponentielle Glättungen verwendet.







  • Innovationstreiber Thin[gk]athon: Kollaborative Intelligenz trifft auf Industrie-Expertise

    Der Thin[gk]athon, veranstaltet vom Smart Systems Hub, vereint kollaborative Intelligenz und Industrie-Expertise, um in einem dreitägigen Hackathon innovative Lösungsansätze für komplexe Fragestellungen…


  • KI in Fertigungsbranche vorn

    Die neunte Ausgabe von Rockwell Automations „State of Smart Manufacturing“ Report liefert Einblicke in Trends und Herausforderungen für Hersteller. Dazu wurden über…


  • Ein Stück näher am Quanteninternet

    Das Quanteninternet verspricht signifikante Verbesserungen in verschiedenen technologischen Schlüsselbereichen. Um dieses jedoch im bestehenden Glaserfasernetz zu realisieren, sind Quantenfrequenzkonverter nötig, die die…


  • Nachhaltigkeitsthemen im Datenmanagement abbilden

    Technologien wie Robotic Process Automation (RPA) oder künstliche Intelligenz (KI) können Unternehmen beim Management von ESG-Daten unterstützen. Der Softwarespezialist Blue Prism beleuchtet…


  • Weniger deutsche Unternehmen abhängig von Vorprodukten aus China

    Im Vergleich zu einer Untersuchung kurz vor Beginn Kriegs in der Ukraine, geben in einer aktuellen Untersuchung des Ifo Instituts weniger Unternehmen…