Anzeige
Anzeige
Anzeige
Beitrag drucken

Erfolgstreiber Datenmanagement

Damit sich Zahlen auszahlen

Aufwendungen für höhere Datenqualität können sich für Industrieunternehmen gerade im verschärften Wettbewerbsumfeld bezahlt machen. Als Instrumte stehen zahlreiche Ansätze von der gezielten Stammdatenpflege über Data Warehousing bis zum Einsatz von Business Intelligence-Software zur Auswahl.

Mehr Systematik im Umgang mit den eigenen Daten ist bares Geld wert. Das hat die University of Texas in einer im Jahr 2010 veröffentlichten Studie herausgearbeitet. Demnach können beispielsweise besser strukturierte Unternehmensdaten bis zu zehn Prozent mehr Umsatz bedeuten; wenn zehn Prozent der Daten besser zugänglich sind, kann das die Eigenkapitalrentabilität um bis zu 16 Prozent steigern. Der Untersuchung zufolge könnte ein Konzern, der zwischen 30.000 und 40.000 Menschen beschäftigt, pro Mitarbeiter rund 50.000 US-Dollar Mehrumsatz veranschlagen, wenn er sich um bessere Datenqualität bemühen würde.

Ungeachtet der Frage, ob sich diese Werte genau so aufrechnen lassen, gilt eines in jedem Fall: Systematisches Datenmanagement ist aktive Qualitätssicherung, und damit bares Geld wert. Sei es, dass Produktionsprozesse effizienter ablaufen und Erzeugnisse schneller auf den Markt kommen, oder dass strategische Entscheidungen aufgrund besserer Analysen und Prognosen zuverlässiger getroffen werden können. Unternehmen stehen dabei vor der Frage, wie sie zu ‚besseren‘ Daten kommen. Die gängigen Schlagworte zu diesem Thema lauten Stammdatenmanagement, Data Warehousing und Business Intelligence. Allerdings herrscht oft Unklarheit über Fokus, Zusammenhänge und Abgrenzungslinien der Konzepte.

Dreh- und Angelpunkt: die Stammdaten

Das Stammdatenmanagement oder Master Data Management (MDM) bereitet vielen Unternehmen Kopfzerbrechen. Meistens deshalb, weil es auf die Implementierung von MDM-Software reduziert und lediglich als ein IT-Projekt unter vielen angesehen wird. Das greift zu kurz, denn bei MDM geht es in erster Linie um das Verständnis von Betriebsabläufen. Da diese sehr unterschiedliche Ziele verfolgen, ist MDM immer ein Spagat zwischen Bereichsinteressen. Die Kunst liegt darin, die Datenbasis so flexibel zu gestalten, dass möglichst alle Interessen bedient werden können. Will beispielsweise die Entwicklungsabteilung kürzere Time-to-market-Intervalle erreichen, muss der MDM-Ansatz genauso funktionieren wie für den Vertriebsbereich, der Cross-Selling-Potenziale besser erkennen will.

Bei der Auswahl der geeigneten MDM-Software sind daher nicht nur ‚technische‘ Kategorien wie Schnittstellen, Skalierbarkeit und Performance relevant, sondern vor allem die Möglichkeiten eines Controllings, um die benötigte und definierte Datenqualität an jeder Stelle garantieren zu können. Und noch ein Aspekt ist wichtig: Stammdatenmanagement ist kein Thema, das erst auf Konzernebene interessant wird. Streng genommen fängt es dort an, wo zwei unterschiedliche Geschäftsprozesse auf dieselben Daten zugreifen, und das dürfte in nahezu jedem Betrieb der Fall sein.

Gerade kleinere Unternehmen werden aber eher zögern, eine dezidierte MDM-Initiative zu starten. Das liegt nicht zuletzt am Umfang des IT-Budgets. Häufig kommen gerade aus diesem Umfeld Stimmen, dass das Thema Stammdaten ja mit Einführung einer Enterprise Resource Planning-Software (ERP) abgegolten sei. Das allerdings ist ein Trugschluss: Es ist nicht die Aufgabe einer ERP-Lösung, für einheitliche Stammdaten zu sorgen, sondern Prozesse umzusetzen, die eine gute Datenqualität voraussetzen. ERP steht also eine Ebene über dem Stammdatenmanagement und kann dieses demnach auch nicht ersetzen.

Data Warehousing setzt engen Fokus voraus

Als Alternativstrategie wird das Schlagwort Data Warehousing gerne gegenüber MDM ins Spiel gebracht, wenn sich die Diskussion um ‚bessere‘ Daten dreht. Hier gilt es, genau zu differenzieren: Zwar geht es auch beim Data Warehousing darum, Datenfehler zu korrigieren und Redundanzen auszumerzen, aber der Fokus ist ein anderer als beim Stammdatenmanagement: Sämtliche Maßnahmen erfolgen, um die Daten für konkrete Auswertungen vorzubereiten, die Aufschluss über erreichte oder verfehlte Geschäftsziele und die Effizienz von Geschäftsabläufen geben sollen. Beim Stammdatenmanagement hingegen ist der Fokus auf die operativen Prozesse eingestellt, es geht um die passenden Voraussetzungen dafür, dass sie überhaupt optimal ablaufen können.

Kombinierte Methodik für bessere Datenqualität

So unterschiedlich die beiden Ansätze in ihrer jeweiligen Ausprägung auch sind, so sinnvoll ist es dennoch, sie miteinander zu verbinden. Das gilt schon deshalb, weil Data Warehousing-Projekte immer komplexer werden. Eine Untersuchung der Consultingfirma Information Difference aus dem Jahr 2010 ergab, dass in den befragten Unternehmen im Mittelwert drei Warehouses in Betrieb waren, die ihre Informationen aus durchschnittlich zehn Datenquellen bezogen. In den größten Warehouses lagerten bis 800 Terabyte an Daten, im Schnitt waren es 34 Terabyte. Fast drei Viertel der Befragten hatten ihr Data Warehouse unternehmensweit installiert und nicht auf bestimmte Bereiche beschränkt. Ungeachtet der genauen Größenordnungen im Einzelfall sind heute im industriellen Umfeld Prozesse an der Tagesordnung, bei denen Daten im Terabyte-Bereich bewegt werden. Man denke nur an einen Anlagenbauer, der Millionen an Artikelinformationen vorhält und auf dieser Basis nicht nur weltweit einheitlich produzieren, sondern seine Prozesse auch fundiert auswerten muss. Das lässt sich nur sicherstellen, wenn Stammdatenmanagement und Data Warehousing als zwei Seiten derselben Medaille gesehen werden.

Business Intelligence: Verschwommenes wird eindeutig

Wenn es darum geht, Unternehmensdaten besser zu nutzen, ist Business Intelligence (BI) der am meisten genannte, aber auch der diffuseste Begriff. Das liegt an der Definition: BI ist eine Sammelbezeichnung für Verfahren, die Daten in elektronischer Form zusammenfassen und auswerten. Das Ziel ist der Erkenntnisgewinn, was das englische ‚Intelligence‘ ja auch am besten trifft. Hält man sich diese Bedeutung vor Augen, ist das Data Warehousing zwar ein wichtiger Teil des BI-Prozesses, aber noch nicht sein eigentliches Ziel. Im Data Warehouse werden Daten gesammelt und aufbereitet, damit sie in weiteren Schritten sinnvoll ausgewertet werden können. Das kann über simple Datenaggregationen geschehen, aus denen sich zum Beispiel Umsätze in bestimmten Gebieten über bestimmte Zeiträume ablesen lassen, oder in umfassende statistische Berechnungen münden, aus denen sich dann etwa Trends im Kaufverhalten oder die am besten geeigneten Märkte für die Einführung neuer Produkte herauskristallisieren.

Von der Pflichtübung zum Wettbewerbsfaktor

Für all diese Ansätze zur Verbesserung der Datenqualität bietet der Markt leistungsstarke Analysetools an. Doch der Einsatz passender Soft- und Hardware allein löst noch nicht die zahlreichen Anforderungen an ein effizientes Datenmanahement. Die Kernfrage für jedes Optimierungsporjekt muss daher lauten, wie sicher und belastbar die auf Basis der Daten zu erwartenden Aussagen sind. Dazu sollten die verschiedenen Anwender aus Geschäftsführung, Produktionsvorstand und Vertriebsleitung zu den gleichen, eindeutigen Schlussfolgerungen gelangen, wenn sie ihr IT-Instrumentarium für die Analyse von Unternehmensporzessen einsetzen. Erst dann liegen die eingangs genannten Voraussetzungen vor, um als Unternehmen durch bessere Datenqualität nachhaltig erfolgreicher im Wettbewerb zu agieren. Es lohnt sich also durchaus, einen genaueren Blick auf seine Daten zu werfen und sie nicht nur als Mittel zum Zweck zu betrachten, sondern das Datenmanagement selbst als einen zentralen, durchgängigen und kontinuierlichen Geschäftsprozess zu behandeln. Dann wandelt sich das Datenmanegement von einer lästigen Pflichtübung hin zu einem wertschöpfenden Prozess, der langfristig immer wieder hohe Renditen einbringen kann.


Das könnte Sie auch interessieren:

Siemens hat die AI-Anomaly-Assistant-Industrie-App ins Portfolio genommen. Damit können Anwender per künstlicher Intelligenz Anomalien in der Prozessindustrie erkennen und diese auf ihre Geschäftsrelevanz bewerten.‣ weiterlesen

Bereits im April 2016 herausgegeben und 2021 erneut bestätigt: Die Richtlinie VDI/VDE 3516 Blatt 4 'Validierung im GxP-Umfeld – Automatisiertes Testen' stellt die Zielsetzungen und möglichen Vorteile automatisierter Tests im pharmazeutischen Umfeld dar.‣ weiterlesen

PerfectPattern hat die kostenlose Basisversion von Insights App vorgestellt. Mit der Software können Prozessingenieure, Produktionsexperten und Datenwissenschaftler die von PerfectPattern entwickelte KI-Technologie Aivis nutzen, um Einblicke in Produktionsprozesse zu erhalten.‣ weiterlesen

Die Buss-Unternehmensgruppe ist in vielen unterschiedlichen Geschäftsfeldern tätig. Eine Herausforderung, stand doch ein Wechsel des ERP-Systems ins Haus - mit mehr als 80 Unternehmen innerhalb der Gruppe. Gemeinsam mit dem IT-Dienstleister Sven Mahn IT gelang es, das Projekt innerhalb von 14 Wochen umzusetzen.‣ weiterlesen

Werden neue Technologien wie beispielsweise künstliche Intelligenz Teil des Arbeistalltages wünscht sich ein Großteil der unter 31-Jährigen, darüber informiert zu werden. Dies geht aus einer Studie des IT-Security-Anbieters Kaspersky hervor. Auch ein menschliches Antlitz könnte laut Studie für mehr Akzeptanz sorgen.‣ weiterlesen

Schlechtere Stimmung als noch im Juni. Geschäftsklima-Index des Ifo Instituts hat in der aktuellen Erhebung im Vergleich zum Vormonat nachgegeben.‣ weiterlesen

Die Sprints zu Covid19-Impfstoffen zeigen den Leistungsdruck, unter dem die Technologieentwicklung steht. In kürzester Zeit sollen Forscher und Ingenieure Lösungen für die kritischen Probleme unserer Zeit finden. Der Accelerated-Discovery-Ansatz soll helfen, Forschungs- und Entwicklungsprozesse mit KI, Hybrid Cloud und schließlich Quantencomputern um das zehn- bis hundertfache des heute Möglichen zu beschleunigen.‣ weiterlesen

Trebing + Himstedt hat die Partnerschaft mit Celonis bekanntgegeben. Die Unternehmen wollen zukünftig beim Thema Process Mining zusammenarbeiten.‣ weiterlesen

Im Rahmen einer Partnerschaft wollen Crate.io und Zühlke zukünftig gemeinsam an Smart Factory- und Industrie 4.0-Lösungen arbeiten.‣ weiterlesen

Die Dualis GmbH IT Solution hat für Lean-Manufacturing-Aufgabenstellungen ein Add-on zur 3D-Simulationsplattform Visual Components entwickelt. Basierend auf Process Modelling können damit automatisch branchengängige Standardized Work Sheets generiert werden.‣ weiterlesen

Um verschiedene Daten aufzubereiten und den Mitarbeitern nutzenbringend bereitzustellen, ist nicht immer ein großes IT-Projekt nötig. Wer schnell Daten für die Beschäftigten visualisieren möchte, sollte sich einmal näher mit Dashboards befassen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige