Erfolgstreiber Datenmanagement

Damit sich Zahlen auszahlen

Aufwendungen für höhere Datenqualität können sich für Industrieunternehmen gerade im verschärften Wettbewerbsumfeld bezahlt machen. Als Instrumte stehen zahlreiche Ansätze von der gezielten Stammdatenpflege über Data Warehousing bis zum Einsatz von Business Intelligence-Software zur Auswahl.

Mehr Systematik im Umgang mit den eigenen Daten ist bares Geld wert. Das hat die University of Texas in einer im Jahr 2010 veröffentlichten Studie herausgearbeitet. Demnach können beispielsweise besser strukturierte Unternehmensdaten bis zu zehn Prozent mehr Umsatz bedeuten; wenn zehn Prozent der Daten besser zugänglich sind, kann das die Eigenkapitalrentabilität um bis zu 16 Prozent steigern. Der Untersuchung zufolge könnte ein Konzern, der zwischen 30.000 und 40.000 Menschen beschäftigt, pro Mitarbeiter rund 50.000 US-Dollar Mehrumsatz veranschlagen, wenn er sich um bessere Datenqualität bemühen würde.

Ungeachtet der Frage, ob sich diese Werte genau so aufrechnen lassen, gilt eines in jedem Fall: Systematisches Datenmanagement ist aktive Qualitätssicherung, und damit bares Geld wert. Sei es, dass Produktionsprozesse effizienter ablaufen und Erzeugnisse schneller auf den Markt kommen, oder dass strategische Entscheidungen aufgrund besserer Analysen und Prognosen zuverlässiger getroffen werden können. Unternehmen stehen dabei vor der Frage, wie sie zu ‚besseren‘ Daten kommen. Die gängigen Schlagworte zu diesem Thema lauten Stammdatenmanagement, Data Warehousing und Business Intelligence. Allerdings herrscht oft Unklarheit über Fokus, Zusammenhänge und Abgrenzungslinien der Konzepte.

Dreh- und Angelpunkt: die Stammdaten

Das Stammdatenmanagement oder Master Data Management (MDM) bereitet vielen Unternehmen Kopfzerbrechen. Meistens deshalb, weil es auf die Implementierung von MDM-Software reduziert und lediglich als ein IT-Projekt unter vielen angesehen wird. Das greift zu kurz, denn bei MDM geht es in erster Linie um das Verständnis von Betriebsabläufen. Da diese sehr unterschiedliche Ziele verfolgen, ist MDM immer ein Spagat zwischen Bereichsinteressen. Die Kunst liegt darin, die Datenbasis so flexibel zu gestalten, dass möglichst alle Interessen bedient werden können. Will beispielsweise die Entwicklungsabteilung kürzere Time-to-market-Intervalle erreichen, muss der MDM-Ansatz genauso funktionieren wie für den Vertriebsbereich, der Cross-Selling-Potenziale besser erkennen will.

Bei der Auswahl der geeigneten MDM-Software sind daher nicht nur ‚technische‘ Kategorien wie Schnittstellen, Skalierbarkeit und Performance relevant, sondern vor allem die Möglichkeiten eines Controllings, um die benötigte und definierte Datenqualität an jeder Stelle garantieren zu können. Und noch ein Aspekt ist wichtig: Stammdatenmanagement ist kein Thema, das erst auf Konzernebene interessant wird. Streng genommen fängt es dort an, wo zwei unterschiedliche Geschäftsprozesse auf dieselben Daten zugreifen, und das dürfte in nahezu jedem Betrieb der Fall sein.

Gerade kleinere Unternehmen werden aber eher zögern, eine dezidierte MDM-Initiative zu starten. Das liegt nicht zuletzt am Umfang des IT-Budgets. Häufig kommen gerade aus diesem Umfeld Stimmen, dass das Thema Stammdaten ja mit Einführung einer Enterprise Resource Planning-Software (ERP) abgegolten sei. Das allerdings ist ein Trugschluss: Es ist nicht die Aufgabe einer ERP-Lösung, für einheitliche Stammdaten zu sorgen, sondern Prozesse umzusetzen, die eine gute Datenqualität voraussetzen. ERP steht also eine Ebene über dem Stammdatenmanagement und kann dieses demnach auch nicht ersetzen.

Data Warehousing setzt engen Fokus voraus

Als Alternativstrategie wird das Schlagwort Data Warehousing gerne gegenüber MDM ins Spiel gebracht, wenn sich die Diskussion um ‚bessere‘ Daten dreht. Hier gilt es, genau zu differenzieren: Zwar geht es auch beim Data Warehousing darum, Datenfehler zu korrigieren und Redundanzen auszumerzen, aber der Fokus ist ein anderer als beim Stammdatenmanagement: Sämtliche Maßnahmen erfolgen, um die Daten für konkrete Auswertungen vorzubereiten, die Aufschluss über erreichte oder verfehlte Geschäftsziele und die Effizienz von Geschäftsabläufen geben sollen. Beim Stammdatenmanagement hingegen ist der Fokus auf die operativen Prozesse eingestellt, es geht um die passenden Voraussetzungen dafür, dass sie überhaupt optimal ablaufen können.

Kombinierte Methodik für bessere Datenqualität

So unterschiedlich die beiden Ansätze in ihrer jeweiligen Ausprägung auch sind, so sinnvoll ist es dennoch, sie miteinander zu verbinden. Das gilt schon deshalb, weil Data Warehousing-Projekte immer komplexer werden. Eine Untersuchung der Consultingfirma Information Difference aus dem Jahr 2010 ergab, dass in den befragten Unternehmen im Mittelwert drei Warehouses in Betrieb waren, die ihre Informationen aus durchschnittlich zehn Datenquellen bezogen. In den größten Warehouses lagerten bis 800 Terabyte an Daten, im Schnitt waren es 34 Terabyte. Fast drei Viertel der Befragten hatten ihr Data Warehouse unternehmensweit installiert und nicht auf bestimmte Bereiche beschränkt. Ungeachtet der genauen Größenordnungen im Einzelfall sind heute im industriellen Umfeld Prozesse an der Tagesordnung, bei denen Daten im Terabyte-Bereich bewegt werden. Man denke nur an einen Anlagenbauer, der Millionen an Artikelinformationen vorhält und auf dieser Basis nicht nur weltweit einheitlich produzieren, sondern seine Prozesse auch fundiert auswerten muss. Das lässt sich nur sicherstellen, wenn Stammdatenmanagement und Data Warehousing als zwei Seiten derselben Medaille gesehen werden.

Business Intelligence: Verschwommenes wird eindeutig

Wenn es darum geht, Unternehmensdaten besser zu nutzen, ist Business Intelligence (BI) der am meisten genannte, aber auch der diffuseste Begriff. Das liegt an der Definition: BI ist eine Sammelbezeichnung für Verfahren, die Daten in elektronischer Form zusammenfassen und auswerten. Das Ziel ist der Erkenntnisgewinn, was das englische ‚Intelligence‘ ja auch am besten trifft. Hält man sich diese Bedeutung vor Augen, ist das Data Warehousing zwar ein wichtiger Teil des BI-Prozesses, aber noch nicht sein eigentliches Ziel. Im Data Warehouse werden Daten gesammelt und aufbereitet, damit sie in weiteren Schritten sinnvoll ausgewertet werden können. Das kann über simple Datenaggregationen geschehen, aus denen sich zum Beispiel Umsätze in bestimmten Gebieten über bestimmte Zeiträume ablesen lassen, oder in umfassende statistische Berechnungen münden, aus denen sich dann etwa Trends im Kaufverhalten oder die am besten geeigneten Märkte für die Einführung neuer Produkte herauskristallisieren.

Von der Pflichtübung zum Wettbewerbsfaktor

Für all diese Ansätze zur Verbesserung der Datenqualität bietet der Markt leistungsstarke Analysetools an. Doch der Einsatz passender Soft- und Hardware allein löst noch nicht die zahlreichen Anforderungen an ein effizientes Datenmanahement. Die Kernfrage für jedes Optimierungsporjekt muss daher lauten, wie sicher und belastbar die auf Basis der Daten zu erwartenden Aussagen sind. Dazu sollten die verschiedenen Anwender aus Geschäftsführung, Produktionsvorstand und Vertriebsleitung zu den gleichen, eindeutigen Schlussfolgerungen gelangen, wenn sie ihr IT-Instrumentarium für die Analyse von Unternehmensporzessen einsetzen. Erst dann liegen die eingangs genannten Voraussetzungen vor, um als Unternehmen durch bessere Datenqualität nachhaltig erfolgreicher im Wettbewerb zu agieren. Es lohnt sich also durchaus, einen genaueren Blick auf seine Daten zu werfen und sie nicht nur als Mittel zum Zweck zu betrachten, sondern das Datenmanagement selbst als einen zentralen, durchgängigen und kontinuierlichen Geschäftsprozess zu behandeln. Dann wandelt sich das Datenmanegement von einer lästigen Pflichtübung hin zu einem wertschöpfenden Prozess, der langfristig immer wieder hohe Renditen einbringen kann.