Eigenbanner: i-need (Super-Banner
ANZEIGE
Eigenbanner: I40-Magazin Skyscraper
Beitrag drucken

Erfolgstreiber Datenmanagement

Damit sich Zahlen auszahlen

Aufwendungen für höhere Datenqualität können sich für Industrieunternehmen gerade im verschärften Wettbewerbsumfeld bezahlt machen. Als Instrumte stehen zahlreiche Ansätze von der gezielten Stammdatenpflege über Data Warehousing bis zum Einsatz von Business Intelligence-Software zur Auswahl.

Mehr Systematik im Umgang mit den eigenen Daten ist bares Geld wert. Das hat die University of Texas in einer im Jahr 2010 veröffentlichten Studie herausgearbeitet. Demnach können beispielsweise besser strukturierte Unternehmensdaten bis zu zehn Prozent mehr Umsatz bedeuten; wenn zehn Prozent der Daten besser zugänglich sind, kann das die Eigenkapitalrentabilität um bis zu 16 Prozent steigern. Der Untersuchung zufolge könnte ein Konzern, der zwischen 30.000 und 40.000 Menschen beschäftigt, pro Mitarbeiter rund 50.000 US-Dollar Mehrumsatz veranschlagen, wenn er sich um bessere Datenqualität bemühen würde.

Ungeachtet der Frage, ob sich diese Werte genau so aufrechnen lassen, gilt eines in jedem Fall: Systematisches Datenmanagement ist aktive Qualitätssicherung, und damit bares Geld wert. Sei es, dass Produktionsprozesse effizienter ablaufen und Erzeugnisse schneller auf den Markt kommen, oder dass strategische Entscheidungen aufgrund besserer Analysen und Prognosen zuverlässiger getroffen werden können. Unternehmen stehen dabei vor der Frage, wie sie zu ‚besseren‘ Daten kommen. Die gängigen Schlagworte zu diesem Thema lauten Stammdatenmanagement, Data Warehousing und Business Intelligence. Allerdings herrscht oft Unklarheit über Fokus, Zusammenhänge und Abgrenzungslinien der Konzepte.

Dreh- und Angelpunkt: die Stammdaten

Das Stammdatenmanagement oder Master Data Management (MDM) bereitet vielen Unternehmen Kopfzerbrechen. Meistens deshalb, weil es auf die Implementierung von MDM-Software reduziert und lediglich als ein IT-Projekt unter vielen angesehen wird. Das greift zu kurz, denn bei MDM geht es in erster Linie um das Verständnis von Betriebsabläufen. Da diese sehr unterschiedliche Ziele verfolgen, ist MDM immer ein Spagat zwischen Bereichsinteressen. Die Kunst liegt darin, die Datenbasis so flexibel zu gestalten, dass möglichst alle Interessen bedient werden können. Will beispielsweise die Entwicklungsabteilung kürzere Time-to-market-Intervalle erreichen, muss der MDM-Ansatz genauso funktionieren wie für den Vertriebsbereich, der Cross-Selling-Potenziale besser erkennen will.

Bei der Auswahl der geeigneten MDM-Software sind daher nicht nur ‚technische‘ Kategorien wie Schnittstellen, Skalierbarkeit und Performance relevant, sondern vor allem die Möglichkeiten eines Controllings, um die benötigte und definierte Datenqualität an jeder Stelle garantieren zu können. Und noch ein Aspekt ist wichtig: Stammdatenmanagement ist kein Thema, das erst auf Konzernebene interessant wird. Streng genommen fängt es dort an, wo zwei unterschiedliche Geschäftsprozesse auf dieselben Daten zugreifen, und das dürfte in nahezu jedem Betrieb der Fall sein.

Gerade kleinere Unternehmen werden aber eher zögern, eine dezidierte MDM-Initiative zu starten. Das liegt nicht zuletzt am Umfang des IT-Budgets. Häufig kommen gerade aus diesem Umfeld Stimmen, dass das Thema Stammdaten ja mit Einführung einer Enterprise Resource Planning-Software (ERP) abgegolten sei. Das allerdings ist ein Trugschluss: Es ist nicht die Aufgabe einer ERP-Lösung, für einheitliche Stammdaten zu sorgen, sondern Prozesse umzusetzen, die eine gute Datenqualität voraussetzen. ERP steht also eine Ebene über dem Stammdatenmanagement und kann dieses demnach auch nicht ersetzen.

Data Warehousing setzt engen Fokus voraus

Als Alternativstrategie wird das Schlagwort Data Warehousing gerne gegenüber MDM ins Spiel gebracht, wenn sich die Diskussion um ‚bessere‘ Daten dreht. Hier gilt es, genau zu differenzieren: Zwar geht es auch beim Data Warehousing darum, Datenfehler zu korrigieren und Redundanzen auszumerzen, aber der Fokus ist ein anderer als beim Stammdatenmanagement: Sämtliche Maßnahmen erfolgen, um die Daten für konkrete Auswertungen vorzubereiten, die Aufschluss über erreichte oder verfehlte Geschäftsziele und die Effizienz von Geschäftsabläufen geben sollen. Beim Stammdatenmanagement hingegen ist der Fokus auf die operativen Prozesse eingestellt, es geht um die passenden Voraussetzungen dafür, dass sie überhaupt optimal ablaufen können.

Kombinierte Methodik für bessere Datenqualität

So unterschiedlich die beiden Ansätze in ihrer jeweiligen Ausprägung auch sind, so sinnvoll ist es dennoch, sie miteinander zu verbinden. Das gilt schon deshalb, weil Data Warehousing-Projekte immer komplexer werden. Eine Untersuchung der Consultingfirma Information Difference aus dem Jahr 2010 ergab, dass in den befragten Unternehmen im Mittelwert drei Warehouses in Betrieb waren, die ihre Informationen aus durchschnittlich zehn Datenquellen bezogen. In den größten Warehouses lagerten bis 800 Terabyte an Daten, im Schnitt waren es 34 Terabyte. Fast drei Viertel der Befragten hatten ihr Data Warehouse unternehmensweit installiert und nicht auf bestimmte Bereiche beschränkt. Ungeachtet der genauen Größenordnungen im Einzelfall sind heute im industriellen Umfeld Prozesse an der Tagesordnung, bei denen Daten im Terabyte-Bereich bewegt werden. Man denke nur an einen Anlagenbauer, der Millionen an Artikelinformationen vorhält und auf dieser Basis nicht nur weltweit einheitlich produzieren, sondern seine Prozesse auch fundiert auswerten muss. Das lässt sich nur sicherstellen, wenn Stammdatenmanagement und Data Warehousing als zwei Seiten derselben Medaille gesehen werden.

Business Intelligence: Verschwommenes wird eindeutig

Wenn es darum geht, Unternehmensdaten besser zu nutzen, ist Business Intelligence (BI) der am meisten genannte, aber auch der diffuseste Begriff. Das liegt an der Definition: BI ist eine Sammelbezeichnung für Verfahren, die Daten in elektronischer Form zusammenfassen und auswerten. Das Ziel ist der Erkenntnisgewinn, was das englische ‚Intelligence‘ ja auch am besten trifft. Hält man sich diese Bedeutung vor Augen, ist das Data Warehousing zwar ein wichtiger Teil des BI-Prozesses, aber noch nicht sein eigentliches Ziel. Im Data Warehouse werden Daten gesammelt und aufbereitet, damit sie in weiteren Schritten sinnvoll ausgewertet werden können. Das kann über simple Datenaggregationen geschehen, aus denen sich zum Beispiel Umsätze in bestimmten Gebieten über bestimmte Zeiträume ablesen lassen, oder in umfassende statistische Berechnungen münden, aus denen sich dann etwa Trends im Kaufverhalten oder die am besten geeigneten Märkte für die Einführung neuer Produkte herauskristallisieren.

Von der Pflichtübung zum Wettbewerbsfaktor

Für all diese Ansätze zur Verbesserung der Datenqualität bietet der Markt leistungsstarke Analysetools an. Doch der Einsatz passender Soft- und Hardware allein löst noch nicht die zahlreichen Anforderungen an ein effizientes Datenmanahement. Die Kernfrage für jedes Optimierungsporjekt muss daher lauten, wie sicher und belastbar die auf Basis der Daten zu erwartenden Aussagen sind. Dazu sollten die verschiedenen Anwender aus Geschäftsführung, Produktionsvorstand und Vertriebsleitung zu den gleichen, eindeutigen Schlussfolgerungen gelangen, wenn sie ihr IT-Instrumentarium für die Analyse von Unternehmensporzessen einsetzen. Erst dann liegen die eingangs genannten Voraussetzungen vor, um als Unternehmen durch bessere Datenqualität nachhaltig erfolgreicher im Wettbewerb zu agieren. Es lohnt sich also durchaus, einen genaueren Blick auf seine Daten zu werfen und sie nicht nur als Mittel zum Zweck zu betrachten, sondern das Datenmanagement selbst als einen zentralen, durchgängigen und kontinuierlichen Geschäftsprozess zu behandeln. Dann wandelt sich das Datenmanegement von einer lästigen Pflichtübung hin zu einem wertschöpfenden Prozess, der langfristig immer wieder hohe Renditen einbringen kann.


Das könnte Sie auch interessieren:

Mehr Funktionen für Fabrikplaner

In Version 6.2 hat die CAD Schroer GmbH ihre Anlagenbau- und Fabrikplanungssoftware MPDS4 um zahlreiche Funktionen erweitert So wurde die Bedienung überarbeitet und die Schnittstellen für den Datenaustausch ergänzt. Bestandteil der Version sind zudem weitere Kataloge für den Rohrleitungsbau. ‣ weiterlesen

Viele Unternehmen tätigen Investitionen, ohne die energieeffizienteste Investitionsvariante zu berücksichtigen. Oft fehlen ihnen die Zeit und das Know-how, die Informationen für eine fundierte Bewertung zusammenzutragen. In dem vom BMBF geförderten Projekt ‚Ecoinvest‘ hat das Fraunhofer IPA mit zwei Industriepartnern ein Tool entwickelt, das dem Anwender alle relevanten Kriterien wie Kosten, Amortisationszeit oder Förderprogramme anzeigt. Unternehmen erhalten somit die Grundlage für eine ökonomische und gleichzeitig umweltfreundliche Investitionsentscheidung. ‣ weiterlesen

Coscom bindet Esprit CAD/CAM an

Die digitale Werkzeugverwaltung Tooldirector VM von Coscom liefert nun auch Werkzeugdaten für Esprit CAD/CAM. Nach Systemstart aus Coscom Factorydirector VM heraus, werden Informationen wie Maschine, Material, NC-Programmname und so weiter übergeben. ‣ weiterlesen

Den einheitlichen Informationsstandard sichern

Lösungen für das digitale Vertragsmanagement helfen dabei, Fristen im Blick zu behalten und effizient mit Lieferanten zusammenzuarbeiten. Roboterhersteller Kuka setzt dabei auf Extended ECM vom Softwarehersteller Opentext. ‣ weiterlesen

Kaum ein Projekt ohne IoT

Operational und Information Technology wachsen zusammen. Das zeigen immer mehr Leuchtturm-Projekte, die digitale Technik und Produkte gewinnbringend zusammenbringen. Diese Vorhaben braucht es, denn sie inspirieren den gesamten Markt. Hitachi ist auf mehreren Handlungsfeldern aktiv: Der Konzern produziert vom Zug bis zur Baumaschine hochvernetzte Güter und Fertigungstechnik. Dabei beobachtet das Unternehmen, dass kaum ein Industrie 4.0-Projekt ohne IoT-Technik auskommt – und positioniert sich mit der Plattform Lumada auf dem noch jungen Markt. ‣ weiterlesen

Neue Lösungen für den 3D-Druck von Metall

Materialise hat auf der Rapidtech 2017 neue Softwares für die generative Fertigung von Metall gezeigt. Eine davon ist der Materialise Inspector, der Anwender bei der Analyse von anfallenden Bilddaten unterstützt. ‣ weiterlesen