Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Das Konzept der ‚Master Data Quality Gates‘

Tore zu besserer Stammdatenqualität

Das Konzept der ‚Master Data Quality Gates‘ soll in Unternehmen für stets korrekte Stammdaten sorgen. Im Kern werden dabei die Daten kontinuierlich und automatisch kontrolliert, statt etwa vor einem Softwareprojekt aus dieser Aufgabe jedes Mal ein Großprojekt zu machen.

Bild: ©Naeblys/stock.adobe.com

(Bild: ©Naeblys/stock.adobe.com)

Kaufleute und Ingenieure legen ähnliche Maßstäbe an die Qualität von Informationen an: Sie beginnen mit Aktualität, Richtigkeit und Vollständigkeit. Diese Kriterien gelten ohne Einschränkungen auch für Stammdaten, die wir in unsere digitalen Informationsspeicher laden, damit sie von Software-gesteuerten Prozessen weiterverarbeitet werden. Doch allein reichen diese Kriterien nicht aus: Nur eine Konformität der Daten mit spezifischen Regeln lässt eine maschinelle Verarbeitung zu. Einzelne Systeme verweigern den Dienst, wenn z.B. ein Datumswert in falschem Format eingegeben wird. Werden mehrere Systeme verwendet, müssen die Konventionen angepasst werden, damit sie für alle einheitlich gelten. Eine länderübergreifende Nutzung, in Zeiten der Globalisierung die Regel, erfordert Ergänzungen der geltenden Zeitzone und Maßeinheiten. Die Daten in den verschiedenen Systemen müssen widerspruchsfrei sein, also konsistent sein. Dies wird erleichtert, wenn die Daten einzigartig sind: Dubletten blähen nicht nur den Datenbestand unnötig auf. Sie sorgen für Mehraufwand, bilden eine potenzielle Fehlerquelle und verursachen Verschwendung, die schwer zu eliminieren ist. Digitale Technologien wie künstliche Intelligenz verlangen zu den anderen Qualitätsmerkmalen eine möglichst hohe Genauigkeit. Diese bezieht sich nicht nur auf die Nachkomma-Stellen von Zahlenwerten, sondern etwa auch auf sprachlich präzise Textinformationen. Dann dürften digitale Assistenten und automatische Sprachübersetzer bald auch in der Automatisierungstechnik anzutreffen sein.

Datenqualität als Projektarbeit

Bisher wurde die Qualität von Stammdaten vor allem dann überprüft und angepasst, wenn die Konformität mit neuen oder fremden Systemen hergestellt werden musste. Bei Generationswechseln von ERP-Systemen etwa wurden entweder umfangreiche Projekte zur Strukturierung und Bereinigung der Stammdaten durchgeführt – oder die Datenbasis weitgehend neu angelegt. Die Verknüpfung von ERP- und PLM-Systemen erforderte Bemühungen zur Klassifizierung und Vereinheitlichung von Geometriedaten in 3D-Modellen und Zeichnungen sowie beschreibenden Daten. Schließlich bildeten Firmenübernahmen einen wichtigen Anlass, um die Stammdaten auf eine Verwendung in den Systemen der neuen Muttergesellschaft vorzubereiten. Der Aufwand, den diese anlassbezogenen Projekte für das gesamte Unternehmen bedeuten, bleibt trotz externer Beratung und leistungsfähiger Tools erheblich. Noch gravierender scheint aber, dass dieses projektbezogene Stammdaten-Management die Digitalisierungsbemühungen eines Unternehmens konterkarieren kann. Je mehr Daten Unternehmen aus externen Quellen beziehen, in unterschiedlichen Systemen verarbeiten und sie für die Steuerung von internen und externen Prozessen nutzen, umso wichtiger wird die Überprüfung der Datenqualität an verschiedenen Schnittstellen. Denn Fehler in in Konsistenz und Genauigkeit von Daten können unvorhersehbare Folgen haben.

(Bild: Simus Systems GmbH)

(Bild: Simus Systems GmbH)

Ständige Prüfung und Korrektur

Um diese Prüfarbeit zu automatisieren und an verschiedenen Punkten in der Unternehmens-IT einzurichten, wurde das Konzept der ‚Master Data Quality Gates‘ entwickelt. Statt anlassbezogener oder periodischer Maßnahmen zur Qualitätsverbesserung werden hierbei prozessrelevante Daten an verschiedenen Punkten permanent überprüft und nach Möglichkeit automatisch korrigiert. Nur wenn sie die Regeln und speziell definierten Kriterien erfüllen, gelangen sie in den Prozess. Die Idee dahinter stammt aus dem Projektmanagement. Dort lösen Quality Gates, die Projektfortschritte anhand zuvor festgelegter, qualitativer Kriterien messen, in analoger Weise die als Meilensteine gesetzten Termine ab. Der Projektfortschritt wird nicht mehr zeitlich definiert, sondern die Erfüllung qualitativer Aspekte leitet neue Phasen ein. Diese werden in verbindlichen Qualitätskriterien vor Beginn der Phasen festgelegt. Damit wird das Datenmanagement wesentlich flexibler: Die genauen Anforderungen an die Beschaffenheit der Daten sollten sich je nach Abteilung und Prozess einstellen lassen. Welche Kriterien müssen Arbeitspläne einhalten, wenn sie von der Arbeitsvorbereitung im ERP-System aufgebaut werden? Welche Informationen liefert welche Abteilung in welcher Form zu einem automatisierten Materialstamm-Anlageprozess? Jedes Unternehmen muss selbst bestimmen, mit welchem Fortschrittsstatus ein Datensatz an den nächsten Prozessschritt weitergegeben wird. Das Konzept der IT-basierten Quality Gates scheint geeignet, Qualitätsmängel von Stammdaten bei überschaubarem Aufwand in den Griff zu bekommen – mit Kontinuität und automatischen Korrekturmechanismen.


Das könnte Sie auch interessieren:

Das Institut für Schweißtechnik und Fügetechnik (ISF) der RWTH Aachen University untersucht im Sonderforschungsbereich 1120 'Präzision aus Schmelze' Einflüsse verschiedener Legierungselemente auf die Eigenspannungsverteilung. Um die Dehnung von Bauteilen zu untersuchen, wird sie mit in situ-Bildkorrelation beobachtet. Das Setup ist anspruchsvoll.‣ weiterlesen

Boston Micro Fabrication hat den 3D-Drucker MicroArch S240 vorgestellt: Bei einem Bauvolumen von 100x100x75mm ist er auf die Serienproduktion von Mikrobauteilen in Endqualität ausgelegt.‣ weiterlesen

Das Vertragsmanagement findet oft noch in Papierform statt. Dabei ermöglichen Lösungen für das Contract Lifecycle Management (CLM) längst eine digitale Abwicklung entlang der gesamten Wertschöpfungskette.‣ weiterlesen

Die deutschen Industrieunternehmen rechnen noch bis in das nächste Jahr mit Materialmangel. Im Schnitt gehen die Unternehmen laut einer Umfrage des Ifo Instituts von einem Zeitraum von zehn Monaten aus, bis sich die Lage wieder verbessert.‣ weiterlesen

Bordnetzhersteller können ihre spezifischen Anforderungen an Manufacturing-Execution-Systeme mit Branchenlösungen abbilden. Bei der Integration spart das viel Customizing und im Betrieb können Nutzer erwarten, dass Branchentrends besonders schnell im Standard landen.‣ weiterlesen

In einem offenen Brief haben sich IT-Forscher verschiedener Institutionen und Unternehmen an die Politik gewandt und fordern, Lösegeldzahlungen nach Ransomware-Angriffen zu unterbinden.‣ weiterlesen

Der Security-Spezialist Trend Micro gründet mit VicOne eine Tochtergesellschaft, die sich auf die Absicherung von Elektrofahrzeugen und vernetzten Fahrzeugen konzentrieren soll.‣ weiterlesen

Operationales Reporting hilft Firmen, Entscheidungen mit Echtzeitdatenanalysen zu beschleunigen und abzusichern. Angesichts der aktuellen Krisen gewinnt der Ansatz an Bedeutung. Die SAP-Software für diese Aufgabe heißt Embedded Analytics. Was kann dieses Tool und wie unterscheidet es sich von SAP BW?‣ weiterlesen

Mit der Übernahme von Empolis will ProAlpha sein ERP-Portfolio erweitern. Das Unternehmen aus Kaiserslautern bietet cloudbasierte und KI-gestützte Lösungen für die Analyse und Verarbeitung von Geschäftsprozess-relevanten Informationen an.‣ weiterlesen

Kleine und mittlere Unternehmen haben bei der Umsetzung von Big-Data-Projekten mit Problemen zu kämpfen. So geben in einer Studie des Cloud-Anbieters Ionos 55 Prozent der Befragten an, dass Daten nicht in ausreichender Form vorliegen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige