Anzeige
Anzeige
Beitrag drucken

Das Konzept der ‚Master Data Quality Gates‘

Tore zu besserer Stammdatenqualität

Das Konzept der ‚Master Data Quality Gates‘ soll in Unternehmen für stets korrekte Stammdaten sorgen. Im Kern werden dabei die Daten kontinuierlich und automatisch kontrolliert, statt etwa vor einem Softwareprojekt aus dieser Aufgabe jedes Mal ein Großprojekt zu machen.

Bild: ©Naeblys/stock.adobe.com

(Bild: ©Naeblys/stock.adobe.com)

Kaufleute und Ingenieure legen ähnliche Maßstäbe an die Qualität von Informationen an: Sie beginnen mit Aktualität, Richtigkeit und Vollständigkeit. Diese Kriterien gelten ohne Einschränkungen auch für Stammdaten, die wir in unsere digitalen Informationsspeicher laden, damit sie von Software-gesteuerten Prozessen weiterverarbeitet werden. Doch allein reichen diese Kriterien nicht aus: Nur eine Konformität der Daten mit spezifischen Regeln lässt eine maschinelle Verarbeitung zu. Einzelne Systeme verweigern den Dienst, wenn z.B. ein Datumswert in falschem Format eingegeben wird. Werden mehrere Systeme verwendet, müssen die Konventionen angepasst werden, damit sie für alle einheitlich gelten. Eine länderübergreifende Nutzung, in Zeiten der Globalisierung die Regel, erfordert Ergänzungen der geltenden Zeitzone und Maßeinheiten. Die Daten in den verschiedenen Systemen müssen widerspruchsfrei sein, also konsistent sein. Dies wird erleichtert, wenn die Daten einzigartig sind: Dubletten blähen nicht nur den Datenbestand unnötig auf. Sie sorgen für Mehraufwand, bilden eine potenzielle Fehlerquelle und verursachen Verschwendung, die schwer zu eliminieren ist. Digitale Technologien wie künstliche Intelligenz verlangen zu den anderen Qualitätsmerkmalen eine möglichst hohe Genauigkeit. Diese bezieht sich nicht nur auf die Nachkomma-Stellen von Zahlenwerten, sondern etwa auch auf sprachlich präzise Textinformationen. Dann dürften digitale Assistenten und automatische Sprachübersetzer bald auch in der Automatisierungstechnik anzutreffen sein.

Datenqualität als Projektarbeit

Bisher wurde die Qualität von Stammdaten vor allem dann überprüft und angepasst, wenn die Konformität mit neuen oder fremden Systemen hergestellt werden musste. Bei Generationswechseln von ERP-Systemen etwa wurden entweder umfangreiche Projekte zur Strukturierung und Bereinigung der Stammdaten durchgeführt – oder die Datenbasis weitgehend neu angelegt. Die Verknüpfung von ERP- und PLM-Systemen erforderte Bemühungen zur Klassifizierung und Vereinheitlichung von Geometriedaten in 3D-Modellen und Zeichnungen sowie beschreibenden Daten. Schließlich bildeten Firmenübernahmen einen wichtigen Anlass, um die Stammdaten auf eine Verwendung in den Systemen der neuen Muttergesellschaft vorzubereiten. Der Aufwand, den diese anlassbezogenen Projekte für das gesamte Unternehmen bedeuten, bleibt trotz externer Beratung und leistungsfähiger Tools erheblich. Noch gravierender scheint aber, dass dieses projektbezogene Stammdaten-Management die Digitalisierungsbemühungen eines Unternehmens konterkarieren kann. Je mehr Daten Unternehmen aus externen Quellen beziehen, in unterschiedlichen Systemen verarbeiten und sie für die Steuerung von internen und externen Prozessen nutzen, umso wichtiger wird die Überprüfung der Datenqualität an verschiedenen Schnittstellen. Denn Fehler in in Konsistenz und Genauigkeit von Daten können unvorhersehbare Folgen haben.

(Bild: Simus Systems GmbH)

(Bild: Simus Systems GmbH)

Ständige Prüfung und Korrektur

Um diese Prüfarbeit zu automatisieren und an verschiedenen Punkten in der Unternehmens-IT einzurichten, wurde das Konzept der ‚Master Data Quality Gates‘ entwickelt. Statt anlassbezogener oder periodischer Maßnahmen zur Qualitätsverbesserung werden hierbei prozessrelevante Daten an verschiedenen Punkten permanent überprüft und nach Möglichkeit automatisch korrigiert. Nur wenn sie die Regeln und speziell definierten Kriterien erfüllen, gelangen sie in den Prozess. Die Idee dahinter stammt aus dem Projektmanagement. Dort lösen Quality Gates, die Projektfortschritte anhand zuvor festgelegter, qualitativer Kriterien messen, in analoger Weise die als Meilensteine gesetzten Termine ab. Der Projektfortschritt wird nicht mehr zeitlich definiert, sondern die Erfüllung qualitativer Aspekte leitet neue Phasen ein. Diese werden in verbindlichen Qualitätskriterien vor Beginn der Phasen festgelegt. Damit wird das Datenmanagement wesentlich flexibler: Die genauen Anforderungen an die Beschaffenheit der Daten sollten sich je nach Abteilung und Prozess einstellen lassen. Welche Kriterien müssen Arbeitspläne einhalten, wenn sie von der Arbeitsvorbereitung im ERP-System aufgebaut werden? Welche Informationen liefert welche Abteilung in welcher Form zu einem automatisierten Materialstamm-Anlageprozess? Jedes Unternehmen muss selbst bestimmen, mit welchem Fortschrittsstatus ein Datensatz an den nächsten Prozessschritt weitergegeben wird. Das Konzept der IT-basierten Quality Gates scheint geeignet, Qualitätsmängel von Stammdaten bei überschaubarem Aufwand in den Griff zu bekommen – mit Kontinuität und automatischen Korrekturmechanismen.


Das könnte Sie auch interessieren:

Fast 80 Prozent der Maschinenbauer sehen die Notwendigkeit, bei digitalen Geschäftsmodellen zu kooperieren. Das hat der VDMA in einer Befragung mit McKinsey ermittelt. Auf großes Wachtumspotenzial deutet dabei hin, dass erst 0,7 Prozent der Umsätze in Europa mit digitalen Plattformen und Services erzielt werden.‣ weiterlesen

Verschlüsselungssoftware spielt auf dem Weg zu mehr Datenschutz eine wichtige Rolle, doch können Computersysteme auch auf physikalischem Wege angegriffen werden. Durch das Abfangen von Stromschwankungen oder das Auslösen von Fehlern durch elektromagnetische Impulse werden Geräte wie Smartphones und Schlüsselkarten angreifbar.‣ weiterlesen

Wissenschaftler vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA haben in Zusammenarbeit mit der Isoloc Schwingungstechnik GmbH eine Sensormatte für Steharbeitsplätze entwickelt. Sie erfasst die Fußposition eines Mitarbeiters und erkennt Gewichtsverlagerungen.‣ weiterlesen

Die Technologieinitiative SmartFactory KL feiert ihr 15-jähriges Bestehen. Heute beteiligen sich mehr als 50 Unternehmen und Wissenschaftseinrichtungen an der Initiative.‣ weiterlesen

ERP-Lösungen spielen eine zentrale Rolle in den Unternehmen und das tun sie gut. So die Erfahrungen von 2.089 Anwenderunternehmen aus dem deutschsprachigen Raum, die im Zuge der aktuellen Studie ‘ERP in der Praxis‘ durch die Analysten der Trovarit mittlerweile zum 10. Mal befragt wurden. Die Studie weist Zufriedenheitsbewertungen von mehr als 40 ERP-Lösungen aus.‣ weiterlesen

Die Anforderungen an die Produktionsplanung von Fertigungsbetrieben steigen stetig. Jetzt hat MPDV, Hersteller von Fertigungs-IT, eine Feinplanungslösung für das eigene MIP-Ökosystem vorgestellt. Die APS-Software baut auf langjährigen Erfahrungen mit der bewährten MES-Lösung Hydra auf und kann von einfachen Arbeitsgängen bis hin zu komplexen Fertigungsaufträgen planen und optimieren. Im Interview erläutern Thorsten Strebel, Vice President Products, und Jürgen Petzel, Vice President Sales, warum der Softwarehersteller gerade jetzt mit einer APS-Lösung an den Markt geht - und was Fedra zu bieten hat.‣ weiterlesen

Wird weniger Energie verbraucht, sinken Betriebskosten ohne Produktivitätsverlust. Gerade im Verteilzentrum könnte viel Sparpotenzial brach liegen. Denn dort haben technische Fortschritte die Leistung, aber auch den Energiebedarf, in die Höhe getrieben. Daher sind zuletzt viele Materialflusshersteller an ihre Reißbretter zurückgekehrt, um energiesparende Varianten ihrer Fahrzeuge, Kräne und Managementsysteme herzustellen.‣ weiterlesen

Hat das ERP-System einmal den Anschluss verpasst, muss nicht immer gleich etwas Neues her. Sasse Elektronik gelang mit seinem IT-Partner Cosmo Consult das Re-Engineering der Business-Anwendung. Der Lohn bestand in deutlich kürzeren Prozessen bei erheblich weniger Papier im Büro.‣ weiterlesen

Insbesondere Unternehmen der Fahrzeugbau- und Elektroindustrie besitzen großes Potenzial zur Reduzierung des Energieverbrauchs in ihrer Produktion. Daher haben die Technische Hochschule Mittelhessen (THM) und Limtronik als Mitglieder des SEF Smart Electronic Factory e.V. einen Use-Case entwickelt, in dem Wartungsintervalle eines energieintensiven Reflow-Ofen sensorgestützt optimiert werden.‣ weiterlesen

Edge Computing ist für die industrielle IT grundsätzlich nichts Neues. Seit Jahrzehnten werden Geräte und Monitore in der Produktion weit entfernt von zentralen Rechenzentren betrieben. Das aktuelle Revival des Begriffes ist auch technologischen Innovationen geschuldet, die Latenzen auf wenige Millisekunden senken.‣ weiterlesen

Auch durch Bewegungen wie Fridays for Future und extreme Wetterphänomene befassen sich Unternehmen intensiver mit dem ökologischen Wandel. Doch während Energieeffizienzprojekte bereits häufig betrieben werden, stehen die Möglichkeiten zum Materialsparen eher selten im Fokus. Dieser Artikel liefert Impulse entlang der Wertschöpfungskette, Ressourcen erst gar nicht zu verbrauchen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige