Anzeige
Anzeige
Anzeige
Beitrag drucken

BIG DATA

Datenmanagement ist nicht gleich Datenqualität

Digitalisierung und Prozessautomatisierung haben in der Industrie dazu geführt, dass sich das Datenaufkommen in kürzester Zeit um ein Vielfaches erhöhte. Studien ergaben einen Anstieg der Datenmenge in den vergangenen 20 Jahren um das Zehnfache. Mit Blick auf 'Industrie 4.0' dürfte sich dieser Trend weiter fortsetzen. Dabei stellt der Umgang mit der Datenmenge die IT schon heute vor erhebliche Probleme.

Für sinnvolles Datenmanagement und die effiziente Verwaltung großer Informationsmengen werden sowohl intelligente Konzepte als auch neue Hard- und Softwarelösungen benötigt. In den letzten Jahren wurden verschiedene Ansätze präsentiert, darunter auch Cloud Computing und Cloud Working, die sich immer mehr etablieren. Derartige Lösungen zielen jedoch zunächst nur auf die Verwaltung ab und lassen ein wichtiges Kriterium für ein erfolgreiches Datenmanagement außer Acht: die Qualität der vorhandenen Daten. Wie stellen Unternehmen die Datenqualität sicher?

Je größer die in einem Unternehmen verarbeiteten Datenmengen werden, umso größer ist auch die Wahrscheinlichkeit, dass diese fehlerhaft sind. Die Ursachen für die Entstehung von Datenfehlern sind vielfältig: Menschliche Eingabefehler können ebenso verantwortlich für eine mangelhafte Qualität sein wie Programmfehler oder fehlerhaft weiterverarbeitete Ausgangsdaten. Auch die innerhalb der einzelnen Abteilungen oft differenten IT-Systeme, führen aufgrund unzureichender Schnittstellen häufig zu Redundanzen. Jene lassen sich nur mit erheblichem Aufwand bereinigen.

Folgen fehlerhafter Daten

Welche Folgen fehlerhafte Datenbestände haben, hängt von den betroffenen Daten selbst und den Fehlerarten ab. Sie lassen sich aber zumeist wie folgt kategorisieren: 1. prozessuale Folgen – ein oder mehrere Prozesse funktionieren aufgrund der vorhandenen Daten nicht mehr oder nur unzureichend. 2. wirtschaftliche Folgen – fehlerhafte Daten führen zu erhöhten Kosten beziehungsweise minimieren Gewinne. 3. Imagefolgen – fehlerhafte Daten können inner- und außerhalb des Unternehmens zu Imageschäden führen. Eine Kombination der Einzelfolgen ist dabei nicht nur möglich, sondern sehr wahrscheinlich.

Auch die auftretenden Fehlertypen selbst lassen sich kategorisieren. Überschneidungen der einzelnen Mängel sind auch hier eher die Regel als die Ausnahme. Aus den einzelnen Fehlertypen ergeben sich die Anforderungen an ein effizientes Datenmanagement: Aktualität: Die Datensätze müssen den aktuellen Sachverhalt widerspiegeln. Es ist nur eine eindeutige Interpretation der Daten, unabhängig vom Betrachter, zulässig. Zudem muss die Struktur aller Datensätze über alle Informationen einheitlich sein. Weiterhin sollte der erforderliche Exaktheitsgrad innerhalb der Informationen über alle Datensätze hinweg gewährleistet sein. Die historische Entwicklung des Datensatzes muss nachvollziehbar gewährleistet und in Hinblick auf die Konsistenz die Widerspruchsfreiheit in sich und im Verhältnis zu anderen Datensätzen sichergestellt sein. Der Wahrheitsgehalt der Daten muss beim Abgleich mit der Realität stimmen. Des Weiteren dürfen identische Datensätze nicht mehrfach vorkommen und sie müssen für das Unternehmen eine nachvollziehbare Relevanz aufweisen. Und zuletzt müssen alle Informationen und Attribute sorgfältig gepflegt sein.

Ganzheitliche Betrachtung

Um die Datenqualität langfristig zu erhöhen, bieten sich verschiedene Ansätze an. Die Praxis zeigt immer wieder, dass unabhängig von der favorisierten Methode eine ganzheitliche Betrachtung des Datenmanagements erfolgen sollte. Dazu gehören verschiedene grundlegende Maßnahmen, wie die Optimierung aller auf Daten und Datenhaltung bezogenen Prozesse, die Schaffung einer funktionalen und effizienten Infrastruktur, ebenso wie eine Sensibilisierung der Mitarbeiter in Bezug auf dieses Thema. Im Zuge der prozessualen Anpassung des Datenmanagements und der Implementierung neuer Werkzeuge und Methoden stellt sich häufig heraus, dass Korrekturen und Bereinigungsmaßnahmen innerhalb des aktuellen Datenbestandes unausweichlich sind, bildet dieser doch die Grundlage des künftigen Erfolgs.

Daten bereinigen mit System

In nahezu jedem größeren Unternehmen sind Unmengen von Daten vorhanden. Sind Auffälligkeiten in Bezug auf das Datenmanagement oder die Datenqualität feststellbar, lohnt oft eine intensive Analyse. Denn erfolgreiches Datenmanagement und Datenbereinigung bieten regelmäßig viele Chancen, Wettbewerbsvorteile zu erschließen. Zudem steigen mit zunehmender Datenmenge nicht nur deren Bedeutung für den Erfolg eines Unternehmens, sondern auch die Risiken, sie nicht mehr beherrschen zu können. Assecor hat für diese Aufgabe ein Konzept entwickelt, das eine Datenbereinigung auf Basis der Idee des Scrum-Frameworks in inkrementellen Schritten ermöglicht. Diese Herangehensweise erfolgt in kleinen und kleinsten transparenten Arbeitspaketen, wobei das Arbeitsergebnis regelmäßig überprüft und permanent qualitätsgesichert wird.


Das könnte Sie auch interessieren:

Der Mittelstand öffnet sich immer mehr den Themen Industrie 4.0 und Digitalisierung: Das geht aus einer Umfrage des Finanzdienstleisters Creditshelf unter rund 250 Finanzentscheidern aus mittelständischen Industrieunternehmen hervor. So haben in 2019 bereits 86 Prozent der befragten Unternehmen Echtzeit-Daten erfasst, um diese im Sinne einer Industrie 4.0 zu nutzen. Gegenüber 2017 ist das ein Anstieg um 9 Prozent.‣ weiterlesen

Im zweiten Teil unserer VDI-Serie zu autonomen Systemen und künstlicher Intelligenz geht es um die Frage, wie autonom unsere Systeme überhaupt sein sollen. Im Interview der Reihe spricht Dr. Eckhard Roos, Leiter Industry Segment Management Process Automation bei Festo, Mitglied des Vorstands der VDI/VDE-GMA, außerdem über den feinen Unterschied zwischen Autonomie und Automatisierung.‣ weiterlesen

Dr. Wolfgang Weber (Bild), Vice President Unternehmenskommunikation und Regierungsbeziehungen für die Region Europa, Naher Osten und Afrika bei BASF, wechselt als Vorsitzender der Geschäftsführung zum ZVEI.‣ weiterlesen

Transparente Entwicklungsprozesse, ein gemeinsames Systemverständnis und eine gute, vernetzte Zusammenarbeit intern und mit Marktteilnehmern liefern die Basis für eine erfolgreiche Produktentwicklung. Um den immer komplexeren Produkten Rechnung zu tragen, lassen sich dabei die Qualitätsmanagementprozesse direkt im PLM-System verankern.‣ weiterlesen

Gerade die Hersteller von Beförderungsanlagen wie Aufzügen und Rolltreppen nutzen das Internet der Dinge schon vergleichsweise lange. Bei der Wartung der Anlagen werden nun neben Sensoren auch Smartphones zu zentralen Werkzeugen für Servicetechniker.‣ weiterlesen

Der Verband AIM-D hat mit der OPC Foundation in 2016 einen Kommunikationsstandard für AutoID-Geräte herausgebracht. Daraufhin implementierten viele Hersteller diesen in ihre Hardware. Seither ist die Integration von AutoID-Applikation einfacher als je zuvor - und auch der Autobauer Volkswagen engagiert sich rund um den aktuell wohl spannendsten Kommunikationsstandard für die Industrie.‣ weiterlesen

Die Inbetriebnahme ist beim Anlagenbau für die Intralogistik der zentrale Punkt, gleich ob Neuplanung oder Retrofit. Sie soll schnell gehen und die Anlage sofort perfekt 'durchlaufen'. Die virtuelle Inbetriebnahme mit einem digitalen Anlagenzwilling ermöglicht es, das Automatisierungssystem vorab zu testen und Probleme zu lösen, bevor es richtig Geld kostet.‣ weiterlesen

Der Anstieg an vernetzten Geräten und Services könnte zukünftig dazu führen, dass IT-Umgebungen nicht mehr allein von Menschenhand gesteuert werden. Dies ist das Ergebnis des ‘2020 Global Networking Technology Report‘ von Cisco.‣ weiterlesen

Bei Predictive Maintenance werden mit datenbasierten Prognosemethoden Servicearbeiten an einer Maschine relativ präzise geplant, um ungeplanten Anlagenstillstand vorzubeugen. Diese Lösungen arbeiten meist cloudbasiert, werden aber immer häufiger von Edge-Computern im Werk vor Ort unterstützt.‣ weiterlesen

Anzeige
Anzeige
Anzeige