Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

BIG DATA

Datenmanagement ist nicht gleich Datenqualität

Digitalisierung und Prozessautomatisierung haben in der Industrie dazu geführt, dass sich das Datenaufkommen in kürzester Zeit um ein Vielfaches erhöhte. Studien ergaben einen Anstieg der Datenmenge in den vergangenen 20 Jahren um das Zehnfache. Mit Blick auf 'Industrie 4.0' dürfte sich dieser Trend weiter fortsetzen. Dabei stellt der Umgang mit der Datenmenge die IT schon heute vor erhebliche Probleme.

Für sinnvolles Datenmanagement und die effiziente Verwaltung großer Informationsmengen werden sowohl intelligente Konzepte als auch neue Hard- und Softwarelösungen benötigt. In den letzten Jahren wurden verschiedene Ansätze präsentiert, darunter auch Cloud Computing und Cloud Working, die sich immer mehr etablieren. Derartige Lösungen zielen jedoch zunächst nur auf die Verwaltung ab und lassen ein wichtiges Kriterium für ein erfolgreiches Datenmanagement außer Acht: die Qualität der vorhandenen Daten. Wie stellen Unternehmen die Datenqualität sicher?

Je größer die in einem Unternehmen verarbeiteten Datenmengen werden, umso größer ist auch die Wahrscheinlichkeit, dass diese fehlerhaft sind. Die Ursachen für die Entstehung von Datenfehlern sind vielfältig: Menschliche Eingabefehler können ebenso verantwortlich für eine mangelhafte Qualität sein wie Programmfehler oder fehlerhaft weiterverarbeitete Ausgangsdaten. Auch die innerhalb der einzelnen Abteilungen oft differenten IT-Systeme, führen aufgrund unzureichender Schnittstellen häufig zu Redundanzen. Jene lassen sich nur mit erheblichem Aufwand bereinigen.

Folgen fehlerhafter Daten

Welche Folgen fehlerhafte Datenbestände haben, hängt von den betroffenen Daten selbst und den Fehlerarten ab. Sie lassen sich aber zumeist wie folgt kategorisieren: 1. prozessuale Folgen – ein oder mehrere Prozesse funktionieren aufgrund der vorhandenen Daten nicht mehr oder nur unzureichend. 2. wirtschaftliche Folgen – fehlerhafte Daten führen zu erhöhten Kosten beziehungsweise minimieren Gewinne. 3. Imagefolgen – fehlerhafte Daten können inner- und außerhalb des Unternehmens zu Imageschäden führen. Eine Kombination der Einzelfolgen ist dabei nicht nur möglich, sondern sehr wahrscheinlich.

Auch die auftretenden Fehlertypen selbst lassen sich kategorisieren. Überschneidungen der einzelnen Mängel sind auch hier eher die Regel als die Ausnahme. Aus den einzelnen Fehlertypen ergeben sich die Anforderungen an ein effizientes Datenmanagement: Aktualität: Die Datensätze müssen den aktuellen Sachverhalt widerspiegeln. Es ist nur eine eindeutige Interpretation der Daten, unabhängig vom Betrachter, zulässig. Zudem muss die Struktur aller Datensätze über alle Informationen einheitlich sein. Weiterhin sollte der erforderliche Exaktheitsgrad innerhalb der Informationen über alle Datensätze hinweg gewährleistet sein. Die historische Entwicklung des Datensatzes muss nachvollziehbar gewährleistet und in Hinblick auf die Konsistenz die Widerspruchsfreiheit in sich und im Verhältnis zu anderen Datensätzen sichergestellt sein. Der Wahrheitsgehalt der Daten muss beim Abgleich mit der Realität stimmen. Des Weiteren dürfen identische Datensätze nicht mehrfach vorkommen und sie müssen für das Unternehmen eine nachvollziehbare Relevanz aufweisen. Und zuletzt müssen alle Informationen und Attribute sorgfältig gepflegt sein.

Ganzheitliche Betrachtung

Um die Datenqualität langfristig zu erhöhen, bieten sich verschiedene Ansätze an. Die Praxis zeigt immer wieder, dass unabhängig von der favorisierten Methode eine ganzheitliche Betrachtung des Datenmanagements erfolgen sollte. Dazu gehören verschiedene grundlegende Maßnahmen, wie die Optimierung aller auf Daten und Datenhaltung bezogenen Prozesse, die Schaffung einer funktionalen und effizienten Infrastruktur, ebenso wie eine Sensibilisierung der Mitarbeiter in Bezug auf dieses Thema. Im Zuge der prozessualen Anpassung des Datenmanagements und der Implementierung neuer Werkzeuge und Methoden stellt sich häufig heraus, dass Korrekturen und Bereinigungsmaßnahmen innerhalb des aktuellen Datenbestandes unausweichlich sind, bildet dieser doch die Grundlage des künftigen Erfolgs.

Daten bereinigen mit System

In nahezu jedem größeren Unternehmen sind Unmengen von Daten vorhanden. Sind Auffälligkeiten in Bezug auf das Datenmanagement oder die Datenqualität feststellbar, lohnt oft eine intensive Analyse. Denn erfolgreiches Datenmanagement und Datenbereinigung bieten regelmäßig viele Chancen, Wettbewerbsvorteile zu erschließen. Zudem steigen mit zunehmender Datenmenge nicht nur deren Bedeutung für den Erfolg eines Unternehmens, sondern auch die Risiken, sie nicht mehr beherrschen zu können. Assecor hat für diese Aufgabe ein Konzept entwickelt, das eine Datenbereinigung auf Basis der Idee des Scrum-Frameworks in inkrementellen Schritten ermöglicht. Diese Herangehensweise erfolgt in kleinen und kleinsten transparenten Arbeitspaketen, wobei das Arbeitsergebnis regelmäßig überprüft und permanent qualitätsgesichert wird.

google plus


Das könnte Sie auch interessieren:

Die Dalmec GmbH hat ihr Portfolio an pneumatischen Handhabungs-Manipulatoren mit modularem Aufbau auf den Einsatz in der Getränke und Lebensmittelindustrie eingerichtet.‣ weiterlesen

Um Produktionsdaten ihrer eigenen Schmiede für kontinuierliche Optimierungen digital zu erfassen, setzt Krenhof AG auf ein Gespann aus Industrie-PCs von Noax und einem Manufacturing Execution System von Proxia.‣ weiterlesen

Auch niederländische Produzenten haben sich auf den Weg zur vierten industriellen Revolution gemacht. Das Pendant zur Initiative 'Zukunftsprojekt Industrie 4.0' heißt dort Smart Industry.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige