Mit Data Warehouse zum datengesteuerten Unternehmen

Wie Datenmanagement Entscheidungen beschleunigt

Das Tempo, in dem sich Märkte und Rahmenbedingungen ändern, verzeiht langwierige oder ineffiziente Entscheidungsfindung immer weniger. Um zeitnah fundiert zu entscheiden, benötigen Mitarbeiter daher schnellen Zugriff auf relevante Daten. Ein Data Warehouse, dass Datenquellen zusammenführen und auswerten kann, stellt in Verbindung mit Self-Service-Analytics einen interessanten Lösungsansatz dar.

(Bild: ©Cybrain/stock.adobe.com)
(Bild: ©Cybrain/stock.adobe.com)

Unternehmen, die diesen Ansatz verfolgen und für die Entscheidungsfindung nutzen, nennen sich häufig data-driven, also zu deutsch etwa datengesteuert. Die Mitarbeiter wirken dann stets auf die Verbesserung eines konsistenten Satzes von Leistungskennzahlen hin, die das Unternehmen für sich als relevant identifiziert hat. Diesen Status zu erreichen, ist allerdings keine unerhebliche Aufgabe. Um sicherzustellen, dass keine Daten ungenutzt bleiben oder verloren gehen, können Unternehmen ihre Analysekapazitäten mit der Leistungsfähigkeit von Cloud-Lösungen untermauern.

Die Data-Management-Architektur

Durch die zunehmende Ansammlung von Daten sind viele ältere Ansätze zum Daten-Management obsolet geworden. Zum einen ist uneinheitliches und isoliert geführtes Data Management kostspielig und liefert aufgrund des erheblichen manuellen Aufwands und der benötigten spezialisierten Fachkräfte oft unvollständige Erkenntnisse. Zweitens hat der frühe Data-Lake-Ansatz, der das Data Warehouse durch Hadoop-Technologien der ersten Generation ersetzen sollte, seine eigenen Herausforderungen geschaffen. Die Benutzerakzeptanz war ein Problem, da die Toolsets in erster Linie auf technisches Personal ausgerichtet waren, das komplexe SQL-Abfragen von Hand erstellen konnte. Zudem fehlt eine gemeinsame semantische Schicht, die das Vertrauen in die Integrität der Daten stärken würde. Letztlich haben Unternehmen folgende Aufgaben zu bewältigen:

  • Sie müssen verschiedene Datenquellen und Anwendungsfälle handhaben, die für die Erstellung von Analysen nötig sind,
  • Datenmengen und Benutzerzahlen schnell und ohne höhere Betriebskosten für Hard- und Software an den eigenen Standorten skalieren,
  • schnell neue Erkenntnisse gewinnen, auf Basis ­komplexer Arbeitsabläufe und des Bedarfs an ­spezialisierten Ressourcen.

Daraus ergeben sich einige Anforderungen in Bezug auf die Data-Management-Architektur eines Unternehmens. Sie sollte streng auf geschäftliche Ziele hin ausgerichtet sein und soweit automatisiert ablaufen können, flexibel sein und eine große Menge Daten schnell und sicher verarbeiten können. Am Einsatz von Cloud-Technologie und KI- sowie Machine-Learning-Tools führen dabei immer weniger Wege vorbei.

Vereinheitlichung und Verwaltung

Um die zeitintensiven und komplexen Extract, Transform, Load (ETL)-Prozesse zur Vereinheitlichung relevanter Datenquellen zu bewältigen, sind Unternehmen auf Entwickler, Datenmodellierer und Dateningenieure angewiesen. Deren Aufgabe ist es, die Verfeinerung der vorhandenen Datengrundlage sowie die Erstellung einer Geschäfts- oder semantischen Schicht durchzuführen. Verbesserte Integration von Daten ermöglicht die automatische Erkennung von Beziehungen zwischen Datenelementen und vorgenommen Änderungen, die Verfeinerung von Daten und die Generierung einer semantischen Schicht, mit der Benutzer interagieren können. Um den nötigen Grad an Automatisierung zu erreichen, muss das System eine Reihe von Komponenten und Merkmalen aufweisen:

  • Gefordert sind Optionen für die Konnektivität von Quelldaten – etwa relationale Datenbankkonnektivität, unabhängig vom physischen Standort, Data-Lake-Konnektivität für strukturierte oder halbstrukturierte Daten sowie REST- (für Cloud-Anwendungen), Cube- (z.B. MDX und Essbase) und Dateikonnektivität (etwa Excel und CSV),
  • Fähigkeiten zur Datentransformation für verschiedene Anwenderprofile – etwa eine ETL-Benutzeroberfläche (UI) für IT-Entwickler zur Unterstützung bei der Erstellung von Unternehmensdatenmodellen sowie für Anwender im operativen Geschäft zur Unterstützung bei der Erstellung von Endnutzer-Daten-Mashups,
  • Support für zahlreiche Ansätze zur Verarbeitung von Daten, um diese aktuell zu halten – beispielsweise per Pass-Through-Konnektivität zu vorbereiteten Quelldaten zur Nutzung vorhandener Data Warehouses sowie zu transaktionalen Datenbankschemata für Echtzeit-Anwendungsfälle,
  • die Fähigkeit zu Data-Modeling: Automatisierte Erstellung eines Sternschema-Datenmodells auf der Grundlage von Quellmetadaten und Benutzeranpassungen,
  • physische, relational-analytische Datenspeicherung etwa für aufbereitete Daten, die in relationalen Datenbanken nach Industriestandard gespeichert sind (SQL-Server oder in der Cloud).

Solch eine erweiterte Datenintegration kann unterschiedliche Daten in einem Bruchteil der Zeit zusammenführen, die für herkömmliche Ansätze erforderlich ist. Gleichzeitig benötigt das System dabei noch die Menge an Ressourcen, unterschiedlichen Tools und Fähigkeiten, die für die Bereitstellung von Datenanalysen erforderlich sind.