Anzeige
Anzeige
Beitrag drucken

Mit Data Warehouse zum datengesteuerten Unternehmen

Wie Datenmanagement Entscheidungen beschleunigt

Das Tempo, in dem sich Märkte und Rahmenbedingungen ändern, verzeiht langwierige oder ineffiziente Entscheidungsfindung immer weniger. Um zeitnah fundiert zu entscheiden, benötigen Mitarbeiter daher schnellen Zugriff auf relevante Daten. Ein Data Warehouse, dass Datenquellen zusammenführen und auswerten kann, stellt in Verbindung mit Self-Service-Analytics einen interessanten Lösungsansatz dar.

(Bild: ©Cybrain/stock.adobe.com)

(Bild: ©Cybrain/stock.adobe.com)

Unternehmen, die diesen Ansatz verfolgen und für die Entscheidungsfindung nutzen, nennen sich häufig data-driven, also zu deutsch etwa datengesteuert. Die Mitarbeiter wirken dann stets auf die Verbesserung eines konsistenten Satzes von Leistungskennzahlen hin, die das Unternehmen für sich als relevant identifiziert hat. Diesen Status zu erreichen, ist allerdings keine unerhebliche Aufgabe. Um sicherzustellen, dass keine Daten ungenutzt bleiben oder verloren gehen, können Unternehmen ihre Analysekapazitäten mit der Leistungsfähigkeit von Cloud-Lösungen untermauern.

Die Data-Management-Architektur

Durch die zunehmende Ansammlung von Daten sind viele ältere Ansätze zum Daten-Management obsolet geworden. Zum einen ist uneinheitliches und isoliert geführtes Data Management kostspielig und liefert aufgrund des erheblichen manuellen Aufwands und der benötigten spezialisierten Fachkräfte oft unvollständige Erkenntnisse. Zweitens hat der frühe Data-Lake-Ansatz, der das Data Warehouse durch Hadoop-Technologien der ersten Generation ersetzen sollte, seine eigenen Herausforderungen geschaffen. Die Benutzerakzeptanz war ein Problem, da die Toolsets in erster Linie auf technisches Personal ausgerichtet waren, das komplexe SQL-Abfragen von Hand erstellen konnte. Zudem fehlt eine gemeinsame semantische Schicht, die das Vertrauen in die Integrität der Daten stärken würde. Letztlich haben Unternehmen folgende Aufgaben zu bewältigen:

  • Sie müssen verschiedene Datenquellen und Anwendungsfälle handhaben, die für die Erstellung von Analysen nötig sind,
  • Datenmengen und Benutzerzahlen schnell und ohne höhere Betriebskosten für Hard- und Software an den eigenen Standorten skalieren,
  • schnell neue Erkenntnisse gewinnen, auf Basis ­komplexer Arbeitsabläufe und des Bedarfs an ­spezialisierten Ressourcen.

Daraus ergeben sich einige Anforderungen in Bezug auf die Data-Management-Architektur eines Unternehmens. Sie sollte streng auf geschäftliche Ziele hin ausgerichtet sein und soweit automatisiert ablaufen können, flexibel sein und eine große Menge Daten schnell und sicher verarbeiten können. Am Einsatz von Cloud-Technologie und KI- sowie Machine-Learning-Tools führen dabei immer weniger Wege vorbei.

Vereinheitlichung und Verwaltung

Um die zeitintensiven und komplexen Extract, Transform, Load (ETL)-Prozesse zur Vereinheitlichung relevanter Datenquellen zu bewältigen, sind Unternehmen auf Entwickler, Datenmodellierer und Dateningenieure angewiesen. Deren Aufgabe ist es, die Verfeinerung der vorhandenen Datengrundlage sowie die Erstellung einer Geschäfts- oder semantischen Schicht durchzuführen. Verbesserte Integration von Daten ermöglicht die automatische Erkennung von Beziehungen zwischen Datenelementen und vorgenommen Änderungen, die Verfeinerung von Daten und die Generierung einer semantischen Schicht, mit der Benutzer interagieren können. Um den nötigen Grad an Automatisierung zu erreichen, muss das System eine Reihe von Komponenten und Merkmalen aufweisen:

  • Gefordert sind Optionen für die Konnektivität von Quelldaten – etwa relationale Datenbankkonnektivität, unabhängig vom physischen Standort, Data-Lake-Konnektivität für strukturierte oder halbstrukturierte Daten sowie REST- (für Cloud-Anwendungen), Cube- (z.B. MDX und Essbase) und Dateikonnektivität (etwa Excel und CSV),
  • Fähigkeiten zur Datentransformation für verschiedene Anwenderprofile – etwa eine ETL-Benutzeroberfläche (UI) für IT-Entwickler zur Unterstützung bei der Erstellung von Unternehmensdatenmodellen sowie für Anwender im operativen Geschäft zur Unterstützung bei der Erstellung von Endnutzer-Daten-Mashups,
  • Support für zahlreiche Ansätze zur Verarbeitung von Daten, um diese aktuell zu halten – beispielsweise per Pass-Through-Konnektivität zu vorbereiteten Quelldaten zur Nutzung vorhandener Data Warehouses sowie zu transaktionalen Datenbankschemata für Echtzeit-Anwendungsfälle,
  • die Fähigkeit zu Data-Modeling: Automatisierte Erstellung eines Sternschema-Datenmodells auf der Grundlage von Quellmetadaten und Benutzeranpassungen,
  • physische, relational-analytische Datenspeicherung etwa für aufbereitete Daten, die in relationalen Datenbanken nach Industriestandard gespeichert sind (SQL-Server oder in der Cloud).

Solch eine erweiterte Datenintegration kann unterschiedliche Daten in einem Bruchteil der Zeit zusammenführen, die für herkömmliche Ansätze erforderlich ist. Gleichzeitig benötigt das System dabei noch die Menge an Ressourcen, unterschiedlichen Tools und Fähigkeiten, die für die Bereitstellung von Datenanalysen erforderlich sind.


Das könnte Sie auch interessieren:

Ab und zu fehlte ein Schlüssel im Kloster der Franziskanerinnen der ewigen Anbetung von Schwäbisch Gmünd. Beim letzten Mal gab das den Impuls, anstatt neue mechanische Zylinder in die rund 220 Türen des Komplexes einzubauen, die alte Technik durch das Bluesmart-System von Winkhaus zu ersetzen.‣ weiterlesen

Mit 100,5 Punkten hält sich das IAB-Arbeitsmarktbarometer im November stabil und liegt weiter im leicht über der neutralen Marke. Auf europäischer Ebene sank der Frühindikator allerdings erneut.‣ weiterlesen

In einer neuen Expertise des Forschungsbeirats Industrie 4.0 untersuchen das FIR an der RWTH Aachen und das Industrie 4.0 Maturity Center den Status-quo und die aktuellen Herausforderungen der deutschen Industrie bei der Nutzung und wirtschaftlichen Verwertung von industriellen Daten und geben Handlungsempfehlungen für Unternehmen, Verbände, Politik und Wissenschaft.‣ weiterlesen

Im Forschungsprojekt FabOS soll eine KI-Bin-Picking-Anwendung entstehen, die ein verbessertes Erkennen, Greifen und definiertes Ablegen von Blechteilen in der Produktion ermöglicht.‣ weiterlesen

Die Digitalisierung des Qualitätsmanagements stellt Unternehmen vor Herausforderungen. Daher haben das Fraunhofer IPT und die FH Südwestfalen im Forschungsvorhaben 'Qbility - Quality 4.0 Capability Determination Model' ein datengetriebenes Reifegradmodell entwickelt, das die Anforderungen eines digitalisierten Qualitätsmanagements bei KMU adressiert.‣ weiterlesen

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) empfiehlt sicherheitsrelevante Patches und Updates so schnell wie möglich, unter Abwägung des jeweiligen Risikos, einzuspielen, auch wenn im professionellen und insbesondere industriellen Umfeld automatisierte Software-Updates mit unerwünschten Einschränkungen der Funktionalität - etwa durch einen Neustart des Systems - verbunden sein können.‣ weiterlesen

Im Gegensatz zu anderen Cyberangriffen bieten Attacken mit Ransomware auf den ersten Blick einen einfachen Ausweg: die Zahlung des geforderten Lösegelds.‣ weiterlesen

Nach 84,5 Punkten im Oktober kletterte der Ifo-Geschäftsklimaindex im November auf 86,3 Punkte. Die Unternehmen blicken demnach weniger pessimistisch auf die nächsten Monate.‣ weiterlesen

In Kombination mit einer Augmented-Reality-Brille bietet eine neue Software des Fraunhofer IGD digitale Unterstützung von Absortiervorgängen. Zusammengehörige Bauteile werden direkt im Sichtfeld der Beschäftigten an der Produktionslinie farblich überlagert. Anwender im Automotive-Bereich können so etwa durch beschleunigte Prozesse und eine minimierte Fehleranfälligkeit Kosten reduzieren.‣ weiterlesen

Edge Management, Digital Twin und Data Spaces bilden die Schwerpunkte einer Zusammenarbeit zwischen der Open Industry 4.0 Alliance und dem Labs Network Industrie 4.0.‣ weiterlesen