Anzeige
Anzeige
Anzeige
Beitrag drucken

Mit Data Warehouse zum datengesteuerten Unternehmen

Wie Datenmanagement Entscheidungen beschleunigt

Das Tempo, in dem sich Märkte und Rahmenbedingungen ändern, verzeiht langwierige oder ineffiziente Entscheidungsfindung immer weniger. Um zeitnah fundiert zu entscheiden, benötigen Mitarbeiter daher schnellen Zugriff auf relevante Daten. Ein Data Warehouse, dass Datenquellen zusammenführen und auswerten kann, stellt in Verbindung mit Self-Service-Analytics einen interessanten Lösungsansatz dar.

(Bild: ©Cybrain/stock.adobe.com)

(Bild: ©Cybrain/stock.adobe.com)

Unternehmen, die diesen Ansatz verfolgen und für die Entscheidungsfindung nutzen, nennen sich häufig data-driven, also zu deutsch etwa datengesteuert. Die Mitarbeiter wirken dann stets auf die Verbesserung eines konsistenten Satzes von Leistungskennzahlen hin, die das Unternehmen für sich als relevant identifiziert hat. Diesen Status zu erreichen, ist allerdings keine unerhebliche Aufgabe. Um sicherzustellen, dass keine Daten ungenutzt bleiben oder verloren gehen, können Unternehmen ihre Analysekapazitäten mit der Leistungsfähigkeit von Cloud-Lösungen untermauern.

Die Data-Management-Architektur

Durch die zunehmende Ansammlung von Daten sind viele ältere Ansätze zum Daten-Management obsolet geworden. Zum einen ist uneinheitliches und isoliert geführtes Data Management kostspielig und liefert aufgrund des erheblichen manuellen Aufwands und der benötigten spezialisierten Fachkräfte oft unvollständige Erkenntnisse. Zweitens hat der frühe Data-Lake-Ansatz, der das Data Warehouse durch Hadoop-Technologien der ersten Generation ersetzen sollte, seine eigenen Herausforderungen geschaffen. Die Benutzerakzeptanz war ein Problem, da die Toolsets in erster Linie auf technisches Personal ausgerichtet waren, das komplexe SQL-Abfragen von Hand erstellen konnte. Zudem fehlt eine gemeinsame semantische Schicht, die das Vertrauen in die Integrität der Daten stärken würde. Letztlich haben Unternehmen folgende Aufgaben zu bewältigen:

  • Sie müssen verschiedene Datenquellen und Anwendungsfälle handhaben, die für die Erstellung von Analysen nötig sind,
  • Datenmengen und Benutzerzahlen schnell und ohne höhere Betriebskosten für Hard- und Software an den eigenen Standorten skalieren,
  • schnell neue Erkenntnisse gewinnen, auf Basis ­komplexer Arbeitsabläufe und des Bedarfs an ­spezialisierten Ressourcen.

Daraus ergeben sich einige Anforderungen in Bezug auf die Data-Management-Architektur eines Unternehmens. Sie sollte streng auf geschäftliche Ziele hin ausgerichtet sein und soweit automatisiert ablaufen können, flexibel sein und eine große Menge Daten schnell und sicher verarbeiten können. Am Einsatz von Cloud-Technologie und KI- sowie Machine-Learning-Tools führen dabei immer weniger Wege vorbei.

Vereinheitlichung und Verwaltung

Um die zeitintensiven und komplexen Extract, Transform, Load (ETL)-Prozesse zur Vereinheitlichung relevanter Datenquellen zu bewältigen, sind Unternehmen auf Entwickler, Datenmodellierer und Dateningenieure angewiesen. Deren Aufgabe ist es, die Verfeinerung der vorhandenen Datengrundlage sowie die Erstellung einer Geschäfts- oder semantischen Schicht durchzuführen. Verbesserte Integration von Daten ermöglicht die automatische Erkennung von Beziehungen zwischen Datenelementen und vorgenommen Änderungen, die Verfeinerung von Daten und die Generierung einer semantischen Schicht, mit der Benutzer interagieren können. Um den nötigen Grad an Automatisierung zu erreichen, muss das System eine Reihe von Komponenten und Merkmalen aufweisen:

  • Gefordert sind Optionen für die Konnektivität von Quelldaten – etwa relationale Datenbankkonnektivität, unabhängig vom physischen Standort, Data-Lake-Konnektivität für strukturierte oder halbstrukturierte Daten sowie REST- (für Cloud-Anwendungen), Cube- (z.B. MDX und Essbase) und Dateikonnektivität (etwa Excel und CSV),
  • Fähigkeiten zur Datentransformation für verschiedene Anwenderprofile – etwa eine ETL-Benutzeroberfläche (UI) für IT-Entwickler zur Unterstützung bei der Erstellung von Unternehmensdatenmodellen sowie für Anwender im operativen Geschäft zur Unterstützung bei der Erstellung von Endnutzer-Daten-Mashups,
  • Support für zahlreiche Ansätze zur Verarbeitung von Daten, um diese aktuell zu halten – beispielsweise per Pass-Through-Konnektivität zu vorbereiteten Quelldaten zur Nutzung vorhandener Data Warehouses sowie zu transaktionalen Datenbankschemata für Echtzeit-Anwendungsfälle,
  • die Fähigkeit zu Data-Modeling: Automatisierte Erstellung eines Sternschema-Datenmodells auf der Grundlage von Quellmetadaten und Benutzeranpassungen,
  • physische, relational-analytische Datenspeicherung etwa für aufbereitete Daten, die in relationalen Datenbanken nach Industriestandard gespeichert sind (SQL-Server oder in der Cloud).

Solch eine erweiterte Datenintegration kann unterschiedliche Daten in einem Bruchteil der Zeit zusammenführen, die für herkömmliche Ansätze erforderlich ist. Gleichzeitig benötigt das System dabei noch die Menge an Ressourcen, unterschiedlichen Tools und Fähigkeiten, die für die Bereitstellung von Datenanalysen erforderlich sind.


Das könnte Sie auch interessieren:

Siemens beendet das erste Halbjahr des laufenden Geschäftsjahres mit positiven Neuigkeiten. Umsatzerlöse und Gewinn legen kräftig zu.‣ weiterlesen

Insgesamt 8,2Mrd.€ hat der Maschinen- und Anlagenbau im Jahr 2019 für Forschung und Entwicklung ausgegeben. Auch in der Pandemie behalten F&E-Ausgaben einen hohen Stellenwert.‣ weiterlesen

Seit rund 100 Jahren steht die Automobilindustrie wie keine andere für die Fabrikarbeit am Fließband. Doch jetzt deutet sich eine Technologiewende an. Künftig könnten Fahrerlose Transportfahrzeuge Karosserien, Material und ganze Fahrzeuge durch die Fabrik bewegen. In mehreren Modellfabriken fahren die Automaten bereits durchs Werk.‣ weiterlesen

Immer mehr Anlagen sollen Betriebsdaten im IoT zur Bearbeitung bereitstellen. Mit dem Susietec-Portfolio will Kontron insbesondere den Aufbau von IoT-Lösungen für bestehende Anlagen unterstützen. Der Anbieter von IoT- und Embedded-Computing-Technologie rechnet für 2021 mit mehr als 50 Prozent Wachstum in diesem Geschäftsfeld.‣ weiterlesen

Im März haben die Bestellungen im Maschinen- und Anlagenbau im Vergleich zum Vorjahr deutlich zugelegt. Dabei kamen sowohl aus dem Aus- als auch aus dem Inland positive Signale.‣ weiterlesen

Vor wenigen Jahren galt MES-Software vielen noch als Spezialsoftware mit nur aufwendig erschließbarem Nutzen. Inzwischen ist sie fester Bestandteil der meisten prozessnahen IT-Architekturen in der Prozess- und gerade der Pharmaindustrie. Insbesondere wenn viele Systemfunktionen auf die Prozessführung nach ISA95 entfallen und chargenorientiert produziert wird.‣ weiterlesen

Automobilhersteller agieren bislang erfolgreich in ihren eher geschlossenen Wertschöpfungsketten. Sie verstehen den Markt als Nullsummenspiel. Unternehmen wie Apple haben vorgemacht, dass es auch anders geht: Von offenen Ökosystemen können alle profitieren. Wann öffnet sich die Automobilindustrie für diese Idee?‣ weiterlesen

Mit dem Wechsel von Kathleen Mitford zu Microsoft wird Catherine Kniker zur EVP (Executive Vice Presdient) und Chief Stategy Officer bei PTC ernannt.‣ weiterlesen

Gemeinsam mit CEO Peter Sorowka leitet Carsten Stiller seit 1. April das Softwareunternehmen Cybus. Er verantwortet die Bereiche Marketing und Vertrieb.‣ weiterlesen

Siemens Digital Industries bekommt einen neuen CTO. Dirk Didascalou soll zum 1. September neuer Technikchef werden.‣ weiterlesen

Die Wirtschaft blickt überwiegend optimistisch in die Zukunft: Knapp 40 Prozent der Unternehmen wollen laut der jüngsten Konjunkturumfrage des Instituts der deutschen Wirtschaft 2021 im Vergleich zu 2020 mehr produzieren.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige