Anzeige
Anzeige
Anzeige
Beitrag drucken

Mit Data Warehouse zum datengesteuerten Unternehmen

Wie Datenmanagement Entscheidungen beschleunigt

Das Tempo, in dem sich Märkte und Rahmenbedingungen ändern, verzeiht langwierige oder ineffiziente Entscheidungsfindung immer weniger. Um zeitnah fundiert zu entscheiden, benötigen Mitarbeiter daher schnellen Zugriff auf relevante Daten. Ein Data Warehouse, dass Datenquellen zusammenführen und auswerten kann, stellt in Verbindung mit Self-Service-Analytics einen interessanten Lösungsansatz dar.

(Bild: ©Cybrain/stock.adobe.com)

(Bild: ©Cybrain/stock.adobe.com)

Unternehmen, die diesen Ansatz verfolgen und für die Entscheidungsfindung nutzen, nennen sich häufig data-driven, also zu deutsch etwa datengesteuert. Die Mitarbeiter wirken dann stets auf die Verbesserung eines konsistenten Satzes von Leistungskennzahlen hin, die das Unternehmen für sich als relevant identifiziert hat. Diesen Status zu erreichen, ist allerdings keine unerhebliche Aufgabe. Um sicherzustellen, dass keine Daten ungenutzt bleiben oder verloren gehen, können Unternehmen ihre Analysekapazitäten mit der Leistungsfähigkeit von Cloud-Lösungen untermauern.

Die Data-Management-Architektur

Durch die zunehmende Ansammlung von Daten sind viele ältere Ansätze zum Daten-Management obsolet geworden. Zum einen ist uneinheitliches und isoliert geführtes Data Management kostspielig und liefert aufgrund des erheblichen manuellen Aufwands und der benötigten spezialisierten Fachkräfte oft unvollständige Erkenntnisse. Zweitens hat der frühe Data-Lake-Ansatz, der das Data Warehouse durch Hadoop-Technologien der ersten Generation ersetzen sollte, seine eigenen Herausforderungen geschaffen. Die Benutzerakzeptanz war ein Problem, da die Toolsets in erster Linie auf technisches Personal ausgerichtet waren, das komplexe SQL-Abfragen von Hand erstellen konnte. Zudem fehlt eine gemeinsame semantische Schicht, die das Vertrauen in die Integrität der Daten stärken würde. Letztlich haben Unternehmen folgende Aufgaben zu bewältigen:

  • Sie müssen verschiedene Datenquellen und Anwendungsfälle handhaben, die für die Erstellung von Analysen nötig sind,
  • Datenmengen und Benutzerzahlen schnell und ohne höhere Betriebskosten für Hard- und Software an den eigenen Standorten skalieren,
  • schnell neue Erkenntnisse gewinnen, auf Basis ­komplexer Arbeitsabläufe und des Bedarfs an ­spezialisierten Ressourcen.

Daraus ergeben sich einige Anforderungen in Bezug auf die Data-Management-Architektur eines Unternehmens. Sie sollte streng auf geschäftliche Ziele hin ausgerichtet sein und soweit automatisiert ablaufen können, flexibel sein und eine große Menge Daten schnell und sicher verarbeiten können. Am Einsatz von Cloud-Technologie und KI- sowie Machine-Learning-Tools führen dabei immer weniger Wege vorbei.

Vereinheitlichung und Verwaltung

Um die zeitintensiven und komplexen Extract, Transform, Load (ETL)-Prozesse zur Vereinheitlichung relevanter Datenquellen zu bewältigen, sind Unternehmen auf Entwickler, Datenmodellierer und Dateningenieure angewiesen. Deren Aufgabe ist es, die Verfeinerung der vorhandenen Datengrundlage sowie die Erstellung einer Geschäfts- oder semantischen Schicht durchzuführen. Verbesserte Integration von Daten ermöglicht die automatische Erkennung von Beziehungen zwischen Datenelementen und vorgenommen Änderungen, die Verfeinerung von Daten und die Generierung einer semantischen Schicht, mit der Benutzer interagieren können. Um den nötigen Grad an Automatisierung zu erreichen, muss das System eine Reihe von Komponenten und Merkmalen aufweisen:

  • Gefordert sind Optionen für die Konnektivität von Quelldaten – etwa relationale Datenbankkonnektivität, unabhängig vom physischen Standort, Data-Lake-Konnektivität für strukturierte oder halbstrukturierte Daten sowie REST- (für Cloud-Anwendungen), Cube- (z.B. MDX und Essbase) und Dateikonnektivität (etwa Excel und CSV),
  • Fähigkeiten zur Datentransformation für verschiedene Anwenderprofile – etwa eine ETL-Benutzeroberfläche (UI) für IT-Entwickler zur Unterstützung bei der Erstellung von Unternehmensdatenmodellen sowie für Anwender im operativen Geschäft zur Unterstützung bei der Erstellung von Endnutzer-Daten-Mashups,
  • Support für zahlreiche Ansätze zur Verarbeitung von Daten, um diese aktuell zu halten – beispielsweise per Pass-Through-Konnektivität zu vorbereiteten Quelldaten zur Nutzung vorhandener Data Warehouses sowie zu transaktionalen Datenbankschemata für Echtzeit-Anwendungsfälle,
  • die Fähigkeit zu Data-Modeling: Automatisierte Erstellung eines Sternschema-Datenmodells auf der Grundlage von Quellmetadaten und Benutzeranpassungen,
  • physische, relational-analytische Datenspeicherung etwa für aufbereitete Daten, die in relationalen Datenbanken nach Industriestandard gespeichert sind (SQL-Server oder in der Cloud).

Solch eine erweiterte Datenintegration kann unterschiedliche Daten in einem Bruchteil der Zeit zusammenführen, die für herkömmliche Ansätze erforderlich ist. Gleichzeitig benötigt das System dabei noch die Menge an Ressourcen, unterschiedlichen Tools und Fähigkeiten, die für die Bereitstellung von Datenanalysen erforderlich sind.


Das könnte Sie auch interessieren:

Teile auf die Schnelle beim Dienstleister zu drucken, klingt zunächst nach einer Erleichterung. Doch das Knowhow in diesen Bauteilen muss geschützt sein. Damit beschäftigt sich das Forschungsprojekt ProCloud3D, an dem auch der Verschlüsselungsspezialist Wibu-Systems beteiligt ist.‣ weiterlesen

Hotellobbys, Produktionshallen oder Tiefkühlzonen von Lagerhäusern - überall dort reduzieren Luftschottanlagen den Wärme- und Stoffaustausch zwischen verschiedenen Bereichen. Arwus aus Chemnitz produziert diese Anlagen nach Kundenanforderung - und bringt mit ERP-Software von Delta Barth Transparenz in die Abläufe.‣ weiterlesen

Bei HeidelbergCement in Ennigerloh entsteht aus Rohmaterial Zementklinker, der dann zu Zement vermahlen wird. Nachdem die Leitstand zur Überwachung in die Jahre gekommen war, entschieden sich die Verantwortlichen für eine Neugestaltung. Jungmann Systemtechnik errichtete den Kontrollraum mit zwei ergonomischen Arbeitsplätzen und flexibel einsetzbarer Technik.‣ weiterlesen

Cyberangriffe nehmen zu – in Anzahl und auch Heftigkeit. Die Konsequenzen sind vielfältig und können im schlimmsten Fall sogar existenzbedrohend sein. Laut einer Untersuchung von Techconsult sehen sich jedoch lediglich 40 Prozent der DACH-Unternehmen gut gegen Cyberangriffe gerüstet.‣ weiterlesen

Mit Simulationssoftware können Hersteller und Systemintegratoren oft vielfältiges Optimierungspotenzial im Automatisierungssystem aufspüren - entlang ihrer gesamten Lebenszyklen. Die Tools helfen bei der Auslegung der Systeme, beschleunigen die Implementierung und unterstützen im laufenden Betrieb bei Verbesserungen sowie Umbauten.‣ weiterlesen

Mit einem kostenfreien Leisten-Konfigurator und einem 3D-Druck-Service verkürzt Protiq die Vorlaufzeit für die Maßanfertigung orthopädischer Schuhe auf wenige Tage. Dieser Anwendungsfall ließe sich leicht auf andere industrielle und handwerkliche Bereiche übertragen.‣ weiterlesen

Die HTC-Tochter G-Reigns kooperiert mit dem Netzwerkspezialisten Iconec. Im Fokus der Partnerschaft steht die Nutzung privater 5G-Netze bzw. deren Demonstration.‣ weiterlesen

Im Vergleich zum Vorjahresmonat verzeichneten die deutschen Maschinen- und Anlagenbauer einen Auftragsrückgang von 9 Prozent. Im ersten Halbjahr bleibt jedoch unterm Strich ein Auftragsplus.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige