Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Mit Data Warehouse zum datengesteuerten Unternehmen

Wie Datenmanagement Entscheidungen beschleunigt

Das Tempo, in dem sich Märkte und Rahmenbedingungen ändern, verzeiht langwierige oder ineffiziente Entscheidungsfindung immer weniger. Um zeitnah fundiert zu entscheiden, benötigen Mitarbeiter daher schnellen Zugriff auf relevante Daten. Ein Data Warehouse, dass Datenquellen zusammenführen und auswerten kann, stellt in Verbindung mit Self-Service-Analytics einen interessanten Lösungsansatz dar.

(Bild: ©Cybrain/stock.adobe.com)

(Bild: ©Cybrain/stock.adobe.com)

Unternehmen, die diesen Ansatz verfolgen und für die Entscheidungsfindung nutzen, nennen sich häufig data-driven, also zu deutsch etwa datengesteuert. Die Mitarbeiter wirken dann stets auf die Verbesserung eines konsistenten Satzes von Leistungskennzahlen hin, die das Unternehmen für sich als relevant identifiziert hat. Diesen Status zu erreichen, ist allerdings keine unerhebliche Aufgabe. Um sicherzustellen, dass keine Daten ungenutzt bleiben oder verloren gehen, können Unternehmen ihre Analysekapazitäten mit der Leistungsfähigkeit von Cloud-Lösungen untermauern.

Die Data-Management-Architektur

Durch die zunehmende Ansammlung von Daten sind viele ältere Ansätze zum Daten-Management obsolet geworden. Zum einen ist uneinheitliches und isoliert geführtes Data Management kostspielig und liefert aufgrund des erheblichen manuellen Aufwands und der benötigten spezialisierten Fachkräfte oft unvollständige Erkenntnisse. Zweitens hat der frühe Data-Lake-Ansatz, der das Data Warehouse durch Hadoop-Technologien der ersten Generation ersetzen sollte, seine eigenen Herausforderungen geschaffen. Die Benutzerakzeptanz war ein Problem, da die Toolsets in erster Linie auf technisches Personal ausgerichtet waren, das komplexe SQL-Abfragen von Hand erstellen konnte. Zudem fehlt eine gemeinsame semantische Schicht, die das Vertrauen in die Integrität der Daten stärken würde. Letztlich haben Unternehmen folgende Aufgaben zu bewältigen:

  • Sie müssen verschiedene Datenquellen und Anwendungsfälle handhaben, die für die Erstellung von Analysen nötig sind,
  • Datenmengen und Benutzerzahlen schnell und ohne höhere Betriebskosten für Hard- und Software an den eigenen Standorten skalieren,
  • schnell neue Erkenntnisse gewinnen, auf Basis ­komplexer Arbeitsabläufe und des Bedarfs an ­spezialisierten Ressourcen.

Daraus ergeben sich einige Anforderungen in Bezug auf die Data-Management-Architektur eines Unternehmens. Sie sollte streng auf geschäftliche Ziele hin ausgerichtet sein und soweit automatisiert ablaufen können, flexibel sein und eine große Menge Daten schnell und sicher verarbeiten können. Am Einsatz von Cloud-Technologie und KI- sowie Machine-Learning-Tools führen dabei immer weniger Wege vorbei.

Vereinheitlichung und Verwaltung

Um die zeitintensiven und komplexen Extract, Transform, Load (ETL)-Prozesse zur Vereinheitlichung relevanter Datenquellen zu bewältigen, sind Unternehmen auf Entwickler, Datenmodellierer und Dateningenieure angewiesen. Deren Aufgabe ist es, die Verfeinerung der vorhandenen Datengrundlage sowie die Erstellung einer Geschäfts- oder semantischen Schicht durchzuführen. Verbesserte Integration von Daten ermöglicht die automatische Erkennung von Beziehungen zwischen Datenelementen und vorgenommen Änderungen, die Verfeinerung von Daten und die Generierung einer semantischen Schicht, mit der Benutzer interagieren können. Um den nötigen Grad an Automatisierung zu erreichen, muss das System eine Reihe von Komponenten und Merkmalen aufweisen:

  • Gefordert sind Optionen für die Konnektivität von Quelldaten – etwa relationale Datenbankkonnektivität, unabhängig vom physischen Standort, Data-Lake-Konnektivität für strukturierte oder halbstrukturierte Daten sowie REST- (für Cloud-Anwendungen), Cube- (z.B. MDX und Essbase) und Dateikonnektivität (etwa Excel und CSV),
  • Fähigkeiten zur Datentransformation für verschiedene Anwenderprofile – etwa eine ETL-Benutzeroberfläche (UI) für IT-Entwickler zur Unterstützung bei der Erstellung von Unternehmensdatenmodellen sowie für Anwender im operativen Geschäft zur Unterstützung bei der Erstellung von Endnutzer-Daten-Mashups,
  • Support für zahlreiche Ansätze zur Verarbeitung von Daten, um diese aktuell zu halten – beispielsweise per Pass-Through-Konnektivität zu vorbereiteten Quelldaten zur Nutzung vorhandener Data Warehouses sowie zu transaktionalen Datenbankschemata für Echtzeit-Anwendungsfälle,
  • die Fähigkeit zu Data-Modeling: Automatisierte Erstellung eines Sternschema-Datenmodells auf der Grundlage von Quellmetadaten und Benutzeranpassungen,
  • physische, relational-analytische Datenspeicherung etwa für aufbereitete Daten, die in relationalen Datenbanken nach Industriestandard gespeichert sind (SQL-Server oder in der Cloud).

Solch eine erweiterte Datenintegration kann unterschiedliche Daten in einem Bruchteil der Zeit zusammenführen, die für herkömmliche Ansätze erforderlich ist. Gleichzeitig benötigt das System dabei noch die Menge an Ressourcen, unterschiedlichen Tools und Fähigkeiten, die für die Bereitstellung von Datenanalysen erforderlich sind.


Das könnte Sie auch interessieren:

Erfolgreiche KI-Projekte kombinieren das Domänenwissen von Prozessbeteiligten mit der Expertise von Datenanalysten und IT-Spezialistinnen. Da nicht jedes Maschinenbauunternehmen über diese drei wichtigen Kompetenzfelder verfügt, sind Kooperationen wichtige Bestandteile von KI-Projekten.‣ weiterlesen

Extreme Networks hat die Verfügbarkeit des Wi-Fi 6E Access Point bekanntgegeben. Als Wireless-Plattform erweitert der Zugangspunkt den Einsatzbereich auf das 6GHz-Frequenzband. Das Gerät wurde für Umgebungen mit hohen Anforderungen an Bandbreite und Nutzerdichte entwickelt und zeichnet sich Anbieterangaben zufolge durch seine Perfomance, Funktionalität und Sicherheit aus.‣ weiterlesen

Die Ersatzteilversorgung in der Automobilindustrie besitzt einen sehr kurzfristigen Charakter. Anwendungen zum Abbilden solcher Prozesse sind S/4Hana Supply Chain Management sowie S/4Hana-Automotive-Ersatzteilmanagement. Die wichtigen Zielgrößen für die Versorgungsqualität sind Lieferservicegrad und Time-to-Delivery.‣ weiterlesen

Im Cloud-Projekt Gaia-X entstehen Infrastruktur-Angebote, mit denen Hersteller digitale und vernetzte Produkte entwickeln können, ohne in Abhängigkeit zu Technologiekonzernen zu geraten. Die Strukturen dafür sind bereits etabliert. Jetzt ist es an den Produzenten, durch ihre Mitwirkung aus dem Projekt eine europäische Erfolgsgeschichte zu machen.‣ weiterlesen

Werma bietet ein neues Ruf- und Meldesystem zur Prozessoptimierung in Fertigung, Logistik und an manuellen Arbeitsplätzen an. Mit dem Andon WirelessSet lassen sich Probleme bei der Produktion per Knopfdruck melden, um die Behebung zu beschleunigen.‣ weiterlesen

Alle Werte einer Lieferkette im Blick zu behalten, ist eine Mammutaufgabe - können diese doch schnell in die Millionen gehen. Behälter mit benötigten Materialien müssen nicht mal verschwinden, schon der falsche Lagerplatz im Werk kann die Produktion ausbremsen. Tracker können dafür sorgen, dass nichts Wichtiges aus dem Blick gerät.‣ weiterlesen

Siemens und Zscaler arbeiten zusammen, um Kunden den sicheren Zugriff vom Arbeitsplatz im Büro oder mobil auf Operational-Technology(OT)-Systeme und -Anwendungen im Produktionsnetzwerk zu ermöglichen.‣ weiterlesen

Der österreichische Ableger von Bechtle hat Open Networks erworben. Die neuen Spezialisten bringen insbesondere Erfahrung in den Bereichen Application Services, Datacenter, Security und Netzwerk mit. Die Firma betreut rund 250 Kunden im Alpenstaat.‣ weiterlesen

Viele Konzepte etwa für Modern Workplaces und Digitalisierung hinterfragen Unternehmenskonzepte, die auf traditionelle Strukturen und Hierarchien setzen. Robert Lindner, Senior Regional Director & Country Manager Germany bei Red Hat, hat vier zentrale Grundsätze herausgearbeitet, wie sich Innovation befördern lässt, insbesondere als ein Unternehmen im Open-Sorce-Softwaremarkt.‣ weiterlesen

Panasonic hat sämtliche Unternehmensanteile des IT-Plattformanbieters Blue Yonder erworben. Der Kauf ist Teil der Konzern-Strategie, einzelne Geschäftsfelder zu stärken. Blue Yonder bewertet die Investition mit 8,5 Milliarden US-Dollar.‣ weiterlesen

Die Auftragsbücher im Maschinen- und Anlagenbau füllen sich, aber immer mehr Firmen verzeichnen Engpässe in ihren Lieferketten. Auch der Fachkräftemangel wird vermehrt zum Problem. Zu diesen Erkenntnissen kommt der VDMA nach einer seiner sogenannten Blitz-Umfragen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige