Anzeige
Anzeige
Anzeige
Beitrag drucken

Plattform für den Data Lake

Navigieren auf dem Datensee

Eine Methode zur Verwaltung großer Datenmengen ist das Anlegen eines Data Lakes. Dort liegen Rohdaten in ihrem ursprünglichen Format ab, statt sich auf verschiedene Silos im Unternehmen zu verteilen. Mit speziellen Plattformen für das Datenmanagement lassen sich diese Informationspools analysieren und der Umgang mit ihnen automatisieren. Viele Aufgaben der IT-Sicherheit und Compliance gehen so leichter von der Hand.

Plattform für den Data Lake - Navigieren auf dem Datensee

Bild: © NicoElNino / Fotolia.com

Immer mehr Unternehmen gehen dazu über, ihre stetig wachsenden Datenvolumen in großen Data Lakes abzulegen. Darin werden Rohdaten in ihrem Ausgangsformat gespeichert und erst abgerufen sowie in ein anderes Format umgewandelt, wenn sie tatsächlich benötigt werden. Dabei verfügt jedes Datenelement über ein einzigartiges Merkmal und ist durch einen Satz von Metadaten gekennzeichnet. Dieses Speicherkonzept bietet u.a. den Vorteil, dass es sich um eine flache Architektur handelt. In einem Data Warehouse, in dem Daten hierarchisch in Files und Folders abgespeichert werden, handelt es sich beim Data Lake um eine flache Architektur. Dadurch kann dieser eine nahezu unbegrenzte Menge an Informationen aufnehmen. Zudem lassen sich logische Zusammenhänge zwischen den Daten untereinander schneller erkennen und nutzen. Dies beschleunigt die Analyse großer Datenmengen deutlich.

Günstige Lagerkosten

Darüber hinaus ist im Data Lake die Aufbewahrung der Daten verglichen mit einem Data Warehouse kostengünstiger. Zudem können Data Lakes dazu beitragen, Informationssilos in Unternehmen aufzubrechen und über alle Abteilungen hinweg einen großen, einheitlichen Daten-Pool zur Verfügung zu stellen. So lassen sich Aufgaben auf dem Feld Business Analytics und Data Mining leichter umsetzen.

Automatisiert und orchestriert

Die daraus gewonnenen Erkenntnise sollen helfen, das Unternehmen strategisch auszurichten, Betriebskosten zu senken, den Kundenservice zu verbessern und Risiken zu minimieren – so erwarten es Datenexperten. Doch gerade im Hinblick auf neue Compliance-Vorschriften wie die europäische Datenschutzgrundverordnung (DSGVO) steigen die Anforderungen an den Umgang mit Data Lakes, der tendenziell zunehmend automatisiert und effizient orchestriert werden soll. Erschwert wird das, wenn die gespeicherten Informationen in einer heterogenen Infrastruktur bestehend aus On-premises-Systemen und öffentlichen sowie privaten Cloud-Instanzen verflochten sind.

Plattform für den Data Lake - Navigieren auf dem Datensee | Die anfallenden Daten aus den verschiedenen System sind erst dann nützlich, wenn sie den Weg zu den richtigen Geschäftsentscheidungen weisen.

Bild: © Raw pixel / Unsplash.com

Management-Plattform

Auf dem Markt verfügbare spezielle Datenmanagement-Plattformen helfen Anwender dabei, anfallende Daten – insbesondere auch unstrukturierte Daten – über Unternehmensbereiche hinweg zu analysieren, zu kennzeichnen und zu indexieren. In Bezug auf die DSGVO können Firmen mit solchen Plattformen zum Beispiel Kundennamen, E-Mail-Adressen, Anschriften, Telefonnummern oder Statuskommentare schnell und automatisiert auffinden sowie bereitstellen. Das funktioniert unabhängig vom Speicherort, also in lokalen On-premises-Systemen und angebundener Cloud-Infrastrukturen. Auf diese Weise können Informationen selbst in flachen Data-Lake-Architekturen lokalisiert werden.

Single-Source-of-Truth

Die Plattformen können auch für die Übertragung von Daten aus Rechenzentren in die Cloud und zurück sowie zwischen verschiedenen Cloud-Plattformen sorgen. Auch lassen sich Datenmanagement-Prozesse wie Backup, Recovery und Archivierung vergleichsweise einfach abwickeln und automatisieren. Im Sinne einer Single-Source-of-Truth stehen so die Daten eines Unternehmens einheitlich für Auswertungen zur Verfügung. Zudem lassen sich die Daten auf Applikationsebene vor Hacker-Angriffen durch Ransomware und andere Malware schützen. Ist ein Angreifer dennoch durchgekommen, helfen die Plattformen beim Disaster Recovery.

Fazit

Mit dem Einrichten eines Data Lakes lässt sich die im Rahmen der Digitalisierung anfallende Datenflut besser bewältigen. Unternehmen können damit eine Silo-basierte Datenhaltung auflösen. Datenmanagement-Lösungen helfen dabei, selbst große Datensammlungen zu analysieren. Solche Lösungen bieten Funktionen rund um Backup, Recovery und Archivierung, zuweilen auch mit Automatisierungswerkzeugen. Mit einem nach dem Single-Source-of-Truth-Prinzip vorgehaltenen Datenpool lassen sich zudem unterschiedliche Datenschutzbestimmungen wie die DSGVO einfacher einhalten.


Commvault-Plattform zum Datenmanagement setzt auf KI

Das IT-Unternehmen Commvault sieht als Anbieter einer Datenverwaltungsplattform großes Potenzial in den Bereichen künstliche Intelligenz, Machine Learning, maschinelle Sprachverarbeitung und mitdenkenden Suchfunktionen. Mit Lucidworks zusammen entwickelt das Unternehmen aktuell neue Lösungen auf Basis dieser Technologien. Ziel dabei ist es, KI-basierte Verfahren für bessere Datensicherungsprozesse zu nutzen. Unternehmen sollen so schneller nützliche Informationen aus ihren Datenbeständen extrahieren können. Und durch die Integration des Java-basierten Frameworks Apache Hadoop in die Commvault-Plattform können Firmen ihre Daten in entsprechenden Big-Data-Umgebungen effizient verwalten.


Das könnte Sie auch interessieren:

Siemens stellt das Vorstandsteam des Unternehmens zum Oktober neu auf. U.a. verabschiedet sich Digital Industries-CEO Klaus Helmrich in den Ruhestand.‣ weiterlesen

In der aktuellen Wirtschaftskrise rücken die industriellen Lieferketten in den Fokus. Dabei arbeiten die Unternehmen seit Jahren daran, mit Soft- und Hardware Transparenz und Effizienz in der Supply Chain herzustellen. Maximilian Brandl erläutert als neuer CEO des SCM-Spezialisten Salt Solutions, was das SAP Hana-Portfolio dabei leisten kann.‣ weiterlesen

Die durch Handelsstreitigkeiten und politische Verwerfungen geschwächte Weltkonjunktur wurde durch die Covid-19-Pandemie zusätzlich getroffen. Das zeigt sich auch am deutlichen Orderminus im Maschinen- und Anlagenbau.‣ weiterlesen

Die Ansätze für industrielle Instandhaltung sind mal mehr und mal weniger geeignet. Das Ziel dabei: Instandhaltungs- und Produktionspläne möglichst in Einklang zu bringen. Da kommt Adaptive Maintenance Scheduling ins Spiel.‣ weiterlesen

Aimtec hat die neue Produktgeneration Sappy4x4 auf den Markt gebracht hat. Sie ist auf SAP S/4Hana vorbereitet, soll aber weiterhin an die Anforderungen spezifischer Prozesse in Automobil- (SappyCar) oder Fertigungsunternehmen (SappyManufacturing) anpassbar bleiben.‣ weiterlesen

ERP-Projekte müssen keine Ewigkeit dauern. In nur sechs Wochen implementierte Sven Mahn IT ein Dynamics 365 von Microsoft als Minimum Viable Product bei der jungen Sanivac GmbH. Das ging nur, weil die Teams beider Firmen eng und mit agiler Methodik kooperierten.‣ weiterlesen

Mit Alexander Kläger hat SAP Deutschland seit dem 1. August einen neuen Geschäftsführer. Der 49-Jährige ist seit 2012 für den Software-Konzern tätig.‣ weiterlesen

Der Werkzeughersteller Perschmann hat die Lösung Smartblick zur Erfassung von Maschinen-Leistungsdaten auf den Markt gebracht.‣ weiterlesen

In der Associazione Liutaria Italiana haben sich Geigenbauer, Wissenschaftler und Musiker zusammengeschlossen, um historische Instrumente zu erhalten und um moderne Nachfolger zu entwickeln. Mit Siemens-Software untersuchen die Experten die Klangqualität antiker Streichinstrumente und geben Herstellern Tipps zur Verbesserung ihrer Produktion.‣ weiterlesen

Zum 30. Juni nächsten Jahres wird Finanzvorstand Harald Fuchs das Softwareunternehmen PSI verlassen.‣ weiterlesen

Der Technologieanbieter Abbyy hat kürzlich NeoML vorgestellt, eine Open-Source-Bibliothek für die Erstellung, das Trainieren und die Bereitstellung von Machine-Learning-Modellen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige