Anzeige
Anzeige
Beitrag drucken

Die Datenfabrik als Rahmen für KI-Projekte

Skalierbare Fabrik für Data Scientists

Die nächsten deutlichen Wettbewerbsvorteile könnten an jene Firmen gehen, die künstliche Intelligenz und maschinelles Lernen besser als andere auf ihre Ziele ausrichten. Im folgenden Beitrag geht es um die Infrastruktur, mit der Data Scientists besonders produktiv arbeiten.

Datenfabrik mit sechs Stationen: Ein Fabrik-Modell für KI und Maschinelles Lernen bietet Data Scientists die optimale Umgebung für eine erfolgreiche Arbeit. (Bild: Dell EMC)

Datenfabrik mit sechs Stationen: Ein Fabrik-Modell für KI und Maschinelles Lernen bietet Data Scientists die optimale Umgebung für eine erfolgreiche Arbeit. (Bild: Dell EMC)

Das Tempo der Digitalisierung nimmt zu. Wollen sich Unternehmen einen Wettbewerbsvorsprung verschaffen, sollten möglichst alle relevanten Datenquellen ausgewertet werden und in Erkenntnisse für neue Produkte und Services münden. Dabei helfen zunehmend Algorithmen des maschinellen Lernens. Nachdem diese entsprechend trainiert wurden, können sie in großen Datenmengen Zusammenhänge, Muster sowie Trends erkennen, aus denen sich handlungsrelevante Erkenntnisse ableiten lassen. Wie aber können Unternehmen ihre Lösungen zur Datenanalyse effizient skalieren? Eine Antwort auf diese Frage liefert das Modell einer „Datenfabrik“ mit quasi industrialisierten KI-Prozessen als optimierte Arbeitsumgebung für Data Scientists. Beim Aufbau dieses Modells sollten Unternehmen sechs Punkte beachten.

1. Potenzial ausloten von KI-Technologie

Lassen sich mit Hilfe von KI bestehende Tools und Prozesse verbessern? Oder würde der Einsatz von KI-Technologien sogar einen disruptiven Charakter haben und das eigene Geschäftsmodell massiv verändern? Frameworks und Tools rund um KI und Maschinelles Lernen entwickeln sich sehr schnell. Im ersten Schritt sollte daher die IT-Abteilung diese Technologien und Funktionen evaluieren und ihre Auswirkungen auf das Unternehmen und deren potenziellen Geschäftswert identifizieren. Diese grundsätzliche Bewertung der Technologie bildet die Basis für die Planung der nächsten Schritte. Sie erfolgen in enger Zusammenarbeit mit den einzelnen Geschäftsbereichen, für die der Einsatz der Technologie besonders relevant ist, oder mit einem Team, das für Business Development zuständig ist. Letzterer Ansatz verfolgt das Ziel, mit möglichst schlanken Prozessen neue Produkte bereitzustellen und Freiraum für Innovationen zu schaffen.

Prioritäten setzen: Kriterien für die Auswahl der KI-Projekte sind die Unternehmensstrategie, die aktuellen Ziele oder eine höhere Effizienz in den vorhandenen Geschäftsprozessen. (Bild: Dell EMC)

Prioritäten setzen: Kriterien für die Auswahl der KI-Projekte sind die Unternehmensstrategie, die aktuellen Ziele oder eine höhere Effizienz in den vorhandenen Geschäftsprozessen. (Bild: Dell EMC)

2. Prioritäten setzen

Mit KI und maschinellem Lernen finden Unternehmen Datenmuster, um etwa Produkte und Services zu erstellen und neue Märkte zu erschließen. Dafür benötigen die Data Scientists eine unterstützende Infrastruktur und die passenden Tools. Angesichts begrenzter Ressourcen müssen aber selbst große Unternehmen Prioritäten bei ihren Effizienz- und Geschäftsmodellprojekten setzen. Kriterien für die Auswahl der wichtigsten Vorhaben sind die Gesamtstrategie, die aktuellen Businessziele, der zu erwartende Nutzen sowie die Verfügbarkeit der erforderlichen Daten. Die Daten müssen in dieser Phase nicht unbedingt komplett und in ihrer endgültigen Form bereitstehen, es sollten aber genügend vorhanden sein, um wenigstens das Pilotprojekt zu starten.

3. Produktivität der Data Scientists steigern

Bei der KI-basierten Datenanalyse gibt es keine Standardlösung. Manche Projekte sind sehr datenintensiv, andere benötigen weniger Informationen. Teilweise benötigen die Datenspezialisten sehr viel Zeit für das Aufbereiten und Formatieren der Daten, während sie in anderen Projekten mit komplexen und rechenintensiven neuronalen Netzen arbeiten. Auch die eingesetzten Bibliotheken und Tools werden sich sehr wahrscheinlich unterscheiden und hängen zum Teil auch von den persönlichen Präferenzen der Data Scientists und den Einsatzgebieten ab. Unternehmen sollten den Datenwissenschaftlern diese Freiheiten lassen und auf eine Standardisierung der Tools weitgehend verzichten. Jeder von ihnen ist viel produktiver, wenn er in seiner eigenen, ihm vertrauten Umgebung arbeiten kann, die speziell auf seine Herausforderung zugeschnitten ist und seine bevorzugten Tools enthält.

Erfolgsmessung: Mit einer Business-Intelligence-Lösung prüfen die Firmen, ob die mit agilen Methoden entwickelte KI-Anwendung im produktiven Einsatz den erwarteten Mehrwert liefert. (Bild: Dell EMC)

Mit einer Business-Intelligence-Lösung prüfen die Firmen, ob die mit agilen Methoden entwickelte KI-Anwendung im produktiven Einsatz den erwarteten Mehrwert liefert. (Bild: Dell EMC)

4. Auf Datenqualität achten

Analog zur Produktion bei Automobilherstellern müssen Unternehmen auch in der Datenfabrik sicherstellen, dass die Supply Chain die richtigen Komponenten Just-in-Time bereitstellt, damit die Fertigung des Produkts unterbrechungsfrei ablaufen kann. Im vorliegenden Fall geht es um die Daten als Rohstoff; am Ende steht ein Datenprodukt oder ein Service. Damit die KI-basierte Analyse funktioniert, müssen die Daten ein sehr hohes Qualitätsniveau aufweisen. Dazu gehören Kriterien wie Korrektheit, Konsistenz, Vollständigkeit, Aktualität und Einheitlichkeit. Unternehmen sollten daher großes Augenmerk auf die Vorbereitung und Validierung der Daten legen, damit die Daten-Fertigungslinie nicht unterbrochen wird. Data Scientists setzen bei der Datenanalyse auf interne, freigegebene Daten sowie bei Bedarf auch auf externe Bestände, etwa aus der Marktforschung oder aus Social-Media-Kanälen. Die IT-Infrastruktur für all dies muss mit den unterschiedlichen Datenaufkommen skalieren und alles zuverlässig speichern können. Denn die Quell-Datensätze werden permanent integriert, bereinigt und angereichert, um die Leistung des Datenmodells für maschinelles Lernen zu verbessern. In traditionellen Umgebungen mit Direct Attached Storage führt dies häufig zu Einbußen bei der Geschwindigkeit und zusätzlichen Kosten, da die Daten für jeden Data Scientist und Anwendungsfall mehrfach repliziert werden. Modernere Ansätze wie hochskalierbarer Network Attached Storage (Scale-Out-NAS) oder Storage aus der Cloud bieten Snapshot-Technologien, die Replikate schnell erstellen, da nur die jeweils geänderten Daten Kapazität verbrauchen. Auch die Rechenleistung muss skalierbar sein. Hier sollten Unternehmen auf eine flexible, virtualisierte Infrastruktur und die dynamische Verwaltung von Ressourcen in einem Cloud-Betriebsmodell setzen, um die Rechenkapazität je nach Anforderung nach oben und unten skalieren zu können. Auf diese Weise können Unternehmen Lastspitzen abfedern und die Serverauslastung erheblich verbessern.

5. Schneller umsetzen mit agilen Methoden

In KI-Projekten soll in aller Regel auf Basis der Algorithmen und statistischen Methoden ein Modell beziehungsweise eine Applikation für ein bestimmtes Einsatzgebiet entstehen. Erweist sich das erstellte Datenmodell als überzeugend, müssen die Ergebnisse so in die Geschäftspraxis übertragen werden, dass sich ein quantifizierbarer Nutzen ergibt. Der Data Scientist bereitet dann das entsprechende Arbeitspaket (Backlog) mit den benötigten Eigenschaften, Funktionalitäten und den Anforderungen für die Entwickler vor, die mit agilen Methoden arbeiten. Das Entwickler-Team setzt sich in der Regel aus Datenarchitekten und Spezialisten für die agile Entwicklung zusammen. Um effizient arbeiten zu können, benötigen die Entwickler die passenden Ressourcen, Data-Science-Tools für das Erstellen der Scoring-Modelle (Nutzwertanalysen) sowie geeignete Entwicklungs- und Analyseumgebungen. Hier haben sich virtualisierte und cloudbasierte Infrastrukturlösungen bewährt. Gleiches gilt für die anschließenden Tests des neuen Datenprodukts, bevor es in die Produktionsumgebung übertragen wird.

6. Erfolg messen und Datenprodukt stetig verbessern

Ist die neue Lösung im Einsatz, verändert sie meist auch Geschäftsprozesse. Entsprechend wichtig ist es, die erzielten Ergebnisse zu erfassen, auszuwerten und zu überprüfen, ob diese den Erwartungen entsprechen oder ob es notwendig ist, das Datenmodell und die Methodik anzupassen. Dafür ergänzen die Entwickler eine bestehende Business-Intelligence-Lösung oder Echtzeit-Monitoring-Dashboards um neue Berichtsfunktionen. Wenn Unternehmen all diese Schritte umsetzen, können sie mithilfe von maschinellem Lernen und KI-Methoden Daten effizient und mit Mehrwert für ihr Geschäft einsetzen – und das Fundament für eine erfolgreiche Zukunft schaffen.


Das könnte Sie auch interessieren:

ERP-Lösungen spielen eine zentrale Rolle in den Unternehmen und das tun sie gut. So die Erfahrungen von 2.089 Anwenderunternehmen aus dem deutschsprachigen Raum, die im Zuge der aktuellen Studie ‘ERP in der Praxis‘ durch die Analysten der Trovarit mittlerweile zum 10. Mal befragt wurden. Die Studie weist Zufriedenheitsbewertungen von mehr als 40 ERP-Lösungen aus.‣ weiterlesen

Insbesondere Unternehmen der Fahrzeugbau- und Elektroindustrie besitzen großes Potenzial zur Reduzierung des Energieverbrauchs in ihrer Produktion. Daher haben die Technische Hochschule Mittelhessen (THM) und Limtronik als Mitglieder des SEF Smart Electronic Factory e.V. einen Use-Case entwickelt, in dem Wartungsintervalle eines energieintensiven Reflow-Ofen sensorgestützt optimiert werden.‣ weiterlesen

Edge Computing ist für die industrielle IT grundsätzlich nichts Neues. Seit Jahrzehnten werden Geräte und Monitore in der Produktion weit entfernt von zentralen Rechenzentren betrieben. Das aktuelle Revival des Begriffes ist auch technologischen Innovationen geschuldet, die Latenzen auf wenige Millisekunden senken.‣ weiterlesen

Auch durch Bewegungen wie Fridays for Future und extreme Wetterphänomene befassen sich Unternehmen intensiver mit dem ökologischen Wandel. Doch während Energieeffizienzprojekte bereits häufig betrieben werden, stehen die Möglichkeiten zum Materialsparen eher selten im Fokus. Dieser Artikel liefert Impulse entlang der Wertschöpfungskette, Ressourcen erst gar nicht zu verbrauchen.‣ weiterlesen

Mit Microsoft Dynamics 365 Online und einer CRM-Branchenlösung von Orbis hat Triflex den Grundstein zur Harmonisierung der IT-Landschaft und für durchgängige Datenflüsse und Prozesse im Vertrieb und im Marketing gelegt. Datenverwaltung in der Cloud schafft jetzt die Transparenz für effizienteren Vertrieb und zum Heben neuen Absatzpotenzials.‣ weiterlesen

Wenn Unternehmen Digitalisierungsprojekte angehen, tun sie dies oft mit einem externen Partner. Die Frage ist nur mit Welchem? IFS hat in einer Studie ermittelt, welche Faktoren bei der Auswahl eine Rolle spielen.‣ weiterlesen

Am Karlsruher Institut für Technologie (KIT) wird im neuen Forschungsbereich 'Nachhaltige Produktion' erarbeitet, wie Unternehmen ihre meist noch linearen Fertigungsprozesse in Richtung einer Kreislaufwirtschaft entwickeln können. Erste Projekte laufen bereits.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige