Anzeige
Anzeige
Beitrag drucken

Klasse statt Masse

Die richtigen Daten bereitstellen

Nur weil Daten vorhanden sind, heißt das noch nicht, dass beispielsweise Fehler der Vergangenheit angehören. Es kommt auch darauf an, die Daten, die man zur Verfügung hat, in den richtigen Kontext zu setzen und sie aufzubereiten. Datenmanagement ist gefragt, die Spezialisten dazu noch mehr. Schade ist, dass einmal gefundene Data Scientists bis zu 76 Prozent ihrer Zeit für die Aufbereitung der Datenmengen aufwenden.

OSIsoft - Klasse statt Masse: Die richtigen Daten bereitstellen

Bild: OSIsoft Europe GmbH

Forscher der Lawrence Livermore National Laboratories (LLNL) beobachteten rasche Schwankungen der elektrischen Last von Sequoia, einem der weltweit leistungsstärksten Supercomputer. Sie standen vor einem Rätsel. Die Schwankungen waren enorm – die Leistung fiel von 9 MW auf wenige hundert Kw – und bescherten dem zuständigen Energieversorger erhebliche Koordinationsprobleme. Die Schwankungen traten vorzugsweise jede Woche zur gleichen Zeit auf. Durch die Untersuchung diverser Datenströme kam man der Ursache des Problems schließlich auf die Spur: die Schwankung hing mit der regulären Wartung der massiven Kühlanlage zusammen. Durch einen sanfteren Anlauf konnten die LLNL ihrem lokalen Stromversorger helfen.

Dieser Sachverhalt wirft ein häufig vernachlässigtes Problem mit Big Data auf. Analysetechniken und Maschinendaten haben großen Einfluss auf die globale Wirtschaft und eröffnen große Chancen für die Informationstechnologie. Marktforschungsinstitute wie A.T. Kearny and Bain gehen davon aus, dass die Umsätze für IoT-Hardware, -Software und -Services schon in wenigen Jahren mehr als 300 Milliarden US-Dollar ausmachen werden. Viele dieser Initiativen könnten jedoch ins Leere laufen, wenn es nicht gelingt, Systeme und Prozesse zu entwickeln, die Menschen den Zugang zu den ‚richtigen‘ Daten eröffnen – akkuraten, relevanten, verständlichen und zeitnahen Daten, die einerseits die notwendige Komplexität aufweisen, aber andererseits von Mitarbeitern und Partnern in der gesamten Wertschöpfungskette einfach zu verstehen sind.

Der richtige Kontext

Die relevanten Daten bereitzustellen bedeutet allerdings nicht nur, Fehler auszuschalten, Lücken zu füllen und redundante Informationen auszuschließen. Eine der größten Herausforderungen besteht darin, die Daten in den richtigen Kontext zu bringen und sie auf diese Weise brauchbar zu machen. Beim LLNL waren beispielsweise alle Daten vorhanden. Sie lagen aber nicht so vor, dass man aus der Datenfülle eine Antwort erhalten hätte können. Daten, die verloren gehen oder ein Schattendasein fristen, stellen ein großes Problem dar. McKinsey & Co. gehen beispielsweise davon aus, dass lediglich ein Prozent der Daten von den etwa 30.000 Sensoren an einer Ölplattform überhaupt gesichtet und für eine Entscheidungsfindung herangezogen werden.

Daten aufbereiten

Ein Tribut, den man für das Datenmanagement zu entrichten hat, ist ist der Zeitaufwand für die Aufbereitung. Data Scientists – die zu den begehrtesten und am häufigsten neu eingestellten Mitarbeitern der heutigen Arbeitswelt gehören – verbringen in der Regel 50 bis 80 Prozent ihrer Arbeitszeit als ‚Datenaufbereiter‘, 76 Prozent von ihnen sind der Meinung, dass dies der unattraktivste Teil ihrer Aufgabe sei. Spreadsheets, Textdateien und diverse andere Werkzeuge kommen dabei zum Einsatz.

Daten bereitstellen - Operationelle Intelligenz: Das PI-System von Osisoft erfasst, analysiert und visualisiert Zeitreihendaten aus unterschiedlichen Quellen zur Nutzung durch Anwender und Systemen in allen Betriebsbereichen. (Bild: OSIsoft Europe GmbH)

Bild: OSIsoft Europe GmbH

Zwei Petabyte am Tag

Eine der großen Hürden ist das Ausmaß der Aufgabe an sich. Das Internet of Things treibt die drei ‚V‘ von Big Data – Volume, Variety and Velocity – ins Extreme. Ein Smart Mining-Projekt kann durchaus zwei Petabyte an Daten in einer 16-Stunden-Schicht generieren. Daten von intelligenten Zählern – ein kritisches Element für die Überwachung des Energieverbrauchs und wichtig für die Verbreitung von Wind- und Solarenergie – könnten schon bald Netflix in den Schatten stellen. Systeme zur Vibrationsanalyse, die kleinste Änderungen in der Signalform auswerten, um vor möglichen Problemen zu warnen, können bis zu 400.000 Signale pro Sekunde aufnehmen.

Unterschiedliche Formate

Darüber hinaus wird die Datenvielfalt zur Herausforderung. Die Hersteller von Geräten implementieren ein breites Spektrum von Standards und Datenformaten, weit mehr als die IT-Industrie selbst. Beispielsweise könnte ein Windpark Daten von mehr als 300.000 Signalen oder Datenquellen aktiv akquirieren, die in unterschiedlichen Formaten ankommen. Einige dieser Abweichungen ist den restriktiven Betriebs- und Sicherheitsstandards geschuldet, ohne die es in vielen Branchen nicht geht. Auch das Alter der jeweiligen Anlagen spielt eine Rolle. Ein Teil der heute noch in der Stromerzeugung und in Raffinerien betriebenen Anlagen wurde vor Jahrzehnten installiert und nach Spezifikationen und Standards gebaut, die bereits weitgehend vom Markt verschwunden sind. Unternehmen müssen aber immer noch mit solchen Anlagen kommunizieren können. Jedes System, das man installiert, muss daher eine Vielzahl von ‚Dialekten‘ beherrschen.

Womit beginnnen?

Wie bei den meisten großen technologischen Initiativen sollten auch Unternehmen zunächst ihre Ziele festlegen. Wollen Sie ein aktuelles Problem wie ungeplante Ausfallzeiten angehen, entwickeln Sie neue Dienstleistungen oder wollen Sie Ihre Fertigungslinien mit prädiktiver Wartung und Diagnose ausstatten? Werden die Daten in Echtzeit benötigt, um die Qualität einer Chemieproduktion zu überwachen, oder sammeln Sie im Wesentlichen Daten, die mit anderen Quellen kombiniert und über mehrere Wochen oder Monate hinweg in der Cloud analysiert werden? Die Forderung nach minimalen Latenzzeiten wird signifikante Auswirkungen auf die Art und Weise haben, wie Unternehmen ihre Daten sammeln und auswerten.


Das könnte Sie auch interessieren:

Telefónica Tech erwirbt BE-terna und will damit seine Position als Technologie-Dienstleister stärken.‣ weiterlesen

Tim van Wasen tritt die Nachfolge von Stéphane Paté an und wird Geschäftsführer von Dell Technologies Deutschland.‣ weiterlesen

Überwachungssysteme, die vor Einbrüchen schützen sollen und sich per Smartphone-App steuern lassen, sollen die Nutzer in Sicherheit wiegen. Dass dieses Gefühl trügen kann, haben Studierende aus dem Studiengang Informatik an der Hochschule Emden/Leer im Rahmen eines Forschungsprojektes aufgedeckt.‣ weiterlesen

Das IT-Unternehmen Checkmarx hat das Tool Supply Chain Security vorgestellt. Das Programm zielt aber nicht auf die physische Lieferkette eines Produktionsunternehmens ab, sondern überwacht im Zusammenspiel mit Checkmarx Software Composition Analysis (SCA) den Health- und Security-Status von Open-Source-Projekten mit Blick auf mögliche Anomalien.‣ weiterlesen

Unternehmen haben bezüglich der Digitalisierung ihrer Qualitätsprozesse heute mehr Möglichkeiten denn je. Beim Blick auf klassische Produktionsunternehmen und deren Systemlandschaften kommen ERP- und CRM-Systeme, MES-Software und CAQ-Lösungen zum Vorschein, die durch offene Schnittstellenkonzepte wie OpenAPI in Summe wesentlich mehr Integrationsmöglichkeiten als früher mitbringen.‣ weiterlesen

Mit der weltgrößten Spaltrohrmotorpumpe mit Explosionsschutz konnte Hermetic-Pumpen für Aufsehen sorgen. Um bei der Entwicklung und Fertigung der Spezialpumpen erforderliche Normen und Vorgaben möglichst effizient umzusetzen, setzt der Hersteller aus Gundelfingen auf ein Integriertes Managementsystem.‣ weiterlesen

Mit einem Manufacturing Execution System (MES) können mittelständische Fertigungsbetriebe ihre Produktion digitalisieren und sie so auf komplexere Marktanforderungen ausrichten. Auf welche Funktionalitäten Fertiger achten sollten, zeigt der folgende Beitrag.‣ weiterlesen

Das Maschinenbauunternehmen Schenck Process hat die serverlose, modulare IoT-Plattform Coniq Cloud auf den Markt gebracht. Das System ist als IoT-Backbone für die eigenen Maschinen gedacht und bietet Anwendungsprogramme etwa zu Optimierung von Produktionszeiten und für Datenauswertungen.‣ weiterlesen

Komplexe Fertigung in Kombination mit hohem Termindruck führten beim Maschinenbauer Knoll dazu, dass lediglich 53 Prozent der Liefertermine zu halten waren. Nach der Einführung der PPS-Lösung von LF Consult liegt die Termintreue bei über 90 Prozent - bei kürzeren Durchlaufzeiten.‣ weiterlesen

Wenn sich am 30. Mai die Hallentore zum Flagschiff der Deutschen Messe öffnen, kann das als Startschuss für das postpandemische Messegeschehen gelten. Denn die Hannover Messe nimmt traditionell eine Sonderrolle unter den Industrieausstellungen ein. Grund dafür ist auch das hochkarätige Begleitprogramm, das diesmal mit 600 Vorträgen auf sechs Bühnen die Angebote der 2.500 Aussteller einrahmt.‣ weiterlesen

In diesem Jahr findet die Intralogistikmesse Logimat wieder in Präsenz statt. Und laut Veranstalter bewegen sich die Buchungen wieder auf Vor-Pandemie-Niveau. 1.500 Aussteller werden vom 31. Mai bis zum 2. Juni in Stuttgart erwartet.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige