Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Klasse statt Masse

Die richtigen Daten bereitstellen

Nur weil Daten vorhanden sind, heißt das noch nicht, dass beispielsweise Fehler der Vergangenheit angehören. Es kommt auch darauf an, die Daten, die man zur Verfügung hat, in den richtigen Kontext zu setzen und sie aufzubereiten. Datenmanagement ist gefragt, die Spezialisten dazu noch mehr. Schade ist, dass einmal gefundene Data Scientists bis zu 76 Prozent ihrer Zeit für die Aufbereitung der Datenmengen aufwenden.

OSIsoft - Klasse statt Masse: Die richtigen Daten bereitstellen

Bild: OSIsoft Europe GmbH

Forscher der Lawrence Livermore National Laboratories (LLNL) beobachteten rasche Schwankungen der elektrischen Last von Sequoia, einem der weltweit leistungsstärksten Supercomputer. Sie standen vor einem Rätsel. Die Schwankungen waren enorm – die Leistung fiel von 9 MW auf wenige hundert Kw – und bescherten dem zuständigen Energieversorger erhebliche Koordinationsprobleme. Die Schwankungen traten vorzugsweise jede Woche zur gleichen Zeit auf. Durch die Untersuchung diverser Datenströme kam man der Ursache des Problems schließlich auf die Spur: die Schwankung hing mit der regulären Wartung der massiven Kühlanlage zusammen. Durch einen sanfteren Anlauf konnten die LLNL ihrem lokalen Stromversorger helfen.

Dieser Sachverhalt wirft ein häufig vernachlässigtes Problem mit Big Data auf. Analysetechniken und Maschinendaten haben großen Einfluss auf die globale Wirtschaft und eröffnen große Chancen für die Informationstechnologie. Marktforschungsinstitute wie A.T. Kearny and Bain gehen davon aus, dass die Umsätze für IoT-Hardware, -Software und -Services schon in wenigen Jahren mehr als 300 Milliarden US-Dollar ausmachen werden. Viele dieser Initiativen könnten jedoch ins Leere laufen, wenn es nicht gelingt, Systeme und Prozesse zu entwickeln, die Menschen den Zugang zu den ‚richtigen‘ Daten eröffnen – akkuraten, relevanten, verständlichen und zeitnahen Daten, die einerseits die notwendige Komplexität aufweisen, aber andererseits von Mitarbeitern und Partnern in der gesamten Wertschöpfungskette einfach zu verstehen sind.

Der richtige Kontext

Die relevanten Daten bereitzustellen bedeutet allerdings nicht nur, Fehler auszuschalten, Lücken zu füllen und redundante Informationen auszuschließen. Eine der größten Herausforderungen besteht darin, die Daten in den richtigen Kontext zu bringen und sie auf diese Weise brauchbar zu machen. Beim LLNL waren beispielsweise alle Daten vorhanden. Sie lagen aber nicht so vor, dass man aus der Datenfülle eine Antwort erhalten hätte können. Daten, die verloren gehen oder ein Schattendasein fristen, stellen ein großes Problem dar. McKinsey & Co. gehen beispielsweise davon aus, dass lediglich ein Prozent der Daten von den etwa 30.000 Sensoren an einer Ölplattform überhaupt gesichtet und für eine Entscheidungsfindung herangezogen werden.

Daten aufbereiten

Ein Tribut, den man für das Datenmanagement zu entrichten hat, ist ist der Zeitaufwand für die Aufbereitung. Data Scientists – die zu den begehrtesten und am häufigsten neu eingestellten Mitarbeitern der heutigen Arbeitswelt gehören – verbringen in der Regel 50 bis 80 Prozent ihrer Arbeitszeit als ‚Datenaufbereiter‘, 76 Prozent von ihnen sind der Meinung, dass dies der unattraktivste Teil ihrer Aufgabe sei. Spreadsheets, Textdateien und diverse andere Werkzeuge kommen dabei zum Einsatz.

Daten bereitstellen - Operationelle Intelligenz: Das PI-System von Osisoft erfasst, analysiert und visualisiert Zeitreihendaten aus unterschiedlichen Quellen zur Nutzung durch Anwender und Systemen in allen Betriebsbereichen. (Bild: OSIsoft Europe GmbH)

Bild: OSIsoft Europe GmbH

Zwei Petabyte am Tag

Eine der großen Hürden ist das Ausmaß der Aufgabe an sich. Das Internet of Things treibt die drei ‚V‘ von Big Data – Volume, Variety and Velocity – ins Extreme. Ein Smart Mining-Projekt kann durchaus zwei Petabyte an Daten in einer 16-Stunden-Schicht generieren. Daten von intelligenten Zählern – ein kritisches Element für die Überwachung des Energieverbrauchs und wichtig für die Verbreitung von Wind- und Solarenergie – könnten schon bald Netflix in den Schatten stellen. Systeme zur Vibrationsanalyse, die kleinste Änderungen in der Signalform auswerten, um vor möglichen Problemen zu warnen, können bis zu 400.000 Signale pro Sekunde aufnehmen.

Unterschiedliche Formate

Darüber hinaus wird die Datenvielfalt zur Herausforderung. Die Hersteller von Geräten implementieren ein breites Spektrum von Standards und Datenformaten, weit mehr als die IT-Industrie selbst. Beispielsweise könnte ein Windpark Daten von mehr als 300.000 Signalen oder Datenquellen aktiv akquirieren, die in unterschiedlichen Formaten ankommen. Einige dieser Abweichungen ist den restriktiven Betriebs- und Sicherheitsstandards geschuldet, ohne die es in vielen Branchen nicht geht. Auch das Alter der jeweiligen Anlagen spielt eine Rolle. Ein Teil der heute noch in der Stromerzeugung und in Raffinerien betriebenen Anlagen wurde vor Jahrzehnten installiert und nach Spezifikationen und Standards gebaut, die bereits weitgehend vom Markt verschwunden sind. Unternehmen müssen aber immer noch mit solchen Anlagen kommunizieren können. Jedes System, das man installiert, muss daher eine Vielzahl von ‚Dialekten‘ beherrschen.

Womit beginnnen?

Wie bei den meisten großen technologischen Initiativen sollten auch Unternehmen zunächst ihre Ziele festlegen. Wollen Sie ein aktuelles Problem wie ungeplante Ausfallzeiten angehen, entwickeln Sie neue Dienstleistungen oder wollen Sie Ihre Fertigungslinien mit prädiktiver Wartung und Diagnose ausstatten? Werden die Daten in Echtzeit benötigt, um die Qualität einer Chemieproduktion zu überwachen, oder sammeln Sie im Wesentlichen Daten, die mit anderen Quellen kombiniert und über mehrere Wochen oder Monate hinweg in der Cloud analysiert werden? Die Forderung nach minimalen Latenzzeiten wird signifikante Auswirkungen auf die Art und Weise haben, wie Unternehmen ihre Daten sammeln und auswerten.


Das könnte Sie auch interessieren:

Security Automation, Management digitaler Identitäten, Aufbau neuer Plattformen, Schutz vor Bedrohungen durch IoT-fähige Geräte und Einsatz von DevOps — laut einer Studie des IT-Dienstleisters Capgemini sind dies die Trends des IT-Jahres 2020.‣ weiterlesen

Yaskawa Europe betreibt 23 Standorte mit 110 Servicetechnikern in den Bereichen Antriebstechnik und Robotik. Um die Einsätze der Fachkräfte bestmöglich zu disponieren, hat der Mechatronik- und Robotikspezialist die europaweiten After Sales-Abläufe mit Servicemanagement-Software von MobileX vereinheitlicht.‣ weiterlesen

Seit 2018 verantwortet Michael Ruchty für den Veranstalter Euroexpo die Logimat in Stuttgart. Im Gespräch mit der IT&Production spricht Michael Ruchty über Messen als Informationsquelle und darüber, was die Logimat in diesem Jahr zu bieten hat.‣ weiterlesen

Der Anlagen- und Maschinenbau hat das Internet of Things ins Zentrum seiner branchenweiten digitalen Transformation gerückt. Firmen auf Partnersuche sollten jedoch beachten, dass sich die Herausforderungen von KMU und großen Unternehmen deutlich unterscheiden - und dies bei der Lösungswahl berücksichtigen.‣ weiterlesen

Das Projekt ‘Pricing digitaler Produkte‘, an dem u.a. das FIR an der RWTH Aachen beietiligt ist, befasst sich mit der Preisbildung für das Digitalgeschäft der produzierenden Industrie.‣ weiterlesen

Klassische Scada- und HMI-Systeme stoßen an ihre Grenzen, wenn Maschinen und Anlagen zunehmend über Tablets, Smartphones oder direkt von einem Browser aus überwacht und gesteuert werden sollen. Hier setzen HTML-basierte Lösungen an, besonders, wenn sich die mitgelieferten Designtools ohne Spezialwissen bedienen lassen.‣ weiterlesen

Der Automatisierungstreff in Böblingen widmet sich vom 24. bis zum 26. März mit seinem Workshopangebot und dem Marktplatz Industrie 4.0 der digitalen Transformation.‣ weiterlesen

Mit einer Beteiligung in Höhe von etwa 28 Prozent steigt die Hörmann Gruppe, u.a. Spezialist für Tore und Zutrittskontrollsysteme, beim IT-Consulter Orbis ein.‣ weiterlesen

Beim neuen Automatisierungssystem ctrlX Automation will Bosch Rexroth klassische Grenzen zwischen Steuerungstopologien, Antriebstechnik und IT aufheben: Steuerungsseitig kommt ein einziges CPU-Modul zum Einsatz, das erst in den verschiedenen Komponenten seine spezifische Funktionalität erhält - über das Software-Ökosystem. Dieses ist offen ausgelegt und stellt Features als Apps bereit. Was Anwender davon haben? Steffen Winkler von Bosch Rexroth hat es unserer Schwesterzeitschrift SPS-MAGAZIN erzählt.‣ weiterlesen

Microlauncher sind eine Alternative zu herkömmlichen Trägerraketen. Die mittelgroßen Transportsysteme können Nutzlasten bis 350kg befördern und sollen künftig kleine Satelliten in den Weltraum bringen. Forscher am Dresdner Fraunhofer-Institut für Werkstoff- und Strahltechnik IWS haben gemeinsam mit Raumfahrtexperten der TU Dresden ein additiv gefertigtes Raketentriebwerk mit Aerospike-Düse für Microlauncher entwickelt. Der skalierte Prototyp aus Metall soll 30 Prozent weniger Treibstoff als konventionelle Triebwerke verbrauchen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige