Anzeige
Anzeige
Anzeige
Beitrag drucken

100 Kilobyte pro Schraubvorgang

Vom Sensor in die Cloud

Durch die Verknüpfung von Maschinen und Objekten lassen sich Erkenntnisse gewinnen, welche die Wertschöpfungskette entscheidend verbessern können. Doch vorher muss geklärt werden, wie sich Daten im vernetzten Produktionsumfeld sicher gewinnen und sinnvoll auswerten lassen.

Bild: Bosch Pressebildarchiv

Daten sind der Rohstoff des 21. Jahrhunderts. Eine Herausforderung besteht darin, sie effektiv zu nutzbringenden Informationen zu verarbeiten. Laut einer Studie der EMC Corporation wird sich bis 2020 das Datenvolumen allein in Deutschland von 230 auf 1.100 Milliarden Gigabyte steigern. Für die deutsche Industrie liegt in der Anwendung der intelligenten Fabrik und der intelligenten Auswertung der daraus entstehenden Daten die Möglichkeit, ihren Produktionsstandort wettbewerbsfähiger zu halten. Die Analyse der Daten aus der Produktion, Instandhaltung, Logistik und anderen Bereichen entlang der Wertschöpfungskette kann dazu beitragen, die Prozesse der Fertigung effizienter zu gestalten. Darüber hinaus werden neue Geschäftsmodelle entstehen, die das Potential zur Erschließung neuer Märkte haben. Doch wie lassen sich diese große Datenvolumen und die vielen Informationen, die laufend produziert werden, verwalten und kontrollieren, damit aus Daten Wissen und aus Wissen Nutzen entsteht.

Lokal oder dezentral

Im Produktionsumfeld entstehen fortwährend Daten: Bei komplexen Abläufen, wie etwa einem Schraubvorgang, werden rund 100 Kilobyte an Daten generiert – bei einfachen Abläufen vielleicht jede Millisekunde nur wenige Bytes. Doch hochgerechnet auf eine Produktionslinie entstehen so schnell große Datenmengen. Diese Daten lassen sich von einer Software erfassen und zur Informationsgewinnung automatisiert analysieren. Dabei gibt es je nach Ort der Datenverarbeitung zwei unterschiedliche Ansätze:

  • Daten werden direkt an der Maschine weiterverarbeitet oder
  • in eine Cloud-Umgebung übermittelt.

Auch eine Kombination beider Ansätze kann sinnvoll sein. Entscheidend für die Wahl des Ansatzes ist der Zweck, den die Datengewinnung und -verarbeitung erfüllen soll. Eine maschinennahe Datenanalyse ist sinnvoll, wenn eine sehr große Datenmenge vorliegt und sich daraus nutzbare Erkenntnisse gewinnen lassen, auch ohne dass Informationen von anderen Maschinen, Objekten oder der Umgebung hinzugezogen werden. Betrachtet man zum Beispiel einen Temperatursensor, der jede Millisekunde einen Sensorwert bereitstellt, so ist eine maschinennahe Analyse sinnvoll, falls sichergestellt werden soll, dass die Temperatur nicht über einen bestimmten Schwellwert steigt.

Wird auf Basis der Analyse die Überschreitung des Schwellwerts erkannt, wird ein Event mit wesentlichen Informationen generiert und in die Cloud übertragen. Würden die einzelnen Sensorwerte über das Netzwerk in die Cloud weitergegeben werden, würde dies, auf das gesamte System gesehen, eine hohe Netzwerklast verursachen. Allerdings sind in diesem Fall die Daten zunächst nur lokal verfügbar und können nicht anderweitig genutzt werden. Die Sammlung der Sensorwerte in einer Datei und deren periodische Übermittlung an die Cloud könnte das Problem lösen. Eine zentrale Bereitstellung der Daten in der Cloud kommt in Frage, um Informationen durch die Analyse der Daten einer Maschinengruppe zu ermitteln oder wenn die Daten für andere Anwendungen relevant sind.


Das könnte Sie auch interessieren:

Das IT-Beratungs- und Softwarehaus Valantic partnert künftig mit Systema, einem eigentümergeführten Systemintegrator, der sich auf Softwarelösungen und Dienstleistungen zur MES-Integration, Fertigungsautomatisierung und Produktionsoptimierung spezialisiert hat.‣ weiterlesen

Wenn Lieferzahlen und Produktvarianz steigen, wächst auch das Kommunikationsaufkommen in den Netzwerken. Um solchen Flaschenhälsen vorzubeugen, hat Škoda auf eine cloudbasierte Netzwerklösung umgerüstet.‣ weiterlesen

Dokumentation ist ein wesentlicher Bestandteil jeder nachhaltigen Datenarchitektur. Entwickler-Teams vernachlässigen das oft aus praktischen Gründen, denn sie stehen unter enormen Termindruck und werden eher nach dem Code beurteilt, als danach, wie gut sie ihn dokumentieren.‣ weiterlesen

Künstliche Intelligenz auf Werksebene dient meist der Optimierung oder der Analyse komplexer Zusammenhänge. In der Produktionsplanung zum Beispiel können bessere Algorithmen, getragen von mehr Rechenleistung, heuristische Ansätze im Ergebnis deutlich übertreffen.‣ weiterlesen

Die Deutschen Industrieunternehmen wollen ihre Produktion ausweiten. Die gesteigerten Erwartungen verhelfen dem entsprechenden Indikator des Ifo Instituts zum höchsten Stand seit 1991.‣ weiterlesen

57 Prozent der Unternehmen aus der verarbeitenden Industrie gehen davon aus, gestärkt aus der Coronakrise hervorzugehen. Das geht aus einer Studie von Sopra Steria und dem F.A.Z.-Institut hervor. Um diese Position auch künftig behaupten zu können, wollen die Betriebe laut Studie die eigene Widerstandsfähigkeit als strategisches Thema verankern.‣ weiterlesen

Das sogenannte Wasserfall-Prinzip in der Software-Entwicklung kommt immer seltener zum Einsatz. Häufiger sind agile Methoden wie die ’Continuous Integration’, bei denen Software in kleinen Einheiten kontinuierlich erweitert und verbessert wird. Welche Vorteile dies für die Nutzer bringt, zeigt das Softwareunternehmen Sage.‣ weiterlesen

Neues Mitglied im MES D.A.CH: Der MES-Anbieter PSI Automotive & Industry ist dem Verband beigetreten.‣ weiterlesen

Edge Computing leistet in der Industrie so gute Dienste, dass es Fachleuten zufolge den Einsatz von Cloud Computing innerhalb eines Jahrzehnts übertreffen könnte. Ein Grund ist die Vielseitigkeit der Geräte. Passend konzipiert können sie in beinahe jeder Situation Rechenressourcen bereitstellen - in fast jedem erdenklichen Formfaktor.‣ weiterlesen

Siemens beendet das erste Halbjahr des laufenden Geschäftsjahres mit positiven Neuigkeiten. Umsatzerlöse und Gewinn legen kräftig zu.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige