Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

100 Kilobyte pro Schraubvorgang

Vom Sensor in die Cloud

Durch die Verknüpfung von Maschinen und Objekten lassen sich Erkenntnisse gewinnen, welche die Wertschöpfungskette entscheidend verbessern können. Doch vorher muss geklärt werden, wie sich Daten im vernetzten Produktionsumfeld sicher gewinnen und sinnvoll auswerten lassen.

Bild: Bosch Pressebildarchiv

Daten sind der Rohstoff des 21. Jahrhunderts. Eine Herausforderung besteht darin, sie effektiv zu nutzbringenden Informationen zu verarbeiten. Laut einer Studie der EMC Corporation wird sich bis 2020 das Datenvolumen allein in Deutschland von 230 auf 1.100 Milliarden Gigabyte steigern. Für die deutsche Industrie liegt in der Anwendung der intelligenten Fabrik und der intelligenten Auswertung der daraus entstehenden Daten die Möglichkeit, ihren Produktionsstandort wettbewerbsfähiger zu halten. Die Analyse der Daten aus der Produktion, Instandhaltung, Logistik und anderen Bereichen entlang der Wertschöpfungskette kann dazu beitragen, die Prozesse der Fertigung effizienter zu gestalten. Darüber hinaus werden neue Geschäftsmodelle entstehen, die das Potential zur Erschließung neuer Märkte haben. Doch wie lassen sich diese große Datenvolumen und die vielen Informationen, die laufend produziert werden, verwalten und kontrollieren, damit aus Daten Wissen und aus Wissen Nutzen entsteht.

Lokal oder dezentral

Im Produktionsumfeld entstehen fortwährend Daten: Bei komplexen Abläufen, wie etwa einem Schraubvorgang, werden rund 100 Kilobyte an Daten generiert – bei einfachen Abläufen vielleicht jede Millisekunde nur wenige Bytes. Doch hochgerechnet auf eine Produktionslinie entstehen so schnell große Datenmengen. Diese Daten lassen sich von einer Software erfassen und zur Informationsgewinnung automatisiert analysieren. Dabei gibt es je nach Ort der Datenverarbeitung zwei unterschiedliche Ansätze:

  • Daten werden direkt an der Maschine weiterverarbeitet oder
  • in eine Cloud-Umgebung übermittelt.

Auch eine Kombination beider Ansätze kann sinnvoll sein. Entscheidend für die Wahl des Ansatzes ist der Zweck, den die Datengewinnung und -verarbeitung erfüllen soll. Eine maschinennahe Datenanalyse ist sinnvoll, wenn eine sehr große Datenmenge vorliegt und sich daraus nutzbare Erkenntnisse gewinnen lassen, auch ohne dass Informationen von anderen Maschinen, Objekten oder der Umgebung hinzugezogen werden. Betrachtet man zum Beispiel einen Temperatursensor, der jede Millisekunde einen Sensorwert bereitstellt, so ist eine maschinennahe Analyse sinnvoll, falls sichergestellt werden soll, dass die Temperatur nicht über einen bestimmten Schwellwert steigt.

Wird auf Basis der Analyse die Überschreitung des Schwellwerts erkannt, wird ein Event mit wesentlichen Informationen generiert und in die Cloud übertragen. Würden die einzelnen Sensorwerte über das Netzwerk in die Cloud weitergegeben werden, würde dies, auf das gesamte System gesehen, eine hohe Netzwerklast verursachen. Allerdings sind in diesem Fall die Daten zunächst nur lokal verfügbar und können nicht anderweitig genutzt werden. Die Sammlung der Sensorwerte in einer Datei und deren periodische Übermittlung an die Cloud könnte das Problem lösen. Eine zentrale Bereitstellung der Daten in der Cloud kommt in Frage, um Informationen durch die Analyse der Daten einer Maschinengruppe zu ermitteln oder wenn die Daten für andere Anwendungen relevant sind.


Das könnte Sie auch interessieren:

Im Werkzeugmanagement eröffnet das Kennzeichnen von Assets mit Data Matrix Codes die Möglichkeit, Werkzeuge zu tracken und mit ihren Lebenslaufdaten zu verheiraten.‣ weiterlesen

Google Cloud gab kürzlich die Einführung der beiden Lösungen Manufacturing Data Engine und Manufacturing Connect bekannt. Mit den Tools lassen sich Assets einer Fertigungsumgebung vernetzen, Daten verarbeiten und standardisieren.‣ weiterlesen

Virtuelle multicloudfähige Plattformen können in Fertigungsbetrieben das Fundament bilden, um IT-Infrastruktur und Betriebsabläufe zu modernisieren und effizient zu betreiben. Denn das nahtlose Zusammenspiel von Cloud-Anwendungen, Softwarebereitstellung sowie Remote Work lassen sich mit digitalen Plattformen vergleichsweise einfach und global orchestrieren.‣ weiterlesen

Wibu-Systems ist Anwendungspartner im Projekt KoMiK. Im Mai wurde das Projekt abgeschlossen und der Karlsruher Lizensierungsspezialist hat zusammen mit den Projektpartnern aus Wirtschaft und Wissenschaft Empfehlungen zur Auswahl eines digitalen Kooperationssystems erarbeitet, inklusive eines Screening-Tools.‣ weiterlesen

MES-Lösungen verfügen über unterschiedliche Erweiterungsmodule, etwa für das Qualitätsmanagement. Der Ausbau der Basisfunktionen sorgt jedoch oft für Aufwand. Eine Alternative versprechen Cloudlösungen.‣ weiterlesen

Bei ihrer digitalen Transformation adaptieren Fertigungsunternehmen Technologien wie künstliche Intelligenz, Machine Learning und digitale Zwillinge. Cloud Computung hilft, dafür erforderliche Kapazitäten skaliert bereitzustellen.‣ weiterlesen

Mit mehreren neuen Partnern erweitert der Softwareanbieter ZetVisions sein Partnerangebot. Unter anderem sollen Pikon und People Consolidated das Beratungsangebot des Heidelberger Unternehmens ergänzen.‣ weiterlesen

Viele Deep-Learning- und Machine-Vision-Anwendungen stellen hohe Ansprüche an die eingesetzten Industrie-Rechner. Für den Einsatz in diesem Umfeld hat Hardware-Spezialist Spectra die PowerBox 4000AC C621A ins Programm genommen.‣ weiterlesen

Mit Hybrid Cloud-Lösungen wollen Firmen die Vorteile des privaten und öffentlichen Cloud-Betriebs erschließen. Managed Cloud Service Provider sind darin geschult, Fallstricke bei der Cloud-Nutzung solcher Infrastrukturen zu bewältigen.‣ weiterlesen

Per Low-Code-Tool können Anwender Prozesskonfigurationen selbst umsetzen. Im MES-Bereich ist dieser Ansatz noch selten zu finden, doch einige Lösungen gibt es bereits.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige