Anzeige
Anzeige
Anzeige
Beitrag drucken

Artificial Intelligence of Things

Edge-Hardware für jede Phase des KI-Projekts

Immer häufiger sollen KI-Anwendungen Entscheidungen ‚on Edge‘ treffen. Die KI-Modelle dafür werden zwar noch in der Cloud trainiert, Datenerfassung und Interferenz sind aber problemlos vor Ort möglich. Dabei stellt jede Phase der KI-Implementierung andere Anforderungen an die Edge-Hardware.

Autonome Transportsysteme im Tagebau (Bild: Moxa Europe GmbH)

Autonome Transportsysteme im Tagebau (Bild: Moxa Europe GmbH)

Die Sensoren und Geräte etwa einer großen Ölraffinerie produzieren rund ein Terabyte Rohdaten pro Tag. Eine sofortige Rücksendung all dieser Rohdaten zur Speicherung oder Verarbeitung an eine öffentliche Cloud oder einen privaten Server würde beträchtliche Ressourcen an Bandbreite, Verfügbarkeit und Stromverbrauch erfordern. Gerade in hochgradig verteilten Anlagen ist es gar unmöglich, solche Datenmengen an einen zentralen Server zu senden, bereits wegen der Latenzzeiten bei der Datenübertragung und -analyse. Um diese Latenzzeiten zu verkürzen, die Kosten für die Datenkommunikation und -speicherung zu senken und die Netzwerkverfügbarkeit zu erhöhen, werden bei IIoT-Anwendungen zunehmend KI- und Machine-Learning-Fähigkeiten auf die Edge-Ebene des Netzwerks verlagert, was eine größere Vorverarbeitungsleistung direkt vor Ort erlaubt. Die Fortschritte bei der Verarbeitungsleistung von Edge-Computern machen das möglich.

Der passende Edge-Computer

Um eine KI in die IIoT-Anwendungen zu integrieren, muss das Training der Modelle weiterhin in der Cloud stattfinden. Doch letztlich müssen die trainierten Interferenz-Modelle im Feld eingesetzt werden. Mit Edge-Computing kann das Interferenz über die KI im Wesentlichen vor Ort durchgeführt werden, anstatt Rohdaten zur Verarbeitung und Analyse an die Cloud zu senden. Dafür muss eine zuverlässige Hardwareplattform auf Edge-Niveau bereit stehen, bei deren Auswahl folgende Faktoren eine wichtige Rolle spielen: die Verarbeitungsanforderungen für verschiedene Phasen der KI-Implementierung, die Edge-Computing-Ebenen, Entwicklungstools und die Umgebungsbedingungen.

ANZEIGE

Phasen der Implementierung

Da jede der drei nachfolgenden Phasen des Aufbaus einer KI-Edge-Computing-Anwendung unterschiedliche Algorithmen zur Ausführung verschiedener Aufgaben verwendet, gelten in jeder Phase eigene Verarbeitungsanforderungen.

Datenerfassung – Ziel dieser Phase ist es, große Mengen an Informationen zu sammeln, um das KI-Modell zu trainieren. Unverarbeitete Rohdaten allein sind jedoch nicht hilfreich, da die Informationen Dubletten, Fehler und Ausreißer enthalten könnten. Die Vorverarbeitung der erfassten Daten in der Anfangsphase zur Identifizierung von Mustern, Ausreißern und fehlenden Informationen ermöglicht außerdem das Korrigieren von Fehlern und systematischen Verzerrungen. Je nach Komplexität der erfassten Daten basieren die bei der Datenerfassung typischerweise verwendeten Computerplattformen meist auf Prozessoren der Serien Arm Cortex oder Intel Atom/Core. Im Allgemeinen sind die E/A- und CPU-Spezifikationen (und nicht die der GPU) wichtiger für die Durchführung von Datenerfassungsaufgaben.

Training – KI-Modelle müssen auf modernen neuronalen Netzen und ressourcenintensiven Machine-Learning- oder Deep-Learning-Algorithmen trainiert werden, die leistungsfähigere Verarbeitungsfunktionen etwa von GPUs erfordern. Deren Fähigkeiten bei der Parallelverarbeitung helfen, große Mengen von erfassten und vorverarbeiteten Trainingsdaten zu analysieren. Das Training eines KI-Modells beinhaltet die Auswahl eines Machine-Learning-Modells und dessen Training anhand der erfassten und vorverarbeiteten Daten. Während dieses Prozesses müssen auch die Parameter bewertet und entsprechend angepasst werden. Es stehen zahlreiche Trainingsmodelle und Tools zur Auswahl, darunter auch Deep-Learning-Entwicklungs-Frameworks nach Industriestandards wie PyTorch, TensorFlow und Caffe. Das Training wird üblicherweise auf dafür vorgesehenen KI-Trainingsmaschinen oder Cloud-Computing-Diensten wie den AWS Deep Learning AMIs, Amazon SageMaker Autopilot, Google Cloud AI oder Azure Machine Learning durchgeführt.

Interferenz – In der letzten Phase wird das trainierte KI-Modell auf dem Edge-Computer implementiert, damit es Schlussfolgerungen und Vorhersagen auf der Grundlage neu erfasster und vorverarbeiteter Daten treffen kann. Da die Inferencing-Phase im Allgemeinen weniger Datenverarbeitungsressourcen verbraucht als das Training, kann eine CPU oder ein leichter Beschleuniger für die betreffende AIoT-Anwendung reichen. Dennoch wird ein Konvertierungstool benötigt, um das trainierte Modell so umzuwandeln, dass es auf speziellen Edge-Prozessoren/Beschleunigern ausgeführt werden kann, etwa Intel OpenVino oder Nvidia Cuda. Interferenz umfasst auch mehrere verschiedene Edge-Computing-Ebenen und -Anforderungen, auf die im folgenden Abschnitt eingegangen wird.


Das könnte Sie auch interessieren:

Mit 84,3 Punkten ist der Ifo-Geschäftsklimaindex auf den tiefsten Stand seit Mai 2020 gefallen. Dabei betraf der Rückgang alle Wirtschaftsbereiche.‣ weiterlesen

Vom 18. bis zum 19 Oktober findet die In.Stand in Stuttgart statt. Fokusthemen der Fachmesse für Instandhaltung und Services sind in diesem Jahr Nachhaltigkeit und Sicherheit.‣ weiterlesen

Das DFKI und das Fraunhofer IML untersuchen in einem Forschungsprojekt, wie künstliche Intelligenz bei der Vergabe von Lehrstühlen und Institutsleitungen unterstützen kann. In der Folge soll ein Portal für Bewerber-Profile entstehen.‣ weiterlesen

Nachhaltigkeit wird oft von den Beteiligten eines Wertschöpfungsnetzwerkes erwartet - und sie kann sich als gewinn- und kostenrelevant darstellen. Um jene Unternehmen zu diesem Wandel zu befähigen, die über begrenzte Ressourcen verfügen, können diese Firmen Ökosysteme etwa mit Zulieferern, Vertragspartnern und Technik-Dienstleistern aufbauen, um kreative Lösungen zu erarbeiten.‣ weiterlesen

Motiviert von der Aussicht auf Effizienz im Produktionsprozess und damit verbundenen Kosten- sowie Wettbewerbsvorteilen, setzen immer mehr Unternehmen auf Technologien wie etwa Sensorik oder künstliche Intelligenz. Und oft fällt das Schlagwort ’Green Manufacturing’. Dabei schauen viele nur auf den unmittelbaren ökologischen und ökonomischen Nutzen. Was oft fehlt, ist die Berechnung der Gesamtbilanz dieser Digitalisierungsmaßnahmen und der Weitblick in Sachen Nachhaltigkeit.‣ weiterlesen

Mit Dimitrios Koutrouvis hat Lütze Transportation ab Oktober einen neuen Geschäftsführer. Er tritt die Nachfolge von André Kengerter an.‣ weiterlesen

Der Bitkom schätzt die Schäden durch Cyberangriffe auf jährlich 220Mrd.€. Unternehmen sind also gefragt, sich bestmöglich gegen solche Vorfälle zu schützen. Wie? Darüber können sich Interessierte vom 25. bis zum 27. Oktober auf der Security-Messe It-sa informieren.‣ weiterlesen

Low Code-Entwicklungsplattformen helfen Unternehmen, ihre IT an stetig wechselnde Strukturen und Prozesse anzupassen. Es gilt: Wo programmiert wird, kann meist Low Code-Technologie eingesetzt werden – erst recht im IIoT-Projekt.‣ weiterlesen

Planung und Überwachung sind entscheidende Faktoren für die Effzienz einer Produktion. Die Basis dafür bilden Daten. Daher setzt die Firma GGK in ihrer Fertigung auf die IIoT-Plattform Toii. Mit ihr erfasst der Hersteller von Kabelmanagement-Systemen alle relevanten Daten, um die Transparenz zu verbessern und etwa Störungen schneller zu beseitigen.‣ weiterlesen

Korrekte Stammdaten sind beim Wechsel auf SAP S/4Hana enorm wichtig. Drei Tools für das Product Structure Management helfen, die Engineering-Stückliste mit der Manufacturing-Stückliste automatisiert abzugleichen.‣ weiterlesen