Anzeige
Anzeige
Anzeige
Beitrag drucken

Artificial Intelligence of Things

Edge-Hardware für jede Phase des KI-Projekts

Immer häufiger sollen KI-Anwendungen Entscheidungen ‚on Edge‘ treffen. Die KI-Modelle dafür werden zwar noch in der Cloud trainiert, Datenerfassung und Interferenz sind aber problemlos vor Ort möglich. Dabei stellt jede Phase der KI-Implementierung andere Anforderungen an die Edge-Hardware.

Autonome Transportsysteme im Tagebau (Bild: Moxa Europe GmbH)

Autonome Transportsysteme im Tagebau (Bild: Moxa Europe GmbH)

Die Sensoren und Geräte etwa einer großen Ölraffinerie produzieren rund ein Terabyte Rohdaten pro Tag. Eine sofortige Rücksendung all dieser Rohdaten zur Speicherung oder Verarbeitung an eine öffentliche Cloud oder einen privaten Server würde beträchtliche Ressourcen an Bandbreite, Verfügbarkeit und Stromverbrauch erfordern. Gerade in hochgradig verteilten Anlagen ist es gar unmöglich, solche Datenmengen an einen zentralen Server zu senden, bereits wegen der Latenzzeiten bei der Datenübertragung und -analyse. Um diese Latenzzeiten zu verkürzen, die Kosten für die Datenkommunikation und -speicherung zu senken und die Netzwerkverfügbarkeit zu erhöhen, werden bei IIoT-Anwendungen zunehmend KI- und Machine-Learning-Fähigkeiten auf die Edge-Ebene des Netzwerks verlagert, was eine größere Vorverarbeitungsleistung direkt vor Ort erlaubt. Die Fortschritte bei der Verarbeitungsleistung von Edge-Computern machen das möglich.

Der passende Edge-Computer

Um eine KI in die IIoT-Anwendungen zu integrieren, muss das Training der Modelle weiterhin in der Cloud stattfinden. Doch letztlich müssen die trainierten Interferenz-Modelle im Feld eingesetzt werden. Mit Edge-Computing kann das Interferenz über die KI im Wesentlichen vor Ort durchgeführt werden, anstatt Rohdaten zur Verarbeitung und Analyse an die Cloud zu senden. Dafür muss eine zuverlässige Hardwareplattform auf Edge-Niveau bereit stehen, bei deren Auswahl folgende Faktoren eine wichtige Rolle spielen: die Verarbeitungsanforderungen für verschiedene Phasen der KI-Implementierung, die Edge-Computing-Ebenen, Entwicklungstools und die Umgebungsbedingungen.

Phasen der Implementierung

Da jede der drei nachfolgenden Phasen des Aufbaus einer KI-Edge-Computing-Anwendung unterschiedliche Algorithmen zur Ausführung verschiedener Aufgaben verwendet, gelten in jeder Phase eigene Verarbeitungsanforderungen.

Datenerfassung – Ziel dieser Phase ist es, große Mengen an Informationen zu sammeln, um das KI-Modell zu trainieren. Unverarbeitete Rohdaten allein sind jedoch nicht hilfreich, da die Informationen Dubletten, Fehler und Ausreißer enthalten könnten. Die Vorverarbeitung der erfassten Daten in der Anfangsphase zur Identifizierung von Mustern, Ausreißern und fehlenden Informationen ermöglicht außerdem das Korrigieren von Fehlern und systematischen Verzerrungen. Je nach Komplexität der erfassten Daten basieren die bei der Datenerfassung typischerweise verwendeten Computerplattformen meist auf Prozessoren der Serien Arm Cortex oder Intel Atom/Core. Im Allgemeinen sind die E/A- und CPU-Spezifikationen (und nicht die der GPU) wichtiger für die Durchführung von Datenerfassungsaufgaben.

Training – KI-Modelle müssen auf modernen neuronalen Netzen und ressourcenintensiven Machine-Learning- oder Deep-Learning-Algorithmen trainiert werden, die leistungsfähigere Verarbeitungsfunktionen etwa von GPUs erfordern. Deren Fähigkeiten bei der Parallelverarbeitung helfen, große Mengen von erfassten und vorverarbeiteten Trainingsdaten zu analysieren. Das Training eines KI-Modells beinhaltet die Auswahl eines Machine-Learning-Modells und dessen Training anhand der erfassten und vorverarbeiteten Daten. Während dieses Prozesses müssen auch die Parameter bewertet und entsprechend angepasst werden. Es stehen zahlreiche Trainingsmodelle und Tools zur Auswahl, darunter auch Deep-Learning-Entwicklungs-Frameworks nach Industriestandards wie PyTorch, TensorFlow und Caffe. Das Training wird üblicherweise auf dafür vorgesehenen KI-Trainingsmaschinen oder Cloud-Computing-Diensten wie den AWS Deep Learning AMIs, Amazon SageMaker Autopilot, Google Cloud AI oder Azure Machine Learning durchgeführt.

Interferenz – In der letzten Phase wird das trainierte KI-Modell auf dem Edge-Computer implementiert, damit es Schlussfolgerungen und Vorhersagen auf der Grundlage neu erfasster und vorverarbeiteter Daten treffen kann. Da die Inferencing-Phase im Allgemeinen weniger Datenverarbeitungsressourcen verbraucht als das Training, kann eine CPU oder ein leichter Beschleuniger für die betreffende AIoT-Anwendung reichen. Dennoch wird ein Konvertierungstool benötigt, um das trainierte Modell so umzuwandeln, dass es auf speziellen Edge-Prozessoren/Beschleunigern ausgeführt werden kann, etwa Intel OpenVino oder Nvidia Cuda. Interferenz umfasst auch mehrere verschiedene Edge-Computing-Ebenen und -Anforderungen, auf die im folgenden Abschnitt eingegangen wird.


Das könnte Sie auch interessieren:

Mit ihren Systemen rund um Dämpfe, Gase und Ventile spielt die GEMÜ Gruppe weltweit in der ersten Reihe. Als digitaler Knotenpunkt dient das ERP-System PSIpenta. Dessen Module zur adaptiven Produktionsplanung- und Steuerung verhelfen dem Familienunternehmen über Werks- und Landesgrenzen hinweg zu fast hundertprozentiger Liefertermintreue.‣ weiterlesen

Aus dem Industrie-4.0-Barometer der Management- und IT-Beratung MHP geht hervor, dass sich die Position eines CIO in der Geschäftsführung positiv auf Umsetzung von Industrie-4.0-Ansätzen auswirkt.‣ weiterlesen

Durch die Pandemie und durch die Digitalisierung steigt der Innovationsdruck auf die deutsche Industrie. Wie die aktuelle CGI-Studie zeigt, können agile Unternehmen besser mit den damit verbundenen Herausforderungen umgehen.‣ weiterlesen

Das Internet der Dinge bringt physische und digitale Welten zunehmend zusammen. Schon längst geht es nicht mehr nur um die pure Vernetzung von Geräten, sondern um Systeme, die Menschen, digitale Lösungen und Objekte aus der realen Welt verknüpfen.‣ weiterlesen

Kooperationen mit Technologie-Startups bieten für etablierte Unternehmen Chancen, um die digitale Transformation zu bewältigen und wettbewerbsfähig zu bleiben. Doch selbst wenn große Organisationen schon mit jungen Firmen kooperieren, nutzen sie das Potenzial dieser Zusammenarbeit oft kaum aus.‣ weiterlesen

231.000 offene Stellen weniger als im vierten Quartal 2019 verzeichnet das Institut für Arbeitsmarkt und Berufsforschung in der aktuellen Stellenerhebung. Demnach ist die Zahl der offenen Stellen gegenüber dem dritten Quartal 2020 jedoch gestiegen.‣ weiterlesen

Die vermehrte Arbeit im Homeoffice reduziert die CO2-Emissionen, die beispielsweise durch Pendeln entstehen. Auf der anderen Seite steigt der Stromverbrauch zuhause. Wie dieser reduziert werden kann, zeigen Tipps der Fachgemeinschaft für effiziente Energieanwendung.‣ weiterlesen

Nach 90,3 Punkten im Januar ist der Ifo-Geschäftsklimaindex im Februar gestiegen. Die Unternehmen schätzen dabei nicht nur die aktuelle Lage besser ein sondern sind auch mit Blick auf die kommenden Monate weniger pessimistisch.‣ weiterlesen

Festo ist ein weltweit agierender Hersteller von pneumatischer und elektrischer Steuerungs- und Antriebstechnik. In der Produktentwicklung werden die Weichen gestellt, um dem hohen Innovationsdruck standzuhalten. Den Bau der Funktionsprototypen unterstützt der Zulieferer Facturee mit passgenauem Zuspiel von gespanten Einzelteilen.‣ weiterlesen

Die weltweite Corona-Krise hat auch zu hohen Exporteinbußen der Maschinen- und Anlagenbauer geführt. Im Jahr 2020 wurden aus Deutschland Maschinen und Anlagen im Wert von 160 Milliarden Euro exportiert und für 67 Milliarden Euro importiert.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige