Anzeige
Anzeige
Anzeige
Beitrag drucken

Human Machine Interfaces im Wandel

Die neuen Rollen des Menschen

Hat der Mensch innerhalb der Industrie 4.0 auf dem Hallenboden noch ein Mitspracherecht? Definitiv ja, aber die Rolle des Menschen ist im Wandel. Menschen erteilen Maschinen keine Befehle mehr, sie kooperieren. Dies wird insbesondere getragen durch neue Möglichkeiten der Mensch-Maschine-Kommunikation auf Basis von Smart Mobile Devices.



Bild: Monkey Works GmbH

Wir befinden uns gegenwärtig inmitten der vierten industriellen Revolution. Was sich seit der Industrie 1.0 jedoch immer noch nicht geändert hat, ist die Art und Weise, wie wir Menschen mit Maschinen interagieren. Menschen erteilen Maschinen Befehle, die die Maschinen treu und ohne Widerworte umsetzen. Warum ist das so? Wie sollte die zukünftige Mensch-Maschine-Kommunikation aussehen und welche spannenden und nutzbringenden Szenarien verpassen wir, wenn wir die Mensch-Maschine-Kommunikation nicht ebenso revolutionieren?

Mensch und Maschine

Mit der Industrie 4.0 entstand die Vision von vollautomatischen, menschenleeren Produktionsstätten. Dass dies eher als Schnapsidee verstanden werden muss, zeigt spätestens die Gegenüberstellung der jeweiligen Stärken und Schwächen von Menschen und Maschinen. Dann wird deutlich, dass sich Menschen und Maschinen ideal ergänzen. Wo der eine schwach ist, ist die andere stark und umgekehrt. Um zu kooperieren und Entscheidungen gemeinsam zu treffen, müssen Menschen und Maschinen Informationen austauschen. Hierfür steht ein sogenanntes Human Machine Interface zur Verfügung. Das HMI von gestern war an der Maschine verbaut, unabhängig von den Ausmaßen der Maschine. Somit mussten die Menschen mitunter hunderte von Metern laufen, um sich benötigte Informationen zu beschaffen beziehungsweise um neue Vorgaben zu machen. Die Initiative ging dabei immer vom Menschen aus.

Impulse für den Wandel

Der Weg zur HMI 4.0 wurde maßgeblich durch Technologien aus dem Consumer-Markt und durch Unternehmen wie Google, IBM, Amazon und Apple vorbereitet. Nun stehen uns Big Data und Predictive Maintenance, das Internet of Things und Cloud Computing sowie Wearables mit iOS, Android, Siri & Co. zur Verfügung. Big Data macht Maschinen intelligenter, das Internet und die Cloud ermöglicht den uneingeschränkten Daten- und Informationsaustausch und die Wearables stellen sicher, dass die Informationen von der Maschine zum Menschen und vom Menschen zur Maschine kommen.

Die Schnittstelle am Mensch



Anwendung zur Darstellung von Wartungsszenarien auf der Basis von Wearables. Bild: Monkey Works GmbH

Wearables sind Computer, die während der Benutzung am Körper des Benutzers befestigt sind. Darunter zählen Smartwatches, Datenbrillen, Bewegungs- und Beschleunigungsmesser und – weniger streng genommen – auch Smart Devices wie Smartphones und Tablets, wenn sie ständig getragen werden und – so die Wikipedia-Definition – „die hauptsächliche Tätigkeit des Benutzers nicht die Benutzung des [Smart Devices] selbst, sondern eine durch das [Smart Device] unterstützte Tätigkeit in der realen Welt ist“. Wearables eignen sich insbesondere zur Unterstützung der Menschen bei der Abbildung von Wartungsszenarien. Hier ist ein Informationsaustausch zwischen Mensch und Maschine zwingend. Die Maschine meldet sich beim Menschen, wenn eine Wartungshandlung notwendig ist. Diese Meldung empfängt der Mensch als Push Notification auf seiner Smartwatch. Es vibriert, pocht oder piepst kurz auf dem Handgelenk, schon ist die gesamte Aufmerksamkeit auf die Meldung gelenkt.

Auf dem Smartphone werden dem Menschen weitere Informationen dargestellt, unter anderem eine Ersatzteilliste und benötigtes Werkzeug. Das Smartphone berechnet sogar die schnellste Route und führt den Menschen so genau zu der Stelle, wo das Ersatzteil verbaut werden muss. Jetzt wird eine Checkliste mit Handlungsanweisungen eingeblendet. Diese Liste ist mit aktuellen Prozessdaten angereichert. Außerdem wird die Checkliste direkt an die Smartwatch übertragen, sodass ein freihändiges Arbeiten möglich ist. Es ist aber noch weit mehr denkbar, zum Beispiel mit der Ortungsfunktion eines jeden Smartphones: Die Maschine stellt die Meldung an denjenigen zu, der in der Nähe ist. So ist ein schnelles Handeln möglich. Wird für die Auswahl des Empfängers auch dessen aktuelle Verfassung herangezogen (Smartwatches beispielsweise sind in der Lage die Vitalfunktionen des Trägers zu überwachen), dann erhält derjenige die Meldung, der über ausreichend Energie verfügt, um eine körperlich anstrengende Wartungsaufgabe durchzuführen. Dies führt zu einer ganz neuen Klasse von Anforderungen an die Mensch-Maschine-Kommunikation.

Feature oder Bedrohung?

Zur Realisierung der oben beschriebenen Use Cases und insbesondere der aufgezeigten Zukunftsszenarien müssen Menschen und Maschinen Entscheidungen auf Basis erhobener Daten treffen. Werden Sensordaten über einen langen Zeitraum erhoben und ausgewertet, dann sind mit diesen Daten Vorhersagen etwa über den Ausfall eines Bauteils möglich. Werden hingegen Daten vom Menschen erhoben, melden sich schnell der Betriebsrat und Datenschützer zu Wort. Zurecht, denn was auf der einen Seite Feature ist, ist auf der anderen Seite Bedrohung. Es muss von Beginn an Hand in Hand mit den jeweiligen Kontrollorganen gegangen und auch den Arbeitnehmern gegenüber höchstmögliche Transparenz gezeigt werden. Nur dann können Kompromisse ausgehandelt werden, die nicht innovationsbremsend sind und dennoch den Belangen der Arbeitnehmer gerecht werden.



Die integrierte HMI Suite von Monkey Works ermöglicht das Gestalten von mobilen Anwendungen ohne Programmierung. Bild: Monkey Works GmbH

Herausforderungen meistern

Ein solcher Kompromiss betrifft unter anderem den Datenschutz. „Über Profile hat der Arbeitnehmer selbst in der Hand, wann er erreichbar ist und ob zum gegenwärtigen Zeitpunkt eine Ortung möglich sein soll“, schlägt Dr. Michael Huelke als Lösung vor. Huelke ist Referatsleiter Neue Technologien – Mensch und Technik des Instituts für Arbeitsschutz der Deutschen Gesetzlichen Unfallversicherung. Arbeitnehmer bekommen die Möglichkeit, selbst zu entscheiden, wann sie sich in den Maschinenverbund einklinken. Dies erfordert jedoch entsprechende Datenkompetenz, wofür Unternehmen, Ausbildungsstätten, Bildungseinrichtungen et cetera stärker denn je gefragt sind. Denn nur mit einer gewissen Kompetenz und Sensibilisierung ist eine Kooperation von Mensch und Maschine möglich.

Auch auf der technischen Seite scheinen ungeahnte Herausforderungen bei der Realisierung zukünftiger HMI auf die Ingenieure zuzukommen. Die Vielzahl der neuen Geräte und Plattformen mit den unterschiedlichsten Software-Stacks und Programmiersprachen kann nur durch innovative Softwaretechnologien und Entwicklungswerkzeuge beherrscht werden. Die beschriebenen Use Cases sind komplett mit der integrierten HMI-Suite von Monkey Works realisiert worden.

google plus


Das könnte Sie auch interessieren:

Microsoft hat Azure IoT Edge kostenfrei auf Github zur Verfügung gestellt. Der Dienst ermöglicht das lokale Ausführen von Datenanalysen und künstlicher Intelligenz (z.B. mit Azure Cognitive Services oder Machine Learning) in Geräten, Maschinen und Anlagen ohne dauerhafte Cloud-Konnektivität sowie die Übertragung dieser Daten in die Cloud für genauere Analysen. ‣ weiterlesen

Um Verwaltungsaufgaben schneller abzuwickeln, heißt es: Erst vereinfachen, dann automatisieren. Digitale Werkzeuge bieten hierzu weitreichende Möglichkeiten. Um eine umfassenden Analyse zuvor kommen Unternehmen aber nicht herum.‣ weiterlesen

Das Übersetzen der Produktdokumentation muss in internationalen Märkten heute schneller gehen als je zuvor. Software kann in Verbindung mit definierten Dokumentations- und Übersetzungsprozessen einen wichtigen Beitrag dazu leisten.‣ weiterlesen

Mit einer Strategie für die Entwicklung, Forschung und Anwendung Künstlicher Intelligenz will die Bundesregierung Deutschland zu einem führenden Standort im KI-Bereich machen. Die Eckpunkte für die Strategie wurden in dieser Woche vorgestellt.‣ weiterlesen

Anzeige
Anzeige
Anzeige