Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Vision-Systeme für Cobots

Dem Roboter die Augen öffnen

Vision-Systeme wie Eyes von OnRobot können Werkstücke anhand ihrer Form und Farbe identifizieren und ermöglichen es dem Roboter so, diese präziser zu greifen. (Bild: OnRobot A/S)

Vision-Systeme wie Eyes von OnRobot können Werkstücke anhand ihrer Form und Farbe identifizieren und ermöglichen es dem Roboter so, diese präziser zu greifen. (Bild: OnRobot A/S)

Wie funktioniert’s?

Doch wie funktioniert ein solches System? In der Regel sind Vision-Systeme PC-basiert, nehmen Bilder über eine oder mehrere Kameras auf und digitalisieren die Daten anschließend. Da Cobots über eine begrenzte Rechenleistung verfügen, müssen Hersteller von Vision-Systemen andere Lösungen für die Verarbeitung der Daten finden. So bietet beispielsweise OnRobot das Kameraprogramm zusammen mit der Vision-Lösung Eyes an. An den Cobot angeschlossen, lassen sich die Grundfunktionen über einen Webbrowser programmieren. Wird mit objektbasierter Erkennung gearbeitet wird die Kamera zunächst mit einer speziellen Messplatte auf den Arbeitsbereich kalibriert und im Anschluss das Werkstück erlernt. Bei der Verwendung von Features wie Landmark-Kalibrierung, Colour und Blob Detection sind viele Vision-Systeme in der Lage, Objekte allein anhand ihrer Farbe und Form zu identifizieren. Dabei genügt es, alle relevanten Informationen zu den Eigenschaften des Gegenstandes in das System einzuspeisen. Das Teaching entfällt und Anwender sparen Zeit bei der Programmierung. Die Eye-Box gibt die Position des Werkstücks an den Roboter weiter, der dann auf einen entsprechenden Trigger-Befehl hin reagiert und das Werkstück an den nächsten Arbeitsschritt weitergibt oder im Falle eines Fehlers aussortiert.

Welche Systeme gibt es?

Grundsätzlich existieren drei Arten von Kamerasystemen, die in Kombination mit Robotern zum Einsatz kommen:

  • • Die kostengünstigste Variante arbeitet mit 2D-Kameras. Diese sind in der Lage, die X- und Y-Achse (Länge und Breite) eines Objekts zu bestimmen. Rotationen um die Z-Achse erkennt die Kamera zwar, allerdings ist sie nicht in der Lage, die Höhe eines Objekts zu erfassen. Dadurch sind den unterstützten Anwendungen zwar Grenzen gesetzt, innerhalb dieser arbeiten 2D-Kameras aber zuverlässig.
  • • 2,5D-Kameras verbinden überschaubare Kosten mit hoher Funktionalität. Durch ihre Fähigkeit, bis zu einem gewissen Grad die Höhe von Objekten und Rotationen um X-, Y- und Z-Achse zu bestimmen, eignen sie sich für die Arbeit mit unterschiedlich hohen Werkstücken oder solchen, die gestapelt werden müssen. Das ermöglicht eine Vielzahl von Anwendungen.
  • • 3D-Kameras bieten die höchste Funktionalität. Sie versorgen einen Cobot mit Informationen über alle drei Achsen und beziehen die Objektrotation mit einunter Einbeziehung der Objektrotation. Daher bewegen sich 3D-Kameras eher im oberen Preissegment. Zudem sind sie aufwendiger zu integrieren und zu bedienen.

Und los geht’s

Ist das passende System gefunden, geht es an die Integration. Dabei sollte zunächst evaluiert werden, wo die Kamera angebracht wird – das hängt von der Aufgabe ab. So bietet eine Montage an der Wand weniger Flexibilität in Bezug auf den Einsatzort der Applikation als eine Befestigung am Roboterarm selbst. Sollen beispielsweise vormittags Pick & Place-Aufgaben in einem Teil des Raums erledigt, die Applikation am Nachmittag aber zur Maschinenbeschickung in einem anderen Teil genutzt werden, empfiehlt es sich, die Kamera so zu integrieren, dass der Cobot ohne großen Aufwand seinen Arbeitsplatz wechseln kann. Damit das System einwandfrei funktioniert, muss die Arbeitsumgebung entsprechend eingerichtet werden. Eine Grundvoraussetzung dabei ist Sauberkeit. Vision-Systeme in Umgebungen einzusetzen, in denen sie Dampf- oder Rauchentwicklung sowie Fett- und Schmutzpartikeln in der Luft ausgesetzt sind, ist daher nicht empfehlenswert. Verschmutzungen auf der Linse erhöhen das Risiko, dass das Kamerasystem die wesentlichen Merkmale nicht korrekt erfasst und die Applikation in ihrer Funktionstüchtigkeit eingeschränkt ist.

Auf das Licht achten

Zudem spielen auch die Lichtverhältnisse eine große Rolle. Idealerweise sind diese über den gesamten Arbeitsprozess hinweg konstant. Ermöglicht wird dies beispielsweise durch die Installation eines Spotlights, entweder in unmittelbarer Umgebung oder an der Applikation selbst. Bei Letzterem ist zu beachten, dass die Lichtquelle aus Richtung der Kamera strahlt. Der Einsatz eines Kamerasystems in der Nähe eines großen Fensters ist also nicht zu empfehlen, da sich die Lichtintensität je nach Tageszeit verändert. So muss sich das System mehrfach neu einstellen,.

Die Ausstattung eines Cobots mit einem Sehsinn ist eine sinnvolle Ergänzung für Unternehmen, um auch in Zukunft produktiv und damit wettbewerbsfähig zu bleiben. (Bild: OnRobot A/S)

Die Ausstattung eines Cobots mit einem Sehsinn ist eine sinnvolle Ergänzung für Unternehmen, um auch in Zukunft produktiv und damit wettbewerbsfähig zu bleiben. (Bild: OnRobot A/S)

Für welche Anwendung?

Danach ist die Applikation einsatzbereit. 2D-Kameras eignen sich für Aufgaben wie Anwesenheitskontrolle, Analyse einzelner Objekte oder Geometrien, Ausrichtung von Mustern oder der Erkennung von Barcodes. 3D-Kameras unterstützen bei der Oberflächenprüfung, bei Volumenmessungen oder der Vollständigkeitskontrolle von 3D-Objekten – beispielsweise im Spritzguss, um rechtzeitig zu erkennen, ob filigrane Teilelemente von Werkstücken beim Herauslösen aus der Form abgebrochen sind. 2,5D-Vision-Systeme wie OnRobots Eyes lassen sich bei Kommissionierungs- und Pick-and-Place-Aufgaben ebenso einsetzen wie in der Qualitätsprüfung. Die OnRobot-Lösung erkennt durch die Farb- und Konturerkennung beispielsweise Abweichungen zwischen einem Werkstück und seiner Vorlage. Dadurch kann das System Werkstücke nach der CNC-Bearbeitung oder dem Spritzgießen auf Produktionsfehler prüfen. Darüber hinaus lassen sich genaue Parameter für den Greiferabstand festlegen. Auf diese Weise ist sichergestellt, dass der Cobot auch eng beieinanderliegende Objekte erkennt und sie beim Greifen nicht beschädigt.

Machine Learning

Vision-Systeme werden in Zukunft zunehmend an Relevanz gewinnen. Durch zerstörungsfreie Prüfung beispielsweise können Unternehmen die Qualität der Produkte sichertellen, fehlerhafte Ware kann rechtzeitig lokalisiert werden. Die Ausstattung eines Cobots mit einem Bision-System ist daher oft eine sinnvolle Ergänzung. Erste Versuche mit Machine Learning zeigen, dass sich die Lernfähigkeit der Systeme noch steigern lässt. Das könnte den Programmieraufwand künftig weiter reduzieren.


Das könnte Sie auch interessieren:

Bosch Rexroth hat die App ValueStreamManager für digitales Mapping, Design und Visualisierung von Wertströmen vorgestellt. Viele Fertigungsbetriebe betreiben Lean Management, um den Wertstrom im Unternehmen immer besser zu planen und umzusetzen.‣ weiterlesen

Aktuelle IoT-Plattformen sollten einige Mindestanforderungen erfüllen, um als Grundlage für komplexere Projekte in Frage zu kommen. Um diese geht es im folgenden Artikel, beginnend bei der Konnektivität, also den unterstützten Protokollen und Schnittstellen.‣ weiterlesen

Die Steigerung von Produktivität und Effektivität in der Industrie und eine ressourcenschonende Nachhaltigkeit stehen sich nicht unversöhnlich gegenüber. Wirtschaftliche Ziele und ökologische Verantwortung unterstützen sich gegenseitig - nur ist das noch nicht überall erkannt.‣ weiterlesen

Die 16. FMB – Zuliefermesse Maschinenbau findet vom 10. bis 12. November 2021 im Messezentrum Bad Salzuflen statt. Zu den Topthemen kürte Veranstalter Easyfairs die Oberflächentechnik und Digitalisierung.‣ weiterlesen

Produktionsunternehmen sollen mit den neuen IoTmaxx-Mobilfunk-Gateways Maschinendaten besonders schnell in die AnyViz-Cloud übertragen können.‣ weiterlesen

Self-Service-Technologie, digitale Assistenten, künstliche Intelligenz - die Digitalwerkzeuge fürs Kundenbeziehungsmanagement werden immer ausgefeilter. Sind CRM- und ERP-System gut integriert, lassen sich im Sinn des xRM-Ansatzes auch leicht die Beziehungen zu Geschäftspartnern IT-gestützt pflegen.‣ weiterlesen

Vor allem KMU befürchten häufig, bei der IT-gestützten Prozessoptimierung im Vergleich zu Großkonzernen nicht mithalten zu können. Die beiden Technologieprojekte IIP Ecosphere und FabOS, die im Rahmen des KI-Innovationswettbewerbs vom BMWi gefördert werden, wollen diesen Firmen den Zugang zu KI-Anwendungen erleichtern.‣ weiterlesen

Emerson hat die Einführung der Software Plantweb Optics Data Lake bekanntgegeben. Die Datenmanagement-Lösung identifiziert, erfasst und kontextualisiert unterschiedliche Daten in großem Maßstab entweder vor Ort in industriellen Anlagen oder mithilfe von Cloud-Technologie.‣ weiterlesen

Im September 2021 erscheint die Richtlinie VDI/VDE 2185 Blatt 2 'Funkgestützte Kommunikation in der Automatisierungstechnik - Koexistenzmanagement von Funksystemen'. Wenn unterschiedliche Funksysteme bei Automatisierungsaufgaben unterstützen, ist mit einer gegenseitigen Beeinflussung der Systeme zu rechnen.‣ weiterlesen

Klare Sicht auf das Werksgeschehen und die Rückverfolgbarkeit von Produkten und Prozessen sind zunehmend wichtige Erfolgsfaktoren. Mit dem MES Valeris will WSW Software gerade mittelständischen Fertigern helfen, diese Ziele zu erreichen. Das System soll schnell und günstig einsatzfähig sein, konfiguriert wird es in Eigenregie.‣ weiterlesen

Unternehmen verwalten heute mehr als zehn Mal so große Datenmengen wie noch vor fünf Jahren. Dabei befürchteten 62 % der Befragten in einer aktuellen Untersuchung von Dell Technologies, ihre Maßnahmen zur Datensicherung könnten nicht ausreichend vor Malware-Attacken schützen. 74 % der Umfrageteilnehmer gaben zudem an, dass mit der steigenden Anzahl an Home-Office-Mitarbeitern das Risiko von Datenverlust ansteige.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige