Vision-Systeme für Cobots

Dem Roboter die Augen öffnen

Vision-Systeme wie Eyes von OnRobot können Werkstücke anhand ihrer Form und Farbe identifizieren und ermöglichen es dem Roboter so, diese präziser zu greifen. (Bild: OnRobot A/S)
Vision-Systeme wie Eyes von OnRobot können Werkstücke anhand ihrer Form und Farbe identifizieren und ermöglichen es dem Roboter so, diese präziser zu greifen. (Bild: OnRobot A/S)

Wie funktioniert’s?

Doch wie funktioniert ein solches System? In der Regel sind Vision-Systeme PC-basiert, nehmen Bilder über eine oder mehrere Kameras auf und digitalisieren die Daten anschließend. Da Cobots über eine begrenzte Rechenleistung verfügen, müssen Hersteller von Vision-Systemen andere Lösungen für die Verarbeitung der Daten finden. So bietet beispielsweise OnRobot das Kameraprogramm zusammen mit der Vision-Lösung Eyes an. An den Cobot angeschlossen, lassen sich die Grundfunktionen über einen Webbrowser programmieren. Wird mit objektbasierter Erkennung gearbeitet wird die Kamera zunächst mit einer speziellen Messplatte auf den Arbeitsbereich kalibriert und im Anschluss das Werkstück erlernt. Bei der Verwendung von Features wie Landmark-Kalibrierung, Colour und Blob Detection sind viele Vision-Systeme in der Lage, Objekte allein anhand ihrer Farbe und Form zu identifizieren. Dabei genügt es, alle relevanten Informationen zu den Eigenschaften des Gegenstandes in das System einzuspeisen. Das Teaching entfällt und Anwender sparen Zeit bei der Programmierung. Die Eye-Box gibt die Position des Werkstücks an den Roboter weiter, der dann auf einen entsprechenden Trigger-Befehl hin reagiert und das Werkstück an den nächsten Arbeitsschritt weitergibt oder im Falle eines Fehlers aussortiert.

Welche Systeme gibt es?

Grundsätzlich existieren drei Arten von Kamerasystemen, die in Kombination mit Robotern zum Einsatz kommen:

  • • Die kostengünstigste Variante arbeitet mit 2D-Kameras. Diese sind in der Lage, die X- und Y-Achse (Länge und Breite) eines Objekts zu bestimmen. Rotationen um die Z-Achse erkennt die Kamera zwar, allerdings ist sie nicht in der Lage, die Höhe eines Objekts zu erfassen. Dadurch sind den unterstützten Anwendungen zwar Grenzen gesetzt, innerhalb dieser arbeiten 2D-Kameras aber zuverlässig.
  • • 2,5D-Kameras verbinden überschaubare Kosten mit hoher Funktionalität. Durch ihre Fähigkeit, bis zu einem gewissen Grad die Höhe von Objekten und Rotationen um X-, Y- und Z-Achse zu bestimmen, eignen sie sich für die Arbeit mit unterschiedlich hohen Werkstücken oder solchen, die gestapelt werden müssen. Das ermöglicht eine Vielzahl von Anwendungen.
  • • 3D-Kameras bieten die höchste Funktionalität. Sie versorgen einen Cobot mit Informationen über alle drei Achsen und beziehen die Objektrotation mit einunter Einbeziehung der Objektrotation. Daher bewegen sich 3D-Kameras eher im oberen Preissegment. Zudem sind sie aufwendiger zu integrieren und zu bedienen.

Und los geht’s

Ist das passende System gefunden, geht es an die Integration. Dabei sollte zunächst evaluiert werden, wo die Kamera angebracht wird – das hängt von der Aufgabe ab. So bietet eine Montage an der Wand weniger Flexibilität in Bezug auf den Einsatzort der Applikation als eine Befestigung am Roboterarm selbst. Sollen beispielsweise vormittags Pick & Place-Aufgaben in einem Teil des Raums erledigt, die Applikation am Nachmittag aber zur Maschinenbeschickung in einem anderen Teil genutzt werden, empfiehlt es sich, die Kamera so zu integrieren, dass der Cobot ohne großen Aufwand seinen Arbeitsplatz wechseln kann. Damit das System einwandfrei funktioniert, muss die Arbeitsumgebung entsprechend eingerichtet werden. Eine Grundvoraussetzung dabei ist Sauberkeit. Vision-Systeme in Umgebungen einzusetzen, in denen sie Dampf- oder Rauchentwicklung sowie Fett- und Schmutzpartikeln in der Luft ausgesetzt sind, ist daher nicht empfehlenswert. Verschmutzungen auf der Linse erhöhen das Risiko, dass das Kamerasystem die wesentlichen Merkmale nicht korrekt erfasst und die Applikation in ihrer Funktionstüchtigkeit eingeschränkt ist.

Auf das Licht achten

Zudem spielen auch die Lichtverhältnisse eine große Rolle. Idealerweise sind diese über den gesamten Arbeitsprozess hinweg konstant. Ermöglicht wird dies beispielsweise durch die Installation eines Spotlights, entweder in unmittelbarer Umgebung oder an der Applikation selbst. Bei Letzterem ist zu beachten, dass die Lichtquelle aus Richtung der Kamera strahlt. Der Einsatz eines Kamerasystems in der Nähe eines großen Fensters ist also nicht zu empfehlen, da sich die Lichtintensität je nach Tageszeit verändert. So muss sich das System mehrfach neu einstellen,.

Die Ausstattung eines Cobots mit einem Sehsinn ist eine sinnvolle Ergänzung für Unternehmen, um auch in Zukunft produktiv und damit wettbewerbsfähig zu bleiben. (Bild: OnRobot A/S)
Die Ausstattung eines Cobots mit einem Sehsinn ist eine sinnvolle Ergänzung für Unternehmen, um auch in Zukunft produktiv und damit wettbewerbsfähig zu bleiben. (Bild: OnRobot A/S)

Für welche Anwendung?

Danach ist die Applikation einsatzbereit. 2D-Kameras eignen sich für Aufgaben wie Anwesenheitskontrolle, Analyse einzelner Objekte oder Geometrien, Ausrichtung von Mustern oder der Erkennung von Barcodes. 3D-Kameras unterstützen bei der Oberflächenprüfung, bei Volumenmessungen oder der Vollständigkeitskontrolle von 3D-Objekten – beispielsweise im Spritzguss, um rechtzeitig zu erkennen, ob filigrane Teilelemente von Werkstücken beim Herauslösen aus der Form abgebrochen sind. 2,5D-Vision-Systeme wie OnRobots Eyes lassen sich bei Kommissionierungs- und Pick-and-Place-Aufgaben ebenso einsetzen wie in der Qualitätsprüfung. Die OnRobot-Lösung erkennt durch die Farb- und Konturerkennung beispielsweise Abweichungen zwischen einem Werkstück und seiner Vorlage. Dadurch kann das System Werkstücke nach der CNC-Bearbeitung oder dem Spritzgießen auf Produktionsfehler prüfen. Darüber hinaus lassen sich genaue Parameter für den Greiferabstand festlegen. Auf diese Weise ist sichergestellt, dass der Cobot auch eng beieinanderliegende Objekte erkennt und sie beim Greifen nicht beschädigt.

Machine Learning

Vision-Systeme werden in Zukunft zunehmend an Relevanz gewinnen. Durch zerstörungsfreie Prüfung beispielsweise können Unternehmen die Qualität der Produkte sichertellen, fehlerhafte Ware kann rechtzeitig lokalisiert werden. Die Ausstattung eines Cobots mit einem Bision-System ist daher oft eine sinnvolle Ergänzung. Erste Versuche mit Machine Learning zeigen, dass sich die Lernfähigkeit der Systeme noch steigern lässt. Das könnte den Programmieraufwand künftig weiter reduzieren.







  • Ein Stück näher am Quanteninternet

    Das Quanteninternet verspricht signifikante Verbesserungen in verschiedenen technologischen Schlüsselbereichen. Um dieses jedoch im bestehenden Glaserfasernetz zu realisieren, sind Quantenfrequenzkonverter nötig, die die…


  • Nachhaltigkeitsthemen im Datenmanagement abbilden

    Technologien wie Robotic Process Automation (RPA) oder künstliche Intelligenz (KI) können Unternehmen beim Management von ESG-Daten unterstützen. Der Softwarespezialist Blue Prism beleuchtet…


  • KI in Fertigungsbranche vorn

    Die neunte Ausgabe von Rockwell Automations „State of Smart Manufacturing“ Report liefert Einblicke in Trends und Herausforderungen für Hersteller. Dazu wurden über…


  • Weniger deutsche Unternehmen abhängig von Vorprodukten aus China

    Im Vergleich zu einer Untersuchung kurz vor Beginn Kriegs in der Ukraine, geben in einer aktuellen Untersuchung des Ifo Instituts weniger Unternehmen…


  • Innovationstreiber Thin[gk]athon: Kollaborative Intelligenz trifft auf Industrie-Expertise

    Der Thin[gk]athon, veranstaltet vom Smart Systems Hub, vereint kollaborative Intelligenz und Industrie-Expertise, um in einem dreitägigen Hackathon innovative Lösungsansätze für komplexe Fragestellungen…