Robbi, was guckst Du?

20.11.2019

Klassifizierung des Setups

Setup der Messungen

Scan des Robotik-Labors

Klassifizierung von Umgebungsobjekten und Zielobjekten

Rendering der klassifizierten Objekte

Mit 2D-LiDAR Systemen werden typischerweise Objektdistanzen gemessen. Montiert am Tool-Center-Point eines kooperierenden Roboters lassen sich aber auch 3D-Szenen scannen und mit Methoden des Machine Learnings Objekte detektieren, so dass der Roboter weiß, wohin er greifen muss.

Industrieroboter werden so programmiert, dass sie repetitive Aufgaben mit hoher Positionier- und Wiederholgenauigkeit über einen langen Zeitraum durchführen können. Ein typisches Beispiel ist das Setzen von Schweißpunkten beim Rohbau in der Automobilproduktion.

Vollkommen diametral stellt sich die Aufgabe für mobile Roboter, die individuelle Aufgaben – idealerweise auch noch autonom - durchführen sollen. Angenommen ein kooperierender Roboter ist auf einer mobilen Plattform montiert und soll nun einen Gegenstand greifen von dem zwar die Form, nicht aber Orientierung und Position bekannt sind. Ein typisches Beispiel ist eine Tasse, die einer hilfsbedürftigen Person heruntergefallen ist und von einem Assistenzroboter aufgehoben werden soll.

Im Lehrgebiet von Prof. Dr.-Ing. Elmar Engels wurde als internes Forschungsprojekt ein kooperierender 6-Achs-Roboter mit einem 2D-LiDAR-System (LiDAR: Light detection and ranging) ausgestattet und verschiedene Software-Applikationen zur Erprobung des Konzeptes entwickelt.

Zunächst wurde untersucht, ob und wie mit dem 2D-LiDAR-System während einer mehrachsigen Roboterbewegung eine 3D Punktewolke erzeugt werden kann, die hinsichtlich ihrer Eigenschaften geeignet ist, um mit Methoden des Machine Learnings Klassifizierungen nach Umgebung und Zielobjekten durchzuführen.

In weiterführenden Entwicklungen wurden dann konkrete Objekte modelliert und Software-Anwendungen geschrieben, die anhand der gemessenen 3D-Punktewolke diese Objekte in Position und Orientierung erkennen sollen. Auf Basis von fünf Masterprojekten wurde das Konzept schrittweise soweit entwickelt, dass Objekte mit geeigneten Eigenschaften (z.B. Tasse, Schachtel, Eierbecher) antrainiert werden können und die Sensorik und Verfahren ausreichend genau sind, um diese im Rahmen der Aufgabenstellung zu erkennen.

Nach diesem Proof-of-Concept sind weitere Entwicklungen geplant, bei denen der Informationsgehalt der Auswertungen erweitert werden soll. Alltagsgegenstände haben in aller Regel wichtige Details, z.B. geometrische Hinterschnitte. D.h. selbst, wenn wir Menschen eine Tasse von der Seite sehen, können wir nicht sagen, ob sie ggf. gefüllt ist. Dazu muss mindestens von schräg oben in die Tasse geschaut werden. Genau solche Aufgaben lassen sich aber mit unseren kooperierenden 6-Achs-Roboter lösen. Der Robbi muss quasi wie eine neugierige Person die Objekte erst von verschiedenen Seiten betrachten, um sich ein gutes Bild von der Situation zu machen.

Die hier dargestellten Arbeitsergebnisse wurden von Prof. Engels initiiert und basieren im Wesentlichen auf den sehr guten Masterprojekten von S. Reimund und N. Kreß, die sich beide während ihres Bachelor- und Master-Studiums im Lehrgebiet Automatisierungstechnik und Systemtechnik über mehrere Semester intensiv mit dem kooperierenden Robotersystem und die dafür erforderlichen Entwicklungswerkzeuge beschäftigt haben.

Autor: Prof. Dr.-Ing. Elmar Engels

Bildquellen: N. Kreß, S. Reimund

zurück