Roboter mit Virtual Reality fernsteuern

Viele Arbeiten in der Fertigung erfordern die physische Präsenz zum Bedienen von Maschinen. Was wäre aber, wenn sich solche Arbeiten aus der Ferne erledigen ließen? Wissenschaftler des Computer Science and Artificial Intelligence Laboratory (CSAIL) am MIT haben ein VR-System vorgestellt, das es ermöglicht, einen Roboter mithilfe eines Oculus-Rift-Headsets fernzusteuern.

Die Lösung versetzt Anwender in eine VR-Steuerzentrale mit mehreren Sensordisplays, die ihnen das Gefühl vermittelt, im Kopf des Roboters zu sitzen. Über die Gestik können die Anwender ihre Bewegungen auf die des Roboters übertragen, um verschiedene Aufgaben ausführen zu lassen.

„Ein System wie dieses könnte den Menschen letztendlich helfen, Roboter aus der Distanz zu überwachen,“ sagt Jeffrey Lipton vom CSAIL, Hauptautor des Papers über diese Arbeit. „Durch die Fernsteuerung von Robotern von zu Hause aus könnten die Werker von zu Hause arbeiten und dabei genauso von der IT-Revolution profitieren wie die Angestellten auch schon.“

Die Forscher können sich sogar vorstellen, das ein solches Konzept die wachsende Zahl arbeitsloser Videogamer durch die „Game-ifizierung“ der Fertigungsarbeiten wieder zurück ins Berufsleben führen könnte.

Das Team hat das Steuerungskonzept mit dem humanoiden Roboter Baxter von Rethink Robotics demonstriert, betont aber gleichwohl, das es auch mit anderen Roboterplattformen und mit einem HTC-Vive Headsets funktionieren würde. Lipton hat das Paper zusammen mit CSAIL Director Daniela Rus und Aidan Fay verfasst. Sie haben ihre Arbeit an der IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) in Vancouver vorgestellt.

Wie es funktioniert

Traditionell kommen zwei Ansätze für die Fernbedienung mittels VR in Frage. In einem „direkten“ Modell ist die Sicht des Anwenders direkt mit dem Status des Roboters gekoppelt. Bei diesen Lösungen könnte ein verzögertes Signal zu Übelkeit und Kopfschmerzen führen, und der Blickwinkel des Anwenders beschränkt sich auf eine Perspektive.

In einem „cyber-physischen“ Modell ist der Anwender vom Roboter getrennt. Er interagiert mit einer virtuellen Kopie von Roboter und Umgebung. Das erfordert wesentlich mehr Daten und spezialisierte Räume.

Das CSAIL-Team steht mit seinem Konzept zwischen diesen beiden Verfahren. Es löst das Problem der Verzögerungen insofern, als der Anwender ständig visuelles Feedback aus der virtuellen Welt erhält. Und es löst auch das cyber-physische Problem, vom Roboter abgetrennt zu sein: Setzt man nämlich die Brille und loggt sich in das System ein, fühlt man sich wie in Baxters Schaltzentrale.

Das System bildet ein Homunculus-Modell nach, also die Idee dass ein kleiner Mensch im Gehirn unsere Handlungen kontrolliert, die Bilder, die wir sehen, sieht und sie für uns versteht. Was für Menschen seltsam erscheinen mag, passt für Roboter: „Innerhalb“ des Roboters befindet sich ein Mensch in der Steuerzentrale, sieht mit dessen Augen und steuert seine Handlungen.  

Mit der Oculus können die Anwender mit der Steuerungen im virtuellen Raum interagieren, um beispielsweise Greifer zu öffnen oder zu schließen, Gegenstände zu bewegen und wieder zurückzulegen. Anwender könnten die Bewegungen basierend auf der Entfernung zwischen dem Positionsmarker für den Arm und ihre Hand planen, während sie die Darstellung des Arms live sehen. Um diese Bewegungen zu ermöglichen, wird der menschliche Raum auf den virtuellen übertragen, und der virtuelle Raum schließlich in den des Roboters. Damit entsteht der Eindruck eines gemeinsamen Raums.

Die Lösung soll auch flexibler als herkömmliche Systeme sein, die viele Ressourcen erforderten. Andere Systeme könnten 2D-Informationen aus jeder Kamera gewinnen, ein komplettes 3D-Modell der Umgebung herausarbeiten und dann die Daten verarbeiten und wieder anzeigen. Dagegen umgeht der CSAIL-Ansatz all das, indem er jedem Auge die 2D-Bilder präsentiert und das Gehirn daraus automatisch die 3D-Information erschließt.

Für den Test wurde der Roboter Baxter ferngesteuert, damit er einfache Aufgaben wie das Aufnehmen von Schrauben oder das Klammern von Drähten verrichtet. Dann sollten die Anwender den Roboter so fernsteuern, dass er Bauteile greift und stapelt. Dabei konnte eine wesentlich höhere Erfolgsquote im Vergleich zum oben erwähnten „direkten“ Vorgehen verzeichnet werden. Anwender mit Gaming-Erfahrung taten sich leichter mit der Lösung.

Das CSAIL-System konnte den Vergleich beim greifen von Objekten zu 95 Prozent für sich entscheiden und erwies sich erst noch als 57 Prozent schneller, als die derzeit verwendeten Lösungen. Außerdem konnten die Wissenschaftler zeigen, dass sie den Roboter auch aus hunderten Kilometern Entfernung bedienen konnten.

Das Team will sich nun in den nächsten Schritten darauf konzentrieren, das System skalierbarer zu machen, mit vielen Anwendern und unterschiedlichen Robotertypen.

Bild: Das VR-System des Computer Science and Artificial Intelligence Laboratory am MIT hilft Werkern, aus der Ferne Roboter zu bedienen. CREDIT Jason Dorfman, MIT CSAIL

0
RSS Feed

Hat Ihnen der Artikel gefallen?
Abonnieren Sie doch unseren Newsletter und verpassen Sie keinen Artikel mehr.

Mit einem * gekennzeichnete Felder sind Pflichtfelder!

Neuen Kommentar schreiben

Entdecken Sie die Printmagazine des WIN-Verlags