Software: Roboter steuern in der virtuellen Realität

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Software: Roboter steuern in der virtuellen Realität

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Obwohl Roboter immer selbständiger handeln, dürfte es auch dann notwendig sein, dass der Mensch einmal einschreiten und die Kontrolle übernehmen muss. Eine neue, von Informatikern der Brown University entwickelte Software, ermöglicht es Anwendern, Roboter mit Hilfe von VR aus der Distanz zu steuern. Dabei können die Anwender in die Umgebung des Roboters eintauchen, ohne selbst vor Ort sein zu müssen.

brown_comm_robots04

Obwohl Roboter immer selbständiger handeln, dürfte es auch dann notwendig sein, dass der Mensch einmal einschreiten und die Kontrolle übernehmen muss. Eine neue, von Informatikern der Brown University entwickelte Software, ermöglicht es Anwendern, Roboter mit Hilfe von VR aus der Distanz zu steuern. Dabei können die Anwender in die Umgebung des Roboters eintauchen, ohne selbst vor Ort sein zu müssen.

Die Software verbindet einen Roboterarm und die Greifer sowie andererseits die Bordkameras und Sensoren mit handelsüblicher Virtual-Reality-Hardware über das Internet. Mit einer Handsteuerung können Anwender den Roboterarm allein dadurch zu komplexen Manipulationen veranlassen, indem sie ihre eigenen Arme bewegen. Sie können sich gleichsam in den Roboter hineinversetzen und von dort aus die Umgebung aus dessen Perspektive sehen. Sie können aber auch um den Roboter herumlaufen und die Szene von außen beobachten, je nachdem, was für die anstehende Aufgabe gerade naheliegender ist. Die zwischen Roboter und VR-Einheit ausgetauschten Daten sind so kompakt, dass sie sich mit minimaler Zeitverzögerung via Internet senden lassen. Das ermöglicht auch den Zugriff auf die Robotersteuerung aus größerer Distanz.

David Whitney, Graduate Student an der Brown University und in leitender Funktion an der Entwicklung des Systems beteiligt, sagt: „Wir glauben, das könnte überall da sinnvoll sein, wo wir eine Manipulation ausführen lassen wollen, die besondere Geschicklichkeit erfordert, ohne dass ein Mensch dort sein darf. Dabei denken wir besonders an drei Situationen: die Entschärfung von Bomben, die Arbeit in einer kerntechnischen Anlage oder das Steuern eines Roboterarms auf der International Space Station.“

Whitney leitete die Arbeit zusammen mit Eric Rosen, Undergraduate Student an der Brown University. Beide arbeiten im Humans to Robots Lab unter der Führung von Stefanie Tellex, Assistant Professor für Informatik. Eine Beschreibung des Systems wurde im Dezember 2017 am International Symposium on Robotics Research in Chile präsentiert.

Sogar technisch sehr ausgefeilte Roboter werden oft mit primitiven Mitteln ferngesteuert, etwa mit einer Tastatur oder einem Videospiel-Controller und einem 2D-Monitor. Das, so Whitney und Rosen, funktioniere gut, um etwa einen Roboter mit Rädern zu führen oder eine Drohne fliegen zu lassen, aber für komplexe Aufgabe könne es sich als problematisch erweisen.

Gelte es, eine Roboterarm mit vielen Freiheitsgraden zu steuern, seien Tastaturen und Game-Controller nicht sehr intuitiv, sagt Whithney. Und die 3D-Umgebung auf einen 2D-Bildschirm zu bannen, könne die Wahrnehmung des Raums, in dem der Roboter arbeite, limitieren.

Die Software von Whitney und Rosen bringt einen Roboter von Baxter Research mit einem HTC Vive-Headset zusammen, einem VR-System mit einem Controller. Die Software nutzt die Robotersensoren, um eine Punktewolke des Roboters selbst und von seiner Umgebung zu generieren. Die entsprechenden Daten werden an einen Rechner übermittelt, der mit dem Vive-System verbunden ist. Die Anwender sehen den Raum am Headset und können darin umherlaufen. Gleichzeitig bekommen die Anwender HD-Videos von der Handgelenkkamera des Roboters überspielt, die einem detaillierten Blick auf die auszuführenden Operationen eröffnen.

Die Forscher konnten eine immersive Erfahrung ermöglichen und dabei gleichzeitig die Daten so klein halten, dass diese sich ohne störende Verzögerung via Internet übermitteln ließen. Beispielsweise war ein Anwender in Providence, Rhode Island, in der Lage, einen Roboter, 66 Kilometer entfernt in Cambridge, Massachusetts, Plastiktassen stapeln zu lassen.  

VR-Lösung schneller als herkömmliches Interface 

In weiteren Studien konnten 18 Erstanwender diese Aufgabe in der virtuellen Realität um 66 Prozent schneller umsetzen als über ein herkömmliches Tastatur-Monitor-Interface.  Zudem gefiel ihnen die VR-Umgebung besser und die Aufgaben erwiesen sich als weniger schwierig auszuführen als mit Tastatur und Monitor.  Das höhere Arbeitstempo führt Rosen auf die Intuitivität der virtuellen Schnittstelle zurück. Denn in VR könne man den Roboter einfach so bewegen, wie man seinen Körper bewege — und das ohne groß darüber nachzudenken, so Rosen. Daher könne man sich ganz dem Problem oder der anstehenden Aufgabe widmen und müsse sich nicht überlegen, wie der Roboter zu bewegen sei.

Die Wissenschaftler wollen das System weiterentwickeln. Die erste Stufe zielte auf eine ziemlich einfache Aufgabe mit einem stationären Roboter. Nun wollen sie komplexere Aufgaben ausprobieren und später die Manipulation mit der Navigation kombinieren. Außerdem sollen Experimente mit einer abgestuften Autonomie stattfinden, wo einmal der Roboter Aufgaben selbständig erledigt und ein anderes Mal der Mensch eingreift.

Die Lösung ist im Web frei verfügbar. So sollen auch andere Robotik-Fachleute der Idee eine Chance geben und sie vielleicht in einem neue Richtung tragen. Die weiteren Autoren der Studie sind Elizabeth Phillips und George Konidaris. Die Arbeit wurde teilweise von der Defense Advanced Research Projects Agency (DARPA) unterstützt. 

Video „Comparing Robot Grasping Teleoperation across Desktop and Virtual Reality with ROS Reality“: https://www.youtube.com/watch?time_continue=2&v=e3jUbQKciC4

Bild: Eric Rosen, Brown University, bedient einen Roboter von Baxter über die im Humans to Robots lab der Universität entwickelte VR-Schnittstelle. Credit: Nick Dentamaro

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken

Ihre Meinung zum Artikel

Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments

Andere Leser haben sich auch für die folgenden Artikel interessiert

Tragen Sie sich jetzt kostenlos und unverbindlich ein, um keinen Artikel mehr zu verpassen!

    * Jederzeit kündbar

    Entdecken Sie weitere Magazine

    Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

    Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.