Verbesserte Fernsteuerung: Als sei der Roboter der eigene Körper

Verantwortlicher Redakteur:in: Rainer Trummer 3 min Lesedauer

Anbieter zum Thema

Damit sich menschliches Wissen und Können auch an gefährlichen und schwer zugänglichen Orten optimal einsetzen lässt, haben Wissenschaftler an der Universität Twente eine ungewöhnliche Fernsteuerung für Roboter entwickelt.

(Quelle: Universiteit Twente)
  • Manchmal braucht es menschliches Können an Orten, die gefährlich oder schwer zugänglich sind.

  • Im Projekt Predictive Avatar Control and Feedback (PACOF) entsteht eine Fernsteuerung für Roboter, mit der Bediener den Ort so erleben, wie es der Roboter tut.

  • Drei Forschende aus drei verschiedenen Disziplinen der EEMCS-Fakultät der Universität Twente arbeiten in diesem Projekt zusammen.

Die "Avatare" für die Fernsteuerung der Roboter, die von Dr. Douwe Dresscher, Dr. Felix Schwenninger und Dr. Gwenn Englebienne gebaut werden, ähneln ein wenig den blauen Humanoiden aus dem gleichnamigen Film. "Wie diese fiktiven Figuren arbeiten wir an einem ähnlichen Steuerungssystem, das dem Bediener das Gefühl gibt, den Platz des Roboters eingenommen zu haben", sagt Dresscher.

In Norwegen werden bereits Roboter für die häusliche Pflege entwickelt, aber sie sind noch nicht so persönlich, wie sie sein könnten. In diesem dünn besiedelten Land könnten die Avatare helfen, die enormen Entfernungen zu überbrücken, denn sie ermöglichen es Pflegern, ihre Patienten durch die Roboter zu sehen und mit ihnen zu interagieren. Die Avatare können auch für gefährliche Arbeiten wie das Be- und Entladen von Öltankern im Hafen von Rotterdam eingesetzt werden. "Gefährliche Stoffe müssen von Bedienern mit dem richtigen Fachwissen gehandhabt werden. Mit einem Avatar kann man die erforderlichen Fähigkeiten auf das Öltankschiff bringen, ohne Menschen gefährden zu müssen", sagte Dresscher.

So funktioniert die Fernsteuerung für Roboter

Damit dies funktioniert, müssen drei Dinge passieren. Erstens müssen die Betreiber vollständig von der Außenwelt isoliert sein. Zweitens müssen sie realistische Reize erfahren, um eine virtuelle Welt zu schaffen. "Das bedeutet mehr als nur Bilder und Ton, die durch eine VR-Brille projiziert werden, sondern auch Dinge wie Geruch, Temperatur und den Gegendruck, den man erfährt, wenn man gegen ein Objekt drückt", sagt Dresscher. "Wir wollen, dass der Bediener das Gefühl hat, dass er oder sie irgendwo anders ist; es muss sich anfühlen, als sei der Roboter sein eigener Körper. Schließlich muss die Steuerung intuitiv sein und zu fast identischen Bewegungen des Avatars führen

Die Zukunft vorhersagen

Im Rahmen des PACOF-Projekts werden sich die Forscher auf die letztgenannte Herausforderung konzentrieren. "Wir können dem Operator Roboterarme geben, die er steuern kann, aber aufgrund von Verzögerungen im Netzwerk gibt es auch eine Verzögerung, wenn der Operator eine Bewegung ausführt, bevor der Roboter sie repliziert", sagt Dresscher. Ebenso dauert es eine Weile, bis das vom Roboter gelieferte Feedback den Bediener erreicht. Das macht die Steuerung eines solchen Systems umständlicher und schränkt damit die Möglichkeiten ein, was man damit tun kann.

Die Verzögerung ließe sich umgehen, indem man den Roboter dazu bringt, vorherzusagen, was der Bediener tun wird; der Roboter kann so modelliert werden, dass er eine Bewegung ausführt, noch bevor er das Signal vom Bediener erhält. "Gleichzeitig werden wir auch versuchen, vorherzusagen, wie die Umgebung des Roboters reagieren wird, und dies in die Rückmeldung an den Bediener integrieren, so dass dieser die Verzögerung nicht bemerkt. Das bedeutet auch, dass wir überlegen müssen, was passiert, wenn der Roboter eine falsche Vorhersage trifft: Wie kann der Roboter den Fehler beheben und welche Art von Rückmeldung muss der Bediener erhalten?" führt Dresscher aus.

Zusammenarbeit der Disziplinen

Dieses auf vier Jahre angelegte Projekt wird von der EEMCS-Fakultät finanziert. Drei Doktoranden werden für dieses Projekt ernannt. Diese so genannten "Theme call"-Projekte bringen aktiv verschiedene Disziplinen der Fakultät zusammen, wie Mathematik, Informatik und Sensornetze. Dresscher arbeitet an der Verbindung zwischen dem Operator und dem Avatar, Schwenninger konzentriert sich auf die mathematischen Modelle und Englebienne untersucht, wie das Verhalten des Operators vorhergesagt werden kann.

"Dies ist eine einzigartige Gelegenheit, enger mit Kollegen aus meiner eigenen Fakultät zusammenzuarbeiten", sagt Dresscher. "Normalerweise arbeitet man bei Projektvorschlägen mit Kollegen von außerhalb der eigenen Fakultät oder Universität zusammen. Ich hatte Felix bereits in der Lehre kennen gelernt, aber Gwen kannte ich noch nicht. Wir lernen viel voneinander und bilden bereits ein gutes Team. Der Fakultätsrat gibt uns die Freiheit und die Mittel, das Beste aus uns herauszuholen".

Weitere Informationen: https://www.utwente.nl/

Erfahren Sie hier mehr über Roboterinstallationen am Smartphone.

Lesen Sie auch: "Digitale AR-Zwillinge: Anschaulich planen, prüfen und Produkte entwickeln"

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung