Datenhandschuh: Handgesten präziser in Echtzeit erfassen

Verantwortlicher Redakteur:in: Rainer Trummer 2 min Lesedauer

Anbieter zum Thema

Wissenschaftler der ETH Zürich und der New York University haben einen dehnungsempfindlichen Datenhandschuh entwickelt, der interaktive Gesten schneller und präziser erfassen soll.

(Quelle: ETH Zürich)

Wissenschaftler der ETH Zürich und der New York University haben einen dehnungsempfindlichen Datenhandschuh entwickelt, der interaktive Gesten schneller und präziser erfassen soll.

Wie sich mit der Hand ausgeführte Gesten realistisch in Echtzeit erfassen lassen, ist immer wieder Gegenstand tiefgreifender Analysen. Denn die komplex aufgebauten menschlichen Hände zeichnet ein intrikates Geflecht aus Beuge- und Streckmuskeln und Organen für die Sinneswahrnehmung aus. So können sie Gegenstände effektiv ergreifen und manipulieren oder per Gestik kommunizieren.  

Benutzerfreundlicher Datenhandschuh

Für viele Anwendungen etwa im Gaming, für Augmented und Virtual Reality, in der Robotik oder der Biomedizintechnik ist das präzise Erfassen von Handbewegungen sehr wichtig. Wissenschaftler der ETH Zürich und der New York University haben hier mit einem bedienerfreundlichen, dehnungsempfindlichen Datenhandschuh Fortschritte erzielen können, der in Echtzeit interaktive Gesten mit größerer Genauigkeit erfassen soll.

Das Entwicklerteam mit Oliver Glauser, Shihao Wu, Otmar Hilliges und Olga Sorkine-Hornung von der ETH Zürich und Daniele Panozzo von der NYU wird diesen Handschuh an der SIGGRAPH 2019 vorstellen, die vom 28. Juli bis 1. August in Los Angeles stattfindet.

Der wichtigste Vorteil der Handschuhe sei, so die Entwickler, dass er keine kamerabasierten Systeme oder anderes externes Gerät erfordere. Das Tracking der Handgesten könne ohne aufwändige Kalibrierung in Echtzeit starten.

Ohne Kameras und externe Geräte

Die Handschuhe seien die ersten dieser Art, die lediglich auf Dehnungssensoren basieren, sagt Oliver Glauser, ein Hauptautor der Arbeit und Doktorand an der ETH Zürich. Die Handschuhe seien weich und dünn, und somit, trotz der 44 integrierten Sensoren, sehr angenehm zu tragen. Sie lassen sich zumal kostengünstig mit herkömmlichen Werkzeugen fertigen

Die Gruppe um Glauser hat sich zum Ziel gesetzt, einige der Hürden bei der korrekten Wiedergabe von Handpositionen zu überwinden. In dieser Arbeit betrifft das vor allem Handbewegungen in Echtzeit und in unterschiedlichen Umgebungen sowie die bedienerfreundliche und leicht erlernbare Ausführung. Die Wissenschaftler konnten den Nutzen ihres dehnungsempfindlichen Handschuh bei der exakten und schnellen Berechnung von Handstellungen demonstrieren, sogar wenn der Anwender ein Objekt ergreift oder bei lichtschwachen Verhältnissen.

Handbewegungen in Echtzeit rekonstruieren

Für den Handschuh kommt eine zu einer Hand geformte Silikonkautschukmasse zum Einsatz, die mit 44 Dehnungssensoren ausgestattet ist. Um die Handposition aus den gewonnenen Sensordaten zu rekonstruieren, nutzen die Entwickler ein datengetriebenes Modell, das sich des Layouts der Sensoren bedient. Das Modell wird nur einmal trainiert. Eine kostengünstige Lösung für die Rekonstruktion der Handhaltung erfasst die Trainingsdaten. In Sachen Genauigkeit musste sich der Handschuh mit zwei aktuellen marktgängigen Lösungen messen lassen. Außer in einer Haltung erreichte die Neuheit im Vergleich die geringste Fehlerquote.

Das Team will darüber hinaus erforschen, wie sich eine ähnlich aufgebaute Sensorik in Zukunft auf den ganzen Arm anwenden lässt, um die räumliche Lage und Orientierung des Handschuhs zu ermitteln, oder vielleicht sogar auf einen Ganzkörperanzug.

Bild: Der Handschuh mit Dehnungssensoren erfasst Handgesten in Echtzeit und mit hoher Genauigkeit. Er bewährt sich in unterschiedlichen und auch herausfordernden Umgebungen. Bild: ETH Zürich

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung