21.03.2017 – Kategorie: IT

Dynamische Interaktion mit realen Objekten in der Virtuellen Realität

catching-a-real-ball-in-virtual-reality-image4

Wissenschaftler von Disney Research eröffnen neue Möglichkeiten, virtuelle Erlebnisse, die Interaktionen mit realen Objekten einbeziehen, befriedigender zu gestalten. Sie zeigen, wie man in einem VR-System verlässlich einen realen Ball fangen kann.

Günter Niemeyer, Senior Research Scientist, zeigt sich begeistert: „Den echten Ball zu fangen und zu in den Händen zu spüren, macht die VR viel lebendiger, glaubwürdiger, spannender und interaktiver, dynamischer und realer.“

Das Fangen eines Balls erfordert viele koordinierte Fähigkeiten, die in früher Kindheit erlernt werden, wie eine gute Koordination zwischen Hand und Auge. Niemeyer und Matthew Pan, Disney Research Lab Associate und Doktorand an der University of British Columbia, haben gezeigt, dass diese enge Koordination auch in VR möglich ist und die Anwender reale fliegende Bälle auffangen können.

Verschiedene Arten der Visualisierung können zu unterschiedlichen Verhaltensweisen führen und das Fangen sogar einfacher machen. Niemeyer und Pan präsentierten ihre Arbeit an der IEEE Virtual Reality-Konferenz 2017, die noch bis 22. März in Los Angeles stattfindet.

In dem Maße,  in dem Virtual-Reality-Systeme immer stärker verbreitet seien, gewinne auch die Idee an Interesse, die Anwender-Erfahrung durch die dynamische Interaktion mit realen Objekten anzureichern, so Markus Gross, Vice President for Research bei Disney Research. Die Arbeit des Teams sei spannend und sie mache deutlich, dass es nicht nur möglich sei, eine Brücke zwischen virtuellen und realen Welten zu bauen, sondern dass dies Nutzen und viele neue Chancen biete.

Niemeyer und Pan demonstrieren die VR-Anwendung für das Fangen eines echten Balls mit einem Motion-Capure-System, das sowohl den Flug des Balls als auch die Position von Hand und Kopf der Fängers erfasst. Dazu kommt ein OptiTrack Flex 13-System mit einer Wiederholrate von 120 fps und 8,33 ms Latenz zum Einsatz. Die Szene wird dann mit der virtuell gerendert (Unity 3D-Game Engine, Windows 10-System mit Intel Xeon E5-Prozessor, 32 GByte RAM und Nvidia GeForce GTX970-Grafik)  und im Head-Mounted-Display (Oculus CV 1) angezeigt. Positions- und Geschwindigkeitsdaten des Balls wurden aus dem Tracking System mit einem zeitdiskreten Unscented Kalman Filter gewonnen. In jedem Zeitschritt wird die zukünftige Trajektorie des und Zielvisualisierung des Balls aus den aktuellen Positions- und Bewegungsdaten vorhergesagt. Mit der Trajektorie lässt sich dann die Zielposition und die Zeit, bis der Ball das Ziel erreicht, abschätzen.

Die Wissenschaftler haben verschiedene Visualisierungsoptionen durchgespielt: eine, ähnlich einer wirklichen Erfahrung, in der nur die Position des Balls gerendert wird und zwei weitere, die entweder die vorhergesagte Flugbahn anzeigten oder nur ein Zielgebiet markierten, in dem der Ball gefangen werden sollte.

In allen drei Varianten konnten die Anwender den Ball erfolgreich auffangen, wie Pan anmerkt. Nur mit der gerenderten Ballposition konnten 95 Prozent der Teilnehmer den hinterhältig geworfenen Ball fangen. In den anderen Modi waren sie gleichermaßen erfolgreich, doch die Fangstrategie hat sich geändert, war nur das Zielgebiet vorgegeben. In dem Fall wurde die Hand viel früher in den Zielbereich gestreckt.

Die Fähigkeit des Systems, den Flug des realen Balls vorherzusagen und zu visualisieren, gebe dem Fänger einen Vorteil, den er in der realen Welt nicht habe, sagt Pan. 


Teilen Sie die Meldung „Dynamische Interaktion mit realen Objekten in der Virtuellen Realität“ mit Ihren Kontakten:


Scroll to Top