27.01.2016 – Kategorie: IT

Benutzerschnittstellen: Besser steuern mit den Augen

qi_vari_netflixdemo_quantuminterface

Technologie und natürliche Körperbewegungen sollen durch die neuartige Benutzerschnittstelle von Quantum Interface noch besser synchronisiert werden. Diese kombiniert Eye-Tracking und Bewegungssteuerung.

Quantum Interface präsentiert prädiktives bewegungsbasiertes Eye-Tracking für AR/VR-Headsets und Head-Up-Displays in Autos. Technologie und unsere natürlichen Körperbewegungen sollen durch die neue Benutzerschnittstelle von Quantum Interface noch besser synchronisiert werden. Diese kombiniert Eye-Tracking und Bewegungssteuerung.  

Die Augen sind die Teile des menschlichen Körpers, die sich am schnellsten bewegen können. Doch bisher gab es keine Steuerung, die dem hohen Tempo der Augenbewegungen gerecht werden konnte. Hier setzt die Lösung von Quantum Interface an: Durch das einfache Bewegen des Augapfels lassen sich viele Geräte und Autos vorausschauend steuern. Dazu ist kein Anstarren oder Fixieren der Objekte  notwendig.

„Die Interaktion mit Technologie sollte Spaß machen und einfach sein. Sie sollte darüber hinaus natürlich und intuitiv sein. Wenn man darüber nachdenkt, so schauen wir mit den Augen, um zu sehen was wir wollen, bevor wir irgendetwas machen“, sagt Jonathan Josephson, COO/CTO von Quantum Interface. Das Unternehmen hat mit EyeTech Digital Systems an der CES 2016 zusammengearbeitet, um die schnellsten und natürlichsten Weg des Interagierens im Auto oder für AR/VR-Head-Mounted-Displays aufzuzeigen.

Quantum Automotive Head Up Display (QiHUD)

Ablenkung beim Fahren hat auf den Straßen schon epidemische Ausmaße angenommen und bei Verkehrsunfällen im Jahr 2013 in den USA zu  mehr als 3‘000 Todesopfern geführt. Eine grundlegende Möglichkeit, dem entgegenzuwirken, besteht darin, die Aufmerksamkeit und damit die Augen dauerhaft auf der Straße zu halten.  Das Quantum Automotive Head Up Display kombiniert Eye Tracking und prädiktive Technologie, um die Steuerung während der Fahrt einfacher anzupassen. Der Eye Tracker nimmt die Blickrichtung wahr und die Absicht des Anwenders wird per Berührung oder Stimme antizipiert und bestätigt.

Quantum Virtual Augmented Reality Interface (QiVARI) mit Eye Tracking ist die erste prädiktive Schnittstelle für AR-/VR-Umgebungen. Eine Eye-Tracking-Lösung von Google, an der Messe CES kürzlich gezeigt, kombiniert die Schnittstelle zur Bewegungssteuerung von Quantum mit dem Eye Tracking, um so den Herstellern von Wearables eine schnellere, einfachere und natürlichere Benutzerschnittstelle liefern zu können.

Während aktuelle Gestensteuerungen oft langsam und lernintensiv ist, soll die Bewegungssteuerung von Quantum schnell und für die Anwender einfach zu verstehen sein, die sich dann ohne Weiteres auf natürliche Weise bewegen können.

„Wir fügen der Benutzerschnittstelle ein viertes Element hinzu. Sie kennen wahrscheinlich die drei Möglichkeiten, Geräte zu steuern: Berührung, Gesten und Stimme. Unser Interface arbeitet mit allen dreien und ergänzt sie um zusätzliche Funktionalität. Sie kann auch allein als dynamische Bewegungs- und Eye-Tracking-Schnittstelle dienen, die die Absicht des Anwenders vorhersagt“, sagt Josephson.

Bild: TV steuern mit den Augen.


Teilen Sie die Meldung „Benutzerschnittstellen: Besser steuern mit den Augen“ mit Ihren Kontakten:

Zugehörige Themen:

Visualisierung & VR

Scroll to Top