Benutzerschnittstellen: Besser steuern mit den Augen

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print
Technologie und natürliche Körperbewegungen sollen durch die neuartige Benutzerschnittstelle von Quantum Interface noch besser synchronisiert werden. Diese kombiniert Eye-Tracking und Bewegungssteuerung.
qi_vari_netflixdemo_quantuminterface

Quantum Interface präsentiert prädiktives bewegungsbasiertes Eye-Tracking für AR/VR-Headsets und Head-Up-Displays in Autos. Technologie und unsere natürlichen Körperbewegungen sollen durch die neue Benutzerschnittstelle von Quantum Interface noch besser synchronisiert werden. Diese kombiniert Eye-Tracking und Bewegungssteuerung.  

Die Augen sind die Teile des menschlichen Körpers, die sich am schnellsten bewegen können. Doch bisher gab es keine Steuerung, die dem hohen Tempo der Augenbewegungen gerecht werden konnte. Hier setzt die Lösung von Quantum Interface an: Durch das einfache Bewegen des Augapfels lassen sich viele Geräte und Autos vorausschauend steuern. Dazu ist kein Anstarren oder Fixieren der Objekte  notwendig.

„Die Interaktion mit Technologie sollte Spaß machen und einfach sein. Sie sollte darüber hinaus natürlich und intuitiv sein. Wenn man darüber nachdenkt, so schauen wir mit den Augen, um zu sehen was wir wollen, bevor wir irgendetwas machen“, sagt Jonathan Josephson, COO/CTO von Quantum Interface. Das Unternehmen hat mit EyeTech Digital Systems an der CES 2016 zusammengearbeitet, um die schnellsten und natürlichsten Weg des Interagierens im Auto oder für AR/VR-Head-Mounted-Displays aufzuzeigen.

Quantum Automotive Head Up Display (QiHUD)

Ablenkung beim Fahren hat auf den Straßen schon epidemische Ausmaße angenommen und bei Verkehrsunfällen im Jahr 2013 in den USA zu  mehr als 3‘000 Todesopfern geführt. Eine grundlegende Möglichkeit, dem entgegenzuwirken, besteht darin, die Aufmerksamkeit und damit die Augen dauerhaft auf der Straße zu halten.  Das Quantum Automotive Head Up Display kombiniert Eye Tracking und prädiktive Technologie, um die Steuerung während der Fahrt einfacher anzupassen. Der Eye Tracker nimmt die Blickrichtung wahr und die Absicht des Anwenders wird per Berührung oder Stimme antizipiert und bestätigt.

Quantum Virtual Augmented Reality Interface (QiVARI) mit Eye Tracking ist die erste prädiktive Schnittstelle für AR-/VR-Umgebungen. Eine Eye-Tracking-Lösung von Google, an der Messe CES kürzlich gezeigt, kombiniert die Schnittstelle zur Bewegungssteuerung von Quantum mit dem Eye Tracking, um so den Herstellern von Wearables eine schnellere, einfachere und natürlichere Benutzerschnittstelle liefern zu können.

Während aktuelle Gestensteuerungen oft langsam und lernintensiv ist, soll die Bewegungssteuerung von Quantum schnell und für die Anwender einfach zu verstehen sein, die sich dann ohne Weiteres auf natürliche Weise bewegen können.

„Wir fügen der Benutzerschnittstelle ein viertes Element hinzu. Sie kennen wahrscheinlich die drei Möglichkeiten, Geräte zu steuern: Berührung, Gesten und Stimme. Unser Interface arbeitet mit allen dreien und ergänzt sie um zusätzliche Funktionalität. Sie kann auch allein als dynamische Bewegungs- und Eye-Tracking-Schnittstelle dienen, die die Absicht des Anwenders vorhersagt“, sagt Josephson.

Bild: TV steuern mit den Augen.

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken
Werbung

Redaktionsbrief

Tragen Sie sich zu unserem Redaktionsbrief ein, um auf dem Laufenden zu bleiben.

Oft gelesen

Noch keine Daten vorhanden.

Aktuelle Ausgabe

Topthema:

Mehr erfahren

Entdecken Sie weitere Magazine

Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.