Die Brille, die weiß, was man sieht

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Die Brille, die weiß, was man sieht

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print
dfki_brille
DFKI entwickelt Technologien für aufmerksamkeitsgesteuerte AR-Anwendungen / Systemdemonstration „Talking Places“ auf der CeBIT 2013.
Man betrachtet einen Gegenstand, ein Gebäude oder eine Person — entsprechend dem Interesse bekommt man Informationen dazu in seine Bille eingeblendet oder über einen Kopfhörer abgespielt. Die multimedialen Informationen kommen aus dem Internet und verschmelzen mit der real sichtbaren Welt zu einer „Erweiterten Realität“ (Augmented Reality). Um diese Vision zu verwirklichen, entwickelt der Forschungsbereich Wissensmanagement des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) in Kaiserslautern Softwaretechnologien für Datenbrillen und mobile Eyetracker. Die Forscher erarbeiten hierzu neuartige Methoden der Informationsverarbeitung, um so „Augmented Reality“ für unterschiedliche Einsatzgebiete verfügbar zu machen.

Die Wissenschaftler um Prof. Dr. Andreas Dengel haben bereits einen Prototypen entwickelt, der in Kooperation mit dem Museum Pfalzgalerie Kaiserslautern (mpk) als digitaler Museumsführer erprobt wurde. Der sogenannte „Museum Guide 2.0“ bestimmt zunächst die Blickrichtung des Benutzers und lokalisiert, welches Exponat er gerade betrachtet. Sobald das System das Interesse des Besuchers erkennt, liefert es ihm über Kopfhörer Informationen zum entsprechenden Objekt. Dabei ist es wichtig, den Fokus des Benutzerinteresses präzise zu bestimmen, so dass die tatsächlich relevanten Informationen zur Verfügung gestellt werden können.

Als Hardware nutzen die Forscher den mobilen Eyetracker „SMI Eye Tracking Glasses“ des Teltower Herstellers SensoMotoric Instruments (SMI). Über eine in den Brillenrahmen integrierte Kamera wird das Blickfeld des Nutzers erfasst. Zwei auf die Augen gerichtete Infrarotkameras erfassen gleichzeitig die Blickrichtung der Augen. Ein vom DFKI entwickeltes Verfahren erkennt aus den erfassten Daten spezielle Muster, die auf das Interesse des Benutzers schließen lassen. Diese Aufmerksamkeitsanalyse eröffnet ein breites Spektrum an neuen Diensten.

Ein weiteres Anwendungsszenario soll erstmals auf der CeBIT 2013 der Öffentlichkeit präsentiert werden: „Talking Places“. Das auf Geodaten aufbauende Assistenzsystem liefert selektiv ortsbezogene Informationen zu Gebäuden und Sehenswürdigkeiten und zeigt so eindrucksvoll, wie Besucher in Zukunft eine Stadt interaktiv erleben und entdecken können. An die Stelle des Abrufens von Informationen über ein konventionelles Eingabegerät, beispielsweise ein Smartphone, rückt die Auswertung von Augenbewegung und Szenenbild. Das System identifiziert Objekte visuell oder anhand ihrer Geokoordinaten und gibt dazu passende Informationen über einen Lautsprecher aus. Auf dem Stand des DFKI können Besucher das System an einem Miniaturmodell des Kaiserslauterner St. Martinsplatzes ausprobieren und selbst erfahren.

Der Einsatz einer Kombination aus Eye-Tracker und Head-Up-Display in diesem Szenario ist Gegenstand der aktuellen Forschungen des DFKI. Dabei sollen neben den akustischen Informationen grafische Einblendungen der Realität in das Sichtfeld eingeblendet werden, beispielsweise historische Fotos von Sehenswürdigkeiten und Gebäuden, Wetterdaten, persönliche Kontakte, Wegbeschreibungen oder Angebote von Geschäften.

Bild: Talking Places: Beim betrachten einer Sehenswürdigkeit werden passende Informationen über einen Ohrhörer abgespielt. Bild DFKI/SMI
Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken

Ihre Meinung zum Artikel

Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments

Andere Leser haben sich auch für die folgenden Artikel interessiert

Faro, Anbieter für Produktdesign, BIM/CIM im Bausektor und öffentliche Sicherheit/Forensik, gibt die Einführung seiner Virtual-Reality-fähigen Software Faro Scene 7.1 bekannt. Die Software ermöglicht ein immersives VR-Erlebnis mit Integration detaillierter fotografischer Texturen sowie Oberflächendetails eines Objekts und einem so schnellen Rendering von 3D-Scandaten, dass diese in Echtzeit realisiert erscheinen.

In den Microsoft Mixed Reality Studios in London, zuständig für HoloLens-Entwicklungen in ganz Europa, haben die Mitglieder des Porsche-Design-Teams aus Weissach mit den CGI-Experten von Meyle+Müller und Mixed Reality-Entwicklern von medialesson demonstriert, wie sich die Modellierung von Design-Veränderungen an einem Clay-Modell mittels holografischer Elemente spürbar beschleunigen lässt. Bei diesem Modell im Maßstab 1:3 handelt es sich um eine originalgetreue Abbildung eines neuen Fahrzeugs.

Der Columbia-Engineering-Professor Steven K. Feiner und Ajoy Fernandes MS'16 haben eine Methode entwickelt, die der Übelkeit durch VR-Anwendungen entgegen wirkt. Sie lässt sich mit HMDs wie Oculus Rift, HTC Vive, Sony PlayStation VR und Google Cardboard einsetzen. Ihre Idee ist es, abhängig von der visuell wahrgenommenen Bewegung, das Sichtfeld der Anwender dynamisch, aber fast unmerklich zu verändern, wenn diese etwa eine Umgebung virtuell durchschreiten.

Tragen Sie sich jetzt kostenlos und unverbindlich ein, um keinen Artikel mehr zu verpassen!

    * Jederzeit kündbar

    Entdecken Sie weitere Magazine

    Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

    Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.