Gaze-supported Interaction with Smart Objects through an Augmented Reality User Interface

DSpace Repository

Gaze-supported Interaction with Smart Objects through an Augmented Reality User Interface

Details

Files for download Overview of item record
Publication Bachelor thesis
Title Gaze-supported Interaction with Smart Objects through an Augmented Reality User Interface
Author Kaaman, Albert ; Bornemark, Kalle
Date 2017
English abstract
Smart devices are becoming increasingly common and technologically advanced. As a result, convenient and effective approaches to everyday problems are emerging. However, a large amount of interconnected devices result in systems that are difficult to understand and use. This necessitates solutions that help users interact with their devices in an intuitive and effective way. One such possible solution is augmented reality, which has become a viable commercial technology in recent years. Furthermore, tracking the position of users’ eyes to navigate virtual menus is a promising approach that allows for interesting interaction techniques. In this thesis, we explore how eye and head movements can be combined in an effort to provide intuitive input to an augmented reality user interface. Two novel interaction techniques that combine these modalities slightly differently are developed. To evaluate their performance and usability, an experiment is conducted in which the participants navigate a set of menus using both our proposed techniques and a baseline technique. The results of the experiment show that out of the three evaluated techniques, the baseline is both the fastest and the least error-prone. However, participants prefer one of the proposed techniques over the baseline, and both of these techniques perform adequately. Furthermore, the quantitative data shows no measurable differences between the proposed techniques, although one of them receives a higher score in the subjective evaluations.
Swedish abstract
Smarta enheter blir allt vanligare och teknologierna de använder blir allt mer avancerade. Som en följd av detta uppstår bekväma och effektiva lösningar till vardagliga problem. En stor mängd sammankopplade smarta enheter leder dock till system som är svåra att förstå och att använda. Detta ställer krav på lösningar som hjälper användare att interagera med enheter på ett intuitivt och effektivt sätt. En teknik som under de senaste åren blivit allt mer kommersiellt brukbar och som kan användas i detta syfte är augmented reality. Vidare så är spårning av ögonpositioner ett lovande tillvägagångssätt för att navigera virtuella menyer. Denna uppsats har som syfte att utvärdera hur ögon- och huvudrörelser kan kombineras för att låta användare på ett intuitivt sätt interagera med ett gränssnitt i augmented reality. För att uppnå detta tas två interaktionsmetoder fram som använder ögon- och huvudrörelser på något olika sätt. För att utvärdera deras prestanda och användbarhet så utförs ett experiment där deltagarna navigerar en uppsättning menyer både med hjälp av de framtagna metoderna och en beprövad referensmetod. Resultaten från experimentet visar att referensmetoden både är den snabbaste och den minst felbenägna ut av de tre utvärderade metoderna. Trots detta så föredrar deltagarna en av de framtagna metoderna, och båda dessa metoder uppnår adekvata resultat. Vidare så visar den kvantitativa datan inte på några mätbara skillnader mellan de framtagna metoderna. Däremot så uppnår en av dem högre resultat i de subjektiva utvärderingarna.
Publisher Malmö högskola/Teknik och samhälle
Pages 41
Language eng (iso)
Subject augmented reality
gaze tracking
head pointing
microsoft hololens
eye tracker
user interface
toolglass
Handle http://hdl.handle.net/2043/22998 Permalink to this page
Facebook

This item appears in the following Collection(s)

Details

Search


Browse

My Account

Statistics