Eye Tracking als Methode in Usability Tests
Wie nehmen wir unsere Umwelt war? Diese Frage ist nicht so einfach zu beantworten, wie sie klingt! Unser Sehfeld teilt sich in zwei Bereiche auf: Ein scharfes, sehr kleines Zentrum, in dem wir Farbe sehen können - die Fovea Centralis. Dieser Bereich umfasst nur 2 Grad - 1,5 mm. Der weite Bereich darum herum ist das periphere Sichtfeld. Dort sehen wir nur ungenau und schwarzweiß. Auch im peripheren Sichtfeld nehmen wir Informationen auf. Es ist aufgrund seiner Bauweise sehr empfindlich für Bewegung und Helligkeitsunterschiede. Diese können dort leichter wahrgenommen werden und die Aufmerksamkeit lenken.
Nun stellt jeder, der sich kurz die Zeit nimmt, fest, dass auch der Sehbereich außerhalb des kleinen scharfen Bereiches keinesfalls nur grau und unscharf erscheint. Hierfür ist die spätere Informationsverarbeitung verantwortlich: Um ein Objekt komplett zu betrachten, muss das Auge bzw. der foveale Punkt darüber wandern. Das Objekt wird gescannt und kann so auch erinnert werden. Geht der Fokus zum nächsten Punkt, merkt sich das Gehirn die vorherigen Eindrücke und fügt diese "Erfahrung" unserem Seheindruck hinzu. Das, das wir tatsächlich sehen, besteht also zum einen aus den tatsächlichen Informationen, die wir gerade wahrnehmen, aber auch aus Erfahrungen, die wir zu einem früheren Zeitpunkt gemacht haben.
Um ein Objekt oder auch einen Text wahrzunehmen, bewegt sich das Auge nicht gleichmäßig darüber hinweg. Es springt zwischen einzelnen Punkten hin und her, auch vor und zurück. Dieses Springen sind die sogenannten "Sakkaden". Die Sakkaden sind so schnell, dass wir in dieser Zeit nichts erkennen und keine Information aufnehmen können. In den Pausen zwischen den Sprüngen, den "Fixationen" gelingt dies umso besser. Es kann also nur während einer Fixation Information wahrgenommen und weiterverarbeitet werden.
Abb. 2: Sakkaden beim Lesen eines Textes. (Bildzitat: Prof. Dirk Wendt, Lesbarkeit von Druckschriften, Ein Beitrag zum Symposium der Typographischen Gesellschaft München am 13. und 14. November 1998. Die Zusammenfassung als Buch erschienen im Jahre 2000 unter dem Titel "Lesen Erkennen", Seite 11.)
Auch hier sehen wir, dass uns das Gehirn beim "Sehen" hilft: Es spielt uns vor, dass wir die ganze Zeit scharf sehen - das Bild ruckelt nicht. Die Sakkaden werden von uns nicht wahrgenommen. Weitere Mechanismen, die bei der Wahrnehmung zu Tragen kommen, sind die Gestaltgesetzte. Dies sind Organisationsprinzipien der visuellen Wahrnehmung und beschreiben Prozesse, warum der Mensch aus unendlich vielen Interpretationen einer Szene immer nur bestimmte wahrnimmt.
Hintergrundwissen für die Interpretation von Eye Tracking-Daten
Wie man sieht, kann Information also nicht nur im scharfen Sichtbereich, sondern auch im peripheren Bereich wahrgenommen werden. Wird dort ein starker hell-dunkel-Kontrast oder eine Bewegung wahrgenommen, kann der foveale Bereich und damit die Aufmerksamkeit des Nutzers dorthin gezogen werden.
Jedoch kann es durch das periphere Sehen auch zu einem Paradox im Eye Tracking kommen: So kann es sein, dass das Element laut der Eye Tracking-Auswertung nicht oder kaum angesehen wurde, aber der Proband es sehr stark in Erinnerung hat. So hat er es hauptsächlich über sein peripheres Sehfeld wahrgenommen. Dort ist die Sehkraft nicht mehr ausreichend, um Inhalt oder Designdetails wahrzunehmen. Dennoch reicht es für die generelle Seitenaufteilung oder Formerkennung. Aber man kann trotzdem festhalten: Nur die Elemente, die auch wirklich fixiert wurden, haben die Aufmerksamkeit des Nutzers erregt und wurden als relevant genug eingestuft, um dieses Element näher zu betrachten. Umgekehrt kann aber auch das gleiche passieren: Zwar schaut der Nutzer physikalisch auf das Objekt, ist aber in Gedanken an einer ganz anderen Stelle und kann sich im Nachhinein nicht mehr an das Element erinnern. In den allermeisten Fällen ist es aber dennoch so, dass der Nutzer auch das, was er gerade ansieht, auch tatsächlich wahrnimmt.
Abb. 3: Die Gesaltgesetzte (von links nach rechts): Gesetz der Geschlossenheit, Gesetz der Ähnlichkeit und das Gesetz Figur und Hintergrund
Einsatz von Eye Tracking in Usability-Studien
Eye Tracking ist eine gängige Methode um einen Usability Test zu ergänzen und weitere Einblicke in das Nutzerverhalten zu bekommen. Wichtig wie bei jeder Methode ist die dahinterliegende Fragestellung. Relevant beim Eye Tracking im Usability Test ist, dass die Interviewsituation das Blickverhalten beeinflusst. Daher sollte man den Probanden während des Use Cases genügend Freiraum lassen, die Aufgabe ohne Unterbrechung und bestenfalls auch ohne lautes Denken durchzuführen. Erst im Nachhinein sollte der Prozess im retrospektiven Interview nachbesprochen werden. Eye Tracking verlängert auch die Testzeit - die Kalibrierung und die geteilte Interviewführung benötigen mehr Zeit als ein normaler Usability Test ohne Eye Tracking. Die richtige Fragestellung ist daher umso wichtiger. Sinnvolle Einsatzgebiete für Eye Tracking im Labtest können daher sein:
- Variantenvergleiche in der Konzeptionsphase z. B. von Startseiten, Landingpages, Newslettern.
- Wahrnehmung bestimmter Seitenelemente: Ursachenforschung hinsichtlich fehlender Klicks auf einen Inhaltsbereich oder eine Funktion. Dies kann an mangelnder Nützlichkeit, Verständlichkeit oder an einem zu geringen Aufforderungscharakter liegen. Oder eben ihre Ursache in fehlender Wahrnehmung haben.
- Welche Eyecatcher werden auf einem Testobjekt identifiziert? Wie wird der Blick der Nutzer gelenkt (visuelles Guiding)? Entspricht der Blickverlauf Ihrer Nutzer & Kunden Ihren Wünschen und Vorstellungen?
- Wie lange werden einzelne Objekte betrachtet? Wann werden bestimme Objekte das erste Mal angesehen (Blickdauer und Time-to-Contact)?
- Textoptimierung: Welche Inhaltsbereiche werden von den Nutzern nur überflogen und welche werden tatsächlich gelesen? Wie ist die Verteilung der Aufmerksamkeit zwischen Grafik- und Textelementen?
Die Fragestellungen sollten sich daher auf spezifische Seiten (Startseite, Landingpage, etc.) und / oder Elemente beziehen (Header, Footer, Menü, Teaserflächen, etc.). Wichtig hierbei ist, dass Eye Tracking nicht komplett alle Fragen beantworten kann. Daher ist es essentiell, im Anschluss einen Usabilitytest inklusive retrospektivem Interview durchzuführen. Nur so erhält man auch Aussagen über die emotionale Bewertung der Seite und auch die Bewertung von inhaltlichen Aspekten. Beispielsweise kann es bei der Nichtbeachtung eines Textes daran liegen, dass der Nutzer den Inhalt schon kennt oder auch daran, dass die Lesbarkeit stark eingeschränkt ist und er deshalb den Text nicht gelesen hat.
Eye Tracking-Systeme heute
Früher war Eye Tracking für die Probanden häufig sehr unangenehm: Je nach technischem Stand musste der Kopf sogar fixiert werden und geblinzelt durfte auch nicht werden, da in diesen Fällen die Erkennung der Pupille verloren ging. Neuer waren dann schon die Eye Tracking-Helme - hier konnte der Kopf freier bewegt werden, da das System sich mit dem Kopf mitbewegt hat. Der Nachteil eines solchen Helms: Er ist sehr schwer und beeinflusst dadurch deutlich das natürliche Verhalten.
Grundsätzlich ist die dahinterliegende Logik von Eye Tracking-Technologien gleichgeblieben: Es gibt eine Kamera oder einen Sensor, der die Kopfposition errechnet (früher musste deswegen der Kopf fixiert werden, da dies nicht möglich war). Mit einer weiteren Kamera bzw. Sensor wird die Pupille aufgezeichnet (häufig dient hier eine Infrarot-Quelle zur Erfassung der Pupille genutzt, sogenanntes "bright/dark pupil tracking"). Durch die Kombination aus Kopfstellung und Pupille kann die Blickrichtung in Bezug auf das Eye Trackingsystem (z. B. am Monitor) erfasst werden.
Heutzutage ist der technische Aufbau im Vergleich zu Früher schon deutlich einfacher: Die Technik wird in jedem Jahr kleiner und gleichzeitig genauer. Teilweise ist sogar schon Eye Tracking mit der Webcam möglich! Grundlegend kann man folgende Systeme für den Einsatz in Usability Labors unterscheiden:
Screenrecording mit dem Remote Eyetracker
Abb. 4: Der T60 von Tobii
Eye Tracking an einem Monitor ist die komfortabelste aller Lösungen für die Probanden. Die gesamte Technik ist im / am Monitor verbaut und der Proband kann mit dem Gesamtsystem "PC" normal interagieren. Der Kopf muss nicht fixiert werden und auch der Blick kann vom Monitor abgewendet werden. Es gibt bei der Kaufentscheidung für einen solchen Eyetracker dabei die Möglichkeit, einen Komplettmonitor zu kaufen. Dort ist das gesamte Eye Trackingsystem im unteren Bereich des Monitors fest verbaut und fällt kaum auf. Möchte man flexibler bleiben, gibt es auch Sensorleisten, die an jeden Monitor mit Hilfe von wieder ablösbaren Klebestreifen oder Magneten (je nach Modell) angebracht werden können. Diese Variante des Eyetrackers liefert durch die mobile Einsatzweise leicht ungenauere Ergebnisse, die in einem Usability Test jedoch nicht zum Tragen kommen. Diese feinen Unterschiede werden erst in wissenschaftlichen Erhebungen relevant. Der große Vorteil dieser Sensorleisten liegt in der Unabhängigkeit vom Monitor. Die dazugehörige Software ermöglicht die Kalibrierung auf jede Bildschirmgröße (je nach Sensorleiste sind die Maximalmaße natürlich beschränkt). Man ist nicht, wie bei einem Eye Tracking-Monitor auf diesen Bildschirm beschränkt.
Beim Eye Tracking am Monitor ist die Eye Tracking Software auf dem selben PC installiert, auf dem auch das Testobjekt dargeboten wird. Dies bietet den großen Vorteil, dass während der Studiendurchführung direkt Screenshots des Testobjektes durch die Eye Trackingsoftware erstellt werden und die Blickaufzeichnung direkt den unterschiedlichen Stati des Testobjektes zugeschrieben werden können: Der Monitor sowie der Eyetracker sind fix verbaut, die Position ist damit eindeutig, so dass der Mensch als variable Größe sich frei bewegen kann.
Eye Tracking auf mobilen Endgeräten
Abb. 5: Eye Tracking auf dem Smartphone mit dem X2-30 von Tobii und dem Device Stand. Die Sensorleiste ist am unteren Ende eingebaut. |
Für das Eye Tracking auf Smartphones, Tablets & co. benötigt man neben der Technik für den Eyetracker einen sogenannten "Device Stand". Dieser Aufbau ist notwendig, um das Testgerät in einer fixen Position zu halten. Als Eyetracker ist hierfür die oben erwähnte Sensorleiste notwendig. Diese wird unterhalb des Testgerätes, z. B. einem Tablet auf dem Devicestand montiert. Der Eyetracker befindet sich also nicht direkt am Testgerät. Um die Blickrichtung dennoch richtig zuordnen zu können, muss das Testgerät fixiert werden, um die Blickrichtung des Probanden in die Position zu lenken, in der auch der Eyetracker den Blick erkennen und aufzeichnen kann. Das Drehen in Landscape- oder Portrait-Ansicht ist aber weiterhin möglich.
Beim Eye Tracking auf mobilen Endgeräten ist zudem das Testgerät (z. B. Tablet) nicht mit dem PC und der Eye Tracking-Software verbunden. Der Eyetracker "erkennt" somit nicht automatisch, auf welcher Seite einer mobilen Webseite oder App sich der Proband befindet. Dies muss im Nachhinein manuell getrennt und ausgewertet werden.
Verläuft das Eye Tracking als auf einem Testobjekt, das unabhängig vom Eye Trackingsystem genutzt wird (dies können auch Zeitschriften sein), sieht man zwar, wo der Nutzer auf den Testgegenstand schaut, aber nicht, was genau er tatsächlich sieht: Denn nur die Grenzen des Testgegenstandes können mit dem Eyetracker erkannt werden - nicht der Inhalt.
Head-mounted Eyetracker
Abb. 6: Die Tobii Pro Glasses 2 im Einsatz im Supermarkt. (Bild-Quelle: http://www.tobiipro.com/product-listing/tobii-pro-glasses-2/)
Ähnlich verhält es sich auch mit sogenannten Head-mounted Eyetrackern. Diese sind bezüglich des Tragens wie Brillen aufgebaut. Diese Eye Tracking-Systeme sind demnach fest auf dem Kopf des Probanden angebracht. Dabei wird sowohl das Auge gefilmt (um die Blickrichtung der Pupille zu erkennen) als auch die Umgebung. Mittlerweile sind diese Systeme so leicht (z. B. wiegt die Head Unit der Tobii Pro Glasses 2 nur 45 Gramm!), dass sie immer weniger auffallen. Ein kleiner Nachteil bleibt aktuell noch: Es ist mindestens ein Kabel zu einer mobilen Aufzeichnungseinheit notwendig. Dieses kann der Proband jedoch in der Hosentasche tragen.
Mit solchen head-mounted Eyetrackern ist das Eye Tracking in jeglicher Umgebung möglich. Die Einsatzgebiete reichen vom Zeitungslesen, Gang durch den Supermarkt bis hin zum Fahren im Fahrzeug.
Aber auch hier zeigt sich: Die nachträgliche Auswertung wird aufgrund der hohen Flexibilität aufwendig. Erleichterung schaffen hier sogenannte "Marker". Diese werden in der Testumgebung platziert. Häufig werden dazu unterschiedliche QR-Codes genutzt, aber auch Infrarot-Marker für dunklere Umgebungen kommen zum Einsatz. Diese Marker dienen der Eye Tracking-Software zur Orientierung und legen fixe Koordinaten fest. Im Nachhinein können die Blicke anhand dieser Koordinaten der Testumgebung zugeordnet werden. Aber auch hier zeigt sich: Sieht der Proband auf einen Bildschirm, erkennt die Eye Trackingsoftware zwar den Monitor, aber auch hier bleibt der Bildschirminhalt für den Eyetracker unsichtbar.
Eye Tracking in VR-Welten
Wer die aktuellen Trends mitverfolgt erkennt schnell: VR-Brillen und Anwendungen fluten langsam den Markt und machen das 360°-Erlebnis für die breite Masse zugänglich. Dieses neue Anwendungsgebiet bietet eine riesige Bandbreite an Möglichkeiten. Sie stellt aber auch alle vor neue Herausforderungen. Auch hier ist die Usability wichtiger denn je: Die Bedienung geht weg vom Touch-Display hin zur Blicksteuerung oder der Bedienung über einen externen Controller in Kombination mit dem neuen Wahrnehmungserlebnis muss intuitiver denn je werden.
Essentiell ist es daher, auch in virtual und augmented Reality Umgebungen zu testen - auch mit Eye Tracking. Und das ist mittlerweile möglich! SMI ist damit einer der ersten Hersteller, der sowohl eine eigene Eye Tracking-Brille als auch den dazugehörigen Eyetracker entwickelt.
Quellen:
1. Jakob Nielsen and Kara Pernice. 2009. Eyetracking Web Usability (1st ed.). New Riders Publishing, Thousand Oaks, CA, USA.
2. Comparing Bright and Dark Pupil Tracking Techniques (2014)(http://eyecomcorp.com/eye-tracking/comparing-bright-dark-pupil-tracking-techniques/)
3. Eye-Tracking (2015) (https://www.e-teaching.org/didaktik/qualitaet/eye)
4. W. Beinert (2015) Fixationen (http://www.typolexikon.de/fixationen/)
5. Dr. Thomas Wirth (2009) Die Gesetze der Nähe und Ähnlichkeit (http://www.kommdesign.de/texte/gestaltpsychologie1.htm)
6. Tobii Pro Products (2016) (http://www.tobiipro.com/product-listing/tobii-pro-glasses-2/)
7. Virtual Reality: Eye-Tracking (2016) (https://vrodo.de/virtual-reality-augentracking-mit-250hz/)
8. VR Brille mit Eye-Tracking (2015) (http://www.onlyvr.de/hardware/113-fove-vr-brille-mit-eye-tracking)
9. Melanie Wieland (2016) Sind Sie noch 16:9 oder schon 360°? Ein Einblick in die virtuelle Welt für zuhause am Beispiel der Samsung Gear VR und des Universe2go (http://www.usabilityblog.de/2016/03/sind-sie-noch-169-oder-schon-360-ein-einblick-in-die-virtuelle-welt-fuer-zuhause-am-beispiel-der-samsung-gear-vr-und-des-universe2go/)
10. Universität Augsburg (2014) Visuelle Wahrnehmung (http://www.physik.uni-augsburg.de/~ferdi/sinnesorgane/visuelle_wahrnehmung.pdf)
Sind Sie anderer Meinung?
Ihre Rückmeldung zu diesen Überlegungen und Thesen interessiert uns sehr.
Schreiben Sie uns!
- Melanie Wieland
- +49 551 49569-334
- melanie.jotz(at)eresult.de
Sie wollen den Forschungsbeitrag zitieren? Gerne können Sie folgende Quellenangabe nutzen:
Jotz, Melanie (2016): Eye Tracking: Mit dem richtigen Einsatz zum Erfolg, In: Forschungsbeiträge der eresult GmbH, URL: www.eresult.de/ux-wissen/forschungsbeitraege/einzelansicht/news/eyetracking-ein-ueberblick/