Analysiert: Eyetracking oder Simulation – Mythos oder Wahrheit?

Der Blick des Menschen ist ein direkter Kanal ins Innerste der Seele - sagt man. Die Bewegungen der Augen verraten uns, was für Betrachter von Websites wirklich interessant ist. Im Eyetracking werden diese Informationen in bunte, managementkonforme Heatmaps umgewandelt.

Aber ist es wirklich so kompliziert? Benötigt man einen teuren Eyetracker um zu den Erkenntnissen zu gelangen? Folgt das Auge überhaupt inhaltlichen Aspekten oder geht es eher um grafische Kontraste? So genannte "Eyetracking-Simulationen" prognostizieren den Blickverlauf anhand bekannter Muster und können dadurch aufwändige Eyetracking-Studien ersparen.

Die Simulation ist also deutlich günstiger - kann dafür einige inhaltliche Abhängigkeiten nicht berücksichtigen. Dazu zählen unterschiedliche Effekte, so zum Beispiel die Tatsache, dass Menschen relevante Inhalte stärker verfolgen werden, als nicht relevante Inhalte. Zusätzlich existieren soziale Muster. Menschen schauen stärker auf die Gesichter anderer Menschen um früh eine Einschätzung vornehmen zu können.

Vor einigen Wochen erschien nun ein spannender Artikel in mehreren Internet-Magazine (u.a. in t3n, internetworld, etc.), der einige so genannte "Mythen" der User-Experience enttarnen möchte - primär ging es um genau die zuvor erwähnten inhaltlichen Abhängigkeiten.

In dem genannten Artikel werden drei Hypothesen des Simulations-Anbieters untersucht:

  1. Nutzer schauen überhaupt nicht stärker auf die Gesichter anderer Menschen.
  2. Große Texte (z.B. Headlines) erzeugen nicht mehr Aufmerksamkeit
  3. Worte wie "Free" werden ebenfalls nicht häufiger fixiert als andere Begriffe

Diese Hypothesen haben uns - bis auf Nummer 3. - stutzig gemacht, schließlich arbeiten Conversion-Designer weltweit nach diesen Prinzipien.

Der Simulations-Anbieter sagt, man könne durch eine Eyetracking-Studie beweisen, dass die Hypothesen stimmen. Parallel veröffentlicht der Artikel im direkten Vergleich die Resultate der Eyetracking-Simulation um indirekt zu beweisen, dass die Resultate dieses Systems eine höhere Validität haben, als zuvor angenommen. Die inhaltliche Ebene sei ja deutlich unbedeutender als bisher geglaubt. Das hat uns doch sehr stutzig gemacht.

Ist das wirklich so?

Sind unsere Annahmen über die inhaltliche Bedeutung von Webseiten wirklich so verkehrt? Wir haben die Resultate dieser Studie mit unserem eigenen Eyetracker überprüft. (Danke übrigens an Hendrik Schöpe, der bei der Analyse tatkräftig unterstützt hat!) Dabei haben wir festgestellt, dass die Simulation prinzipiell richtige Resultate liefert - die inhaltliche Ebene muss jedoch deutlich differenzierter betrachtet werden.

Dabei möchte ich unsere Motivation, dies zu überprüfen, kurz erklären: Wir arbeiten seit vielen Jahren mit Eyetracking-Analysen und haben schon viele Phänomene gesehen. Jeder, der viele Eyetracking-Resultate gesehen hat, kennt tatsächlich die Muster, die den Blickverlauf steuern. Es ist naheliegend, die Muster vorherzusagen. Wir kennen jedoch auch die Anziehungskraft der richtigen Inhalte und die "Kraft" sozialer Heuristiken. Uns liegt viel daran, dass die bekannten Gesetzmäßigkeiten überprüft werden. Daher haben wir die Resultate hinterfragt.

„Gesichter erzeugen immer und sofort Aufmerksamkeit“ - Mythos oder Wahrheit?

Diese Seite wurde analysiert:

Eyetracking-Original

Die Hypothese der Eyetracking-Simulations-Anbieter: Der soziale Mechanismus von Menschen, verstärkt auf Gesichter zu schauen, lässt sich in der Realität nicht beweisen. Gesichter erzeugen keine erhöhte Aufmerksamkeit.

Die Hypothese wird mit einem Vergleich zwischen Eyetracking und "Eyetracking-Simulation" quasi bewiesen. (Ich nehme hier mal einen Original-Screenshot aus einem der Artikel):

Eyetracking versus Simulation

Quelle: http://t3n.de/news/eyequant-eye-tracking-mythen-525413/

Was mich bei dem Eyetracking-Resultat des Anbieters (linker Screenshot) ehrlich gesagt verwundert hat, sind zwei Dinge.

  1. Ich habe in hunderten von Eyetracking-Resultaten gelernt, wie stark die Menschen zuerst auf ein Logo schauen. Die Frage "Wo bin ich hier überhaupt?" ist in den ersten Sekunden der Blickkontakte sehr wichtig. Das Tool sagt dies auch voraus - ich nehme jedoch an, eher aus "grafischen" Gründen. Der Weiß-Rot-Kontrast des Logos ist sehr hoch - dies zieht tatsächlich Aufmerksamkeit auf sich. Im Eyetracking links ist davon aber nichts zu sehen. Warum?
  2. Weder in der Simulation (rechter Screenshot) noch im echten Eyetracking schaut tatsächlich jemand auf das Gesicht des rechten Mannes. Warum schaut niemand auf das Gesicht? Das Gesicht des linken Mannes ist nicht zu erkennen - kein Wunder, dass kaum Fixationen im Eyetracking dort erkennbar sind. Aber was ist mit dem rechten Mann?

Wie gesagt: Uns haben diese Resultate derart verwundert, dass wir den Versuch in unserem Labor nachgestellt haben.

Die Resultate aus unserem Eyetracking Labor:

Eyetracking nach Zeit

Wir haben mit 25 Probanden den gleichen Screenshot analysiert. Die Bilder oben zeigen die Fixationen als Heatmap für unterschiedliche Zeitpunkte.

Die (für Experten nicht so interessante) Erkenntnis: Der Blickverlauf verändert sich natürlich im Laufe der Zeit. Welches Element wie stark Aufmerksamkeit an sich zieht, hängt von der analysierten Betrachtungsdauer ab.

Nach zwei Sekunden: Es lässt sich in der Tat eine relativ starke Aufmerksamkeit auf dem Logo des Anbieters erkennen und nur eine "mittelschwache" Aufmerksamkeit auf dem Gesicht des rechten Mannes.

Wird diese Aufmerksamkeit weiter abnehmen? Was passiert nach fünf Sekunden?

Nein - die Probanden schauen im Laufe der Zeit mehrmals auf das Gesicht des Mannes. Nur die Aufmerksamkeit unter dem Gesicht des linken Mannes nimmt imm weiter ab - für uns logisch, denn er schaut uns ja auch nicht an, sein Gesicht ist nicht erkennbar.

Fazit nach 10 Sekunden: Die vorhergesagte Aufmerksamkeitsverteilung stimmt recht gut - allerdings schauen in der Realität die Menschen tatsächlich auf das Gesicht. Dass die Headline so viel Aufmerksamkeit bekommt ist klar - sie muss schließlich gelesen werden.

Der Anziehungskraft menschlicher Gesichter ist kein Mythos - es stimmt tatsächlich. 

Wichtige Abgrenzung: Weder das Eyetracking noch die Simulation verraten uns jedoch, wie die Betrachter das Bild qualitativ interpretieren. Finden Sie die Seite interessant oder gar sympathisch? Würden Sie weiter klicken? Wenn nicht - warum nicht? Eyetracking alleine ist eine quantitative Methodik. Deren Simulation natürlich auch. Für Conversion-Optimierer macht diese Methodik jedoch am meisten Sinn im Rahmen einer qualitativen Befragungstechnik, die gleichzeitig Antworten auf diese Fragen liefert.

Doch zurück zu unserem Thema.

Ein weiterer "Mythos" in dem Artikel des Anbieters für Eyetracking-Simulation lautete:

„Großer Text erzeugt große Aufmerksamkeit“ - Mythos oder Wahrheit?

Die analysierte Seite sah so aus:

Eyetracking M2 Original

Die Hypothese des Anbieters lautete: "Großer Text erzeugt nicht automatisch mehr Aufmerksamkeit."

Die Resultate "Eyetracking versus Simulation" des Anbieters kommen zu folgendem Ergebnis:

m2_eyetracking_vs_simulation

Quelle: http://t3n.de/news/eyequant-eye-tracking-mythen-525413/

Die Resultate sollen zeigen, dass im Gegensatz zur Headline die drei Texte in den Teaser-Elementen deutlich mehr Aufmerksamkeit bekommen. Auch hier schauen wir uns die Resultate mit 25 Probanden in der zeitlichen Reihenfolge an:

m2_resultate_unspez

Auch hier können wir deutlich erkennen, dass die Hypothese nicht widerlegt werden konnte. Menschen lesen als erstes die große Headline. Allerdings sind sie nach einigen Sekunden damit fertig und beginnen entweder den Fließtext oder die Inhalte der Teaser zu scannen. Diese sind durch die grafische Invertierung auch besonders aufmerksamkeitsstark gestaltet.

Es zeigt sich: Die Aufmerksamkeit ändert sich im zeitlichen Verlauf. Je nach dem, welchen "Ausschnitt" ich wähle, kann die Aufmerksamkeitsverteilung insgesamt variieren.

Aber: Egal, wie ich es drehe und wende - beim Scannen der Seite wird großer Text als erstes gelesen.

Vorsicht: Der Blickverlauf verändert sich im Kontext

Ob die Probanden allerdings den Fließtext oder die Teaser durchlesen, lässt sich durch den Kontext bzw. die Aufgabe im Briefing verändern. In unserem Experiment wurde etwa die Hälfte der Probanden unspezifisch gebrieft ("schauen Sie mal diese Seite an") und die andere Hälfte wurde spezifischer instruiert ("Informieren Sie sich über diesen Anbieter").

Die Fixationen auf den Fließtext verändert sich deutlich, sobald Probanden die Aufgabe "Informieren Sie sich über diesen Anbieter" erhalten haben:

m2_resultate_spez

Jetzt erhält ab ca. fünf Sekunden der Fließtext auf einmal eine deutlich höhere Aufmerksamkeit als die Teaser unten. Ist ja auch logisch, unsere Probanden wollen nun wissen, welches Angebot dieser Anbieter im Detail hat. Sie informieren sich.

Fazit: Großer Text wird wahrgenommen. In den ersten Sekunden ist dies das deutlich am stärksten fixierte Element. Auch die drei Teaser unten arbeiten übrigens mit relativ großem Text.

Zusätzlich: Wohin Menschen schauen, hängt stark vom inhaltlichen Kontext ab, von ihrer Aufgabe und ihrer Motivation. Das ist im Eyetracking bereits schwer zu realisieren, kann jedoch durch ein korrektes Briefing gesteuert werden. Bei der Simulation geht der inhaltliche Kontext natürlich unter.

Gesamtfazit

Die Eyetracking Simulation liefert - abgesehen von den beiden im Artikel vorgestellten Kernhypothesen - einigermaßen zuverlässige Resultate. Die Resultate basieren auf den Gesetzmäßigkeiten, die auch gute Designer beherrschen. Es ist jedoch durchaus ratsam, neue Designs über derartige Tools zu analysieren - dies gibt jedem Gestalter sehr früh und kostengünstig ein gutes Gefühl für den Einsatz visueller Hierarchien zur Steuerung des Blickverlaufs. Allerdings gehen die inhaltlichen Kontexte bei der Analyse per Simulation verloren.

Wir möchten derartige Tools nicht schlecht da stehen lassen. Aber:

Was wir allerdings gar nicht mögen ist, wenn die Existenz sozialer und inhaltlicher Kontexte widerlegt werden soll. Es bleibt ein merkwürdiger Beigeschmack, vor allem beim Lesen des doch recht werblichen Abbinders.

Uns ist wichtig, dass die Designer und Konzeptioner da draußen wissen: Die "guten alten" Regeln existieren doch. Es war kein Mythos. Menschen schauen auf Gesichter und sie lesen zuerst große Texte.

Fazit:

  1. Es stimmt doch: Menschen schauen zuerst auf Gesichter und auf große Headlines
  2. Die Aufmerksamkeit verändert sich natürlich im Laufe der Zeit - wichtig ist: Was gelangt zuerst in den Kopf der Nutzer?
  3. Simulationen liefern eine relativ zuverlässige Vorhersage - die inhaltliche Ebene können sie jedoch nicht berücksichtigen
  4. Auch Eyetracking-Experten müssen die Bedeutung des Nutzer-Briefings verstehen, sonst produzieren sie falsche Resultate

Mehr zur Wirkung des Briefings der Probanden auf die Resultate findet sich in unserem Artikel "Eyetracking Armageddon"

Aufruf:

Alle Experten und Forscher da draußen, die einen Eyetracker besitzen: Testet doch bitte ebenfalls diese Screenshots und berichtet uns von den Resultaten. Wir wollen auf jeden Fall ausschließen, dass wir in unserem Labor ausgerechnet 25 Aliens, Zombies oder Psychopathen sitzen hatten, die die Ergebnisse verzerrt haben...

Danke!

PS: An dieser Stelle nochmals ein dickes "Dankeschön" an Hendrik Schöpe für die Unterstützung bei der Eyetracking Analyse!

  • Teilen
  • Send to Kindle
  • http://kKrft.ly/5fD
André Morys André Morys ist Gründer und Vorstand der Web Arts AG und beschäftigt sich seit 1996 mit der Conversion Optimierung von Websites und Onlineshops. André Morys ist Dozent für User Experience an der TH Mittelhessen und Autor des Fachbuchs "Conversion Optimierung". Er ist häufiger Sprecher und Moderator auf Konferenzen. /// @morys auf Twitter folgen /// facebook /// Google+

Frage zum Artikel? Fragen Sie den Autor!


Please leave this field empty.

10 Reaktionen auf  “Analysiert: Eyetracking oder Simulation – Mythos oder Wahrheit?”

Kommentare

  1. Marion Marion

    Ich habe beim Levi’s-Bild als erstes und zudem dauerhaft auf das Gesicht des rechten Mannes geschaut. Das Logo und den Text habe ich erst gesehen, nachdem ich davon im Beitrag gelesen, zurückgescrollt und explizit gesucht habe. Dabei sind mir als erstes die schwarzen Löcher im Hintergrund aufgefallen…

    Aus der Psychologie ist bekannt, dass jeder nur eine sehr begrenzte Zahl an Reizen aus seiner Umwelt herausfiltert. So sieht einer in einem der bekannten Kippbilder die Vase, der andere die Gesichter, und beide haben Recht. Und wer den Auftrag bekommt, sich alle roten Gegenstände im Raum zu merken, wird Schwierigkeiten haben, wenn er dann nach den blauen Gegenständen gefragt wird.

    Außerdem ist Wahrnehmung auch kulturabhängig. Wie ich gerade bei Ken Robinson gelesen habe, sagt ein Europäer beim Blick auf ein Bild mit einem Tiger in einem Dschungel, dass er einen Tiger sieht, während andere Kulturen einen Tiger im Dschungel sehen.

    Eyetracking-Studien sind sicher ganz interessant und können eine Richtung weisen. Sie werden aber nie für alle Menschen 100% passen.

  2. Miladin Miladin

    Hallo André,

    schön geschrieben, freundlich und diplomatisch, aber dennoch bestimmt mit ein paar klaren Ansagen!
    😉

    Hoffentlich führen noch ein paar andere Analysten Tests durch – bin gespannt.

    Gruß
    Miladin

  3. Thorsten Wilhelm Thorsten Wilhelm

    Toller Post. 2 Dinge möchte ich noch ergänzen:

    Eye-Tracking Analyse – oder ich sag’s mal allgemeiner Analysen der Verteilung der Aufmerksamkeit – machen doch vor allem dann Sinn, wenn:

    * Entweder Varianten eines Untersuchungsgegenstandes da sind (z.B. 2 Landingpageentwürfe) – die sich inhaltlich und optisch unterscheiden und zu deren Unterschiede es Thesen gibt … (die dann an den Daten geprüft werden)

    * oder wir nur eine Variante eines Untersuchungsgegenstandes haben – z.B. eine live verfügbare Landingpage – und bei einer konkreten Besuchssituation der Blickverlauf mit dem Klickverhalten verglichen wird, um zu erkennen welche zielführenden Elemente intensiv betrachtet, aber nicht geklickt werden (und sich dann die Frage zu stellen, bestenfalls dem Nutzer, warum wird da denn nicht geklickt?).

    Beides Anwendungsfälle aus der Praxis, die die mir bekannten Anbieter von Modellen zur Aufmerksamkeitsverteilung vor unlösbare Aufgaben stellen werden:

    1.) Bei den Varianten werden die Daten je Variante ähnlich sein, sprich unabhängig von der Anordnung der Elemente (da sich die Regeln der Modell vor allem auf die Gestaltung der Elemente beziehen).

    2.) Bei dem Landingpagebeispiel mit konkreter Besuchsintention fehlt einfach die Möglichkeit die Intention des Seitenaufrufs im Modell abzubilden und bei der Berechnung der Daten zu beachten.

    Die Sache mit den Webseiten ist einfach zu komplex, betreffend den dort verfügbaren Elementen, ihrer Anordnung, Gestaltung und vor allem dem Beitrag der Elemente zu Erreichung von Intentionen (und Webseiten werden nun mal überwiegend mit einer Intention – absichtlich – aufgerufen).

    Für Plakate, Werbung in Magazinen klappt das mit den Modelln sicher gut, aber eben nicht für Websites (Stand heut).

  4. Fabian Stelzer Fabian Stelzer

    Hallo André,

    Fabian von EyeQuant hier – danke fuer den Post und Eure Daten, die ich eben erst sehe.

    Was hier leider etwas untergegangen ist, ist dass sowohl die EyeQuant-Vorhersagen als auch jede von uns durchgefuehrte Studie selbstverstaendlich kontext-abhaengig ist. Die hier zitierte Studie mit 200 Webseiten wurde mit ‚kaufbereiten‘ Nutzern durchgefuehrt, die bereits genau wussten, welches Angebot sie auf der nachfolgenden Seite erwartet. Z. B.: „purchase an English Proof Reading service!“. Ebendiese Form von Nutzerkontext simuliert auch das hier gezeigte _neue_ EyeQuant Modell.

    Ich gehe davon aus, dass Ihr in Eurer Studie ohne diesen Kontext gearbeitet habt. Das geht mit EyeQuant auch, indem wir die Simulation von neuen, ’naiven‘ Nutzern waehlen – in diesem Modus wissen die Nutzer noch nicht genau, was sie auf der Seite erwartet – dann sehen die Ergebnisse naemlich genau so aus:

    http://eye.ai/s/UsWTHglFSHc – English Proof Read (Grosse Headline wird sofort gesehen)

    http://eye.ai/s/Y_zhPKTSRrg – Levis (Die Gesichter werden gesehen)

    (bei allen unseren Modellen gilt wie immer : mehr als 3 – max. 5 Sekunden Vorhersage ist einfach nicht machbar!)

    Also – selbstverstaendlich veraendert der Kontext den Blickverlauf und moduliert die Salienz (wozu Mitglieder unseres Boards auch viel publiziert haben, z. B. hier: http://ilab.usc.edu/publications/doc/Navalpakkam_Itti05vr.pdf)

    Genau darum ging es auch in unserer Studie, und genau deswegen stellen wir mittlerweile auch mehrere Modelle bereit, die verschiedene Nutzerkontexte beruecksichtigen.

    Dabei haben wir nun lediglich festgestellt, dass in einigen dieser Kontexte – z. B. bei wirklich kaufbereiten Nutzern – diverse, sonst als unumstoesslich geltende Daumenregeln nicht ganz so zuverlaessig greifen wie man es sonst vermuten wuerde. Fanden wir ueberraschend und interessant, daher unser Originalpost.

    Eine Frage noch zu euren Daten – es sieht zumindest so aus, als haettet ihr die kleinen, niedrigaufloesenden Screens fuer eure Studie hochskaliert. Dabei gehen freilich einige relevante Kontraste verloren – wer das Ganze selber nochmal im Labor untersuchen moechte, kann mir gerne unter fabian at eyequant dot com schreiben und ich stelle die Originalscreens zur Verfuegung.

    Viele Gruesse!

  5. André Morys André Morys

    Hallo Fabian, wir haben die Screens in Originalauflösung. Wenn Du schreibst, dass dies Resultate eines bestimmten Kontext ist – warum steht das nicht in eurem Artikel? Warum werden die (doch gültigen) Heuristiken als „Mythen“ bezeichnet?

    Wir haben alle Screens auch mit einem konkreten Szenario „sie möchten hier kaufen“ und können die Resultate dennoch nicht nachvollziehen…

  6. Johannes Meixner Johannes Meixner

    Hallo, in unserer Reproduktionsstudie haben wir einen naiven Kontext verwendet („Sie gelangen auf die folgende Webseite:“). Fabians Erklärung zu Folge sollte das demnach erklären, warum der Gesichtereffekt bei unseren Ergebnissen vermutlich am stärksten ausfiel.

    Fabian schreibt, dass die Probanden mit der Absicht kamen, ein bestimmtes Produkt zu kaufen, wohingegen bei André die Probanden nur instruiert waren, dass sie „irgendetwas“ kaufen wollen. Hier ist natürlich auch ein Unterschied im Mindset.

    Ganz klar ist mir aus theoretischer Perspektive aber nicht, warum User, wenn Sie eine Kaufabsicht haben, nicht auf die Gesichter oder die große Schrift schauen? Vermutlich sind das aber auch nur Outlier und bei den anderen 194 Webseiten im Test wurden die Gesichter und die Headline dennoch gesehen, sodass ein Erklärungsmodell gar nicht nötig ist.

    Insofern haben ja beide Recht: In der Regel schauen Menschen auf Gesichter. Testen kann man das für den Individualfall aber natürlich immer nochmal. Ausnahmen bestätigen die Regel.

    Wichtiger ist doch, dass – wie André betonte – Eye-Tracking nur sehr umgrenzte Aussagen zulässt und andere Aspekte wie beispielsweise emotionale Faktoren wesentlich bedeutsamer für die Konversionskraft einer Landingpage sind.

    Beste Grüße,
    Johannes

Trackbacks/Pingbacks

  1. […] Das Fazit: Eyetracking-Simulationen sind zwar in der Lage, einigermaßen verlässliche Resultate zu liefern. Soziale und inhaltliche Kontexte gehen dabei aber häufig verloren bzw. werden nicht berücksichtigt. Den gesamten Artikel findet ihr auf konversionskraft.de. […]

  2. […] Eyetracking: Mythos oder Wahrheit? – Die Bewegungen der Augen verraten uns, was für Betrachter von Websites wirklich interessant ist. Im Eyetracking werden diese Informationen gesammelt und in managementkonforme Heatmaps umgewandelt. Weiter… […]

  3. […] diese Annahmen keine Regeln sondern lediglich Mythen seien. In einer Studie mit 25 Probanden ging das Team um André Morys von konversionsKRAFT den Fragen ebenfalls nach und stellte gegensätzliche Ergebnisse in den […]

  4. […] Analysiert: Eyetracking oder Simulation – Mythos oder Wahrheit? […]

Hinterlassen Sie einen Kommentar