Conversion Whiteboard

Conversion Whiteboard 5: Die richtige Hypothesen-Priorisierung

André Morys
 Lesezeit: 3 Minuten    
1
arrow_down
1

Liebe Freunde der gepflegten Konversion,

willkommen zu Teil 5 unseres Conversion Whiteboards. Wenn Euer Team unendlich viele Testideen hat, Ihr aber wisst nicht, womit Ihr starten sollt, dann ist es Zeit für die Hypothesen-Priorisierung.

Hypothesen priorisieren statt einfach wild drauf los testen

Website-Tests basieren auf Hypothesen, auf Annahmen über den möglichen Effekt einer Änderung. Tests kosten sowohl Zeit als auch Geld. Man möchte natürlich nicht unendlich viele Tests durchführen. Daher ist es wichtig, die Testideen in eine Reihenfolge zu bringen, damit wir mit den besten Hypothesen beginnen können.

Wie Du Deine Testideen mit einer einfachen Formel in eine optimale Reihenfolge bringen kannst, erkläre ich Dir in der 5. Episode des Conversion Whiteboards:

Testideen sollten nicht aus dem Bauch heraus definiert werden

Immer wieder sehen wir, dass auf Basis von logisch erscheinenden Annahmen entschieden wird, was getestet wird:

  • Wie hoch ist der Traffic der betroffenen Seite?
  • Welche Seiten haben die höchste Ausstiegsrate?
  • Was ist leicht umsetzbar?

Oder der HIPPO (Highest Paid Person’s Opinion) sagt einfach wo es lang geht…

In der Realität fallen Entscheidungen oft auf Basis dieser oder ähnlicher Kriterien.

Hypothesen-Priorisierung nach Aufwand und Impact

Den Score zur Priorisierung der Hypothesen lässt sich durch diese einfache Formel bestimmen:

Priorisierung durch Aufwand und Impact

Je höher der Impact und je geringer der Aufwand einer Hypothese ist, desto höher wird ihr Score. Desto mehr Prio bekommt sie. Doch woher soll ich wissen, welchen Impact meine Maßnahme hat?

Zur Beantwortung dieser Frage versetzen wir uns in das Conversion-Whiteboard #2 zurück. Hier hast Du erfahren, dass jeder Uplift das Resultat einer Verhaltensänderung der Nutzer ist.

Der Impact setzt sich also aus folgenden Faktoren zusammen:

1. Wahrnehmung (Nimmt der Kunde die Veränderung überhaupt wahr?)
2. Verhaltenskontrast (Schafft die Veränderung, dass der Kunde sein Verhalten ändert?)
3. Traffic (Hat die Seite genug Traffic?)

Erwiesener Bonus: Behavior Patterns (auf Prinzipien wie Verknappung etc. zurückgreifen)

Toolgestützte Hypothesen-Priorisierung

Bei der Priorisierung von Testhypothesen sollte man ein möglichst objektives Bewertungssystem verwenden, welches alle für Optimierungsmaßnahmen relevanten Einflussgrößen mit einbezieht, um fundierte Entscheidungen zu treffen.

Ein praktisches und kostenfreies Tool zur Hypothesen-Priorisierung ist iridion:

Scoring mit Iridion

Das Scoring in iridion stellt den Aufwand und den potentiellen Einfluss einer Optimierungsmaßnahme gegenüber. Der Score steigt mit wachsendem Einfluss und sinkt mit steigendem Aufwand. Generell gilt also: Je höher der Score, desto besser das Kosten-Nutzen-Verhältnis. Es gibt somit eine klar definierte Konvention, auf deren Basis alle Maßnahmen gleichermaßen bewertet werden.

Mir diesem praktischen Werkzeug kannst Du jene Maßnahmen zu isolieren, welche den Aufwand eines A/B-Tests wirklich wert sind.

Tipp: In ein solches System kannst Du auch persönliche Präferenzen von HIPPOs einbeziehen und diese ggf. höher gewichten. Die Chancen, alle Stakeholder zufriedenzustellen und zu einem Konsens zu kommen, steigen.

Welche Parameter berücksichtigt das Iridion Scoring?

Aufwand

Frontend: Wie viel Zeit wird für die Frontend-Umsetzung des Experiments aller Varianten benötigt (inkl. der Abhängigkeit vom Testingtool und Einrichtung der Goals)?

Backend: Wie viel Zeit wird für die Backend-Umsetzung des Experiments aller Varianten benötigt (Müssen Veränderungen im Backend durchgeführt werden?)?

Konzept: Wie lange dauert es, ein gutes Testkonzept für das Experiment zu erstellen (inklusive Abstimmungsrunden, Entwürfen, Prozessbeschreibungen etc.)?

Sonstiges: Gibt es weitere Anforderungen, die zusätzlichen Aufwand erzeugen (z. B. Qualitätssicherung der technischen Umsetzung, interne Abstimmungsrunden, firmenpolitische Hürden etc.)?

Impact

Visueller Kontrast: Ist die visuelle/inhaltliche Veränderung im Experiment sichtbar/stark genug, um dem Benutzer aufzufallen?

Verhaltenstechnischer Kontrast: Hat die Variante genügend Kontrast, um eine Verhaltensänderung beim Benutzer zu bewirken (wird er sich mehr bzw. weniger Gedanken machen)?

Behavior Patterns: Nutzt die Maßnahme ein Behavior Pattern, welches das Verhalten der Nutzer verändert?

Traffic: Sitzt die Veränderung auf dem primären Conversion-Pfad? Je näher das Experiment an der Conversion stattfindet, desto wahrscheinlicher ist es, auch kleine Uplifts zu validieren (Weit weg von der Conversion = z.B. Startseite / Nah an der Conversion = z.B. im Checkout-Funnel).

Lust auf noch mehr Conversion Whiteboards?

Dann folge uns auf unserem YouTube Channel!

 

Bis zur nächsten Episode des Conversion Whiteboards!

Euer André

Über den Autor

andre-morys

André Morys

Vorstand (Vors.)

André Morys (geb. 1974) ist Gründer und Vorstand (Vors.) von konversionsKRAFT, Deutschlands führender Agentur für Conversion-Optimierung und strategische Beratung in puncto digitales Wachstum. Darüber hinaus ist André Morys Initiator und Gründer der GO Group Digital, die ein weltweites Netz von Experten für digitale Transformation bildet.

Zu seinen Veröffentlichungen zählen “Die digitale Wachstumsstrategie” (2018) und „Conversion Optimierung” (2011) sowie zahlreiche Fachbeiträge in einschlägigen Medien zu Online-Marketing. Er ist zusätzlich als Dozent an der Fachhochschule Würzburg tätig und hält zahlreiche Keynotes und Vorträge auf nationalen und internationalen Kongressen zu den Themen digitales Wachstum, E-Commerce und Optimierungsstrategien.

Frage zum Artikel? Frag den Autor!

Welche Frage hast du an den Autor?

2 [contact-form-7 id="53320" title="Autorkontakt"]

1 Kommentar

  1. Gravatar

    Marcel Gabor,

    Hallo André, soviel vorweg: Ihr macht hier einen wirklich tollen Job. Ich bin sehr angetan davon wie ihr es versteht, Theorie aus der Statistik und Psychologie auf die Onlinewelt zu übertragen. Eure Ansätze sind immer fundiert und folgen einer systematischen und elaborierten Betrachtungsweise.

    Bei einer Sache haben wir jedoch eine unterschiedliche Meinung, die ich gerne mal mit dir diskutieren würde. Und zwar erwähnst du fast gebetsmühlenartig, dass sich nur Tests lohnen, bei den die Veränderung so groß ist, dass der Nutzer sie (bewusst) bemerkt und darauf hin sein Verhalten ändert. Neulich hattest du mal in einem Podcast erwähnt, dass du Test von Buttonfarben sinnfrei findest, da sie keine Verhaltensänderung induzieren. An diesem Punkt bin ich etwas anderer Meinung und würde das gerne mal mit dir diskutieren.

    Grundsätzlich stimme ich dir zu, dass am Ende eine Verhaltensänderungen stehen muss, damit wir ein unterschiedliches Ergebnis im AB-Test erhalten. Allerdings stelle ich in Frage, ob diese Verhaltensveränderung bewusst ablaufen muss. Ich nehme nochmal das Beispiel mit den farbigen Buttons. Menschen können physiologisch bedingt einige Farben besser wahrnehmen, als andere. Wir haben beispielsweise hinsichtlich der Conversion gute Erfahrungen mit Signalfarben gemacht. Zudem kann es einen Unterschied machen, ob ein farbiger Button in einem bunten Umfeld platziert ist, oder in einem grauen, um so durch mehr Kontrast hervorzutreten. Beide Beispiele werden eher subliminal wahrgenommen und können dennoch eine Verhaltensänderung auslösen – die ist halt nur nicht bewusst.

    Mich würde mal interessieren wie du dazu stehst. Vielleicht meinen wir auch das gleiche, reden nur aneinander vorbei.

    Viele Grüße und bitte weiter so,
    Marcel

Schreibe einen Kommentar

Teile diesen Artikel

Kostenlos anmelden