3 Conversion-Faktoren für Millionen-Euro-Uplifts
Ich warne gleich mal vor: Dieser Blogpost kann reich machen. Sehr reich. Kling gut? Dann habe ich jetzt Deine Aufmerksamkeit. Aber die Vorfreude muss ich gleich wieder trüben: Das Wort schnell (= hektisch) habe ich nicht erwähnt. Es hat etwas damit zu tun, die richtigen Dinge bei der Optimierung zu tun und zu verstehen, was die Essenz guter Optimierung ausmacht.
Was bleibt am Boden der Optimierung übrig, wenn man die A/B Case Studies mit Mega Uplifts und Geschichten von roten und grünen Buttons beiseite schiebt? Denn wer hat schonmal erlebt, dass ein A/B-Test die Conversions einer Webseite verdoppelt hat, nachdem der Testsieger (mit 145% Uplift im Test) live gestellt wurde? Wie ist der Einfluss auf den Deckungsbeitrag im eigenen Unternehmen? Und was kann man tun, um das System der Optimierung zu skalieren?
Conversion-Optimierung als Hype verstehen (und daraus lernen)
Vor den versprochenen Millionen müssen wir leider erst gemeinsam einen Leidensweg durchlaufen: Den Gartner Hype-Cycle. Warum? Die Einführung neuer Technologien verläuft in aller Regel nach einem bestimmten Muster ab, den der Gartner Hype-Cycle sehr schön beschreibt. Auch bei der Conversion-Optimierung können wir diesen Verlauf immer wieder beobachten. Das Thema A/B-Testing, das stellvertretend für Conversion-Optimierung steht, macht da keine Ausnahme. Die Dauer dieser Phasen ist in jedem Unternehmen unterschiedlich lang.
In der Hype-Phase sind viele Projektverantwortliche sehr begeistert davon, was mit Website-Testing alles möglich ist. Endlich kann man mal die Ideen aus den eigenen Reihen testen, um zu sehen, was das bringt. Es werden viele Tests durchgeführt, um Erkenntnisse zu sammeln, doch den großen Uplift bringt das nicht. Ein paar Low Hanging Fruits sind schnell umgesetzt und getestet und bringen tatsächlich auch mal einen Uplift. Der ergibt sich aber meist eher zufällig und nicht systematisch (Wie die Nuggets beim Goldschürfen).
So ein nugget alleine macht aber auch nicht reich, daher folgt die Ernüchterung nach tagelanger Arbeit – die Desillusionierung. Frenetisch gefeierte Website-Testingsieger werden ausgerollt, aber der Uplift lässt sich einfach nicht in den Deckungsbeiträgen oder Umsätzen wiederfinden. Was ist nur passiert? Die Ursachenforschung soll Klarheit bringen, deswegen fragt man einen Experten (der schon häufiger optimiert hat). Seine Antwort: Die Testsieger konnten gar kein Uplift erzeugen, da die Datenbasis für einen Test viel zu gering war. Für die Testvarianten gab es gar keine richtigen Hypothesen und bei genauerer Betrachtung stellt sich heraus, dass das Optimierungskonzept eher auf wackeligen Beinen stand und technisch unsauber umgesetzt wurde. Also alles auf Anfang.
Die Erkenntnis führt dazu, Optimierung als Prozess zu verstehen und mit diesen Erkenntnissen gute und gewinnbringende Optimierung sicherzustellen.
Das 4-Felder-Modell des A/B-Testings
Als aufmerksamer Blogleser hast Du sicherlich schon unser Conversion Whiteboard Video zum “4-Felder-Modell des A/B-Testings” gesehen. Wenn nicht, hier das Video (geht ganz schnell):
4-Felder, Gartner-Hype-Cycle – wie passt das zusammen?
Ganz einfach: Die 4-Felder lassen sich sehr gut mit dem Hype-Cycle verknüpfen und darin einordnen.
Testing und Reifegrad
In der Hype-Phase wird Testing mit vergleichsweise wenig Aufwand betrieben. Man testet einfach die Dinge, von denen man denkt, dass sie sicherlich einen Effekt haben, denn es gibt schließlich genügend “Low Hanging Fruits”, die nur noch „abgeerntet“ werden müssen. Viele Tests in kurzer Zeit können damit entwickelt und durchgeführt werden.
„Wir färben mal den Button in grün, statt rot. Vielleicht doch einen Gastzugang im Checkout anbieten? Wir testen unterschiedliche SEA-Landing Pages einfach gegeneinander, dann sehen wir schon, welche gewinnt.“ – Das sind alles Dinge, die auf der Hand liegen. Unterm Strich bringen sie aber nichts.
Das gleiche gilt für multivariate Tests, mit denen beliebige Webseiten-Elemente kombiniert getestet werden. Aus 32 Varianten wird hier eine Siegervariante ausgespuckt, die einen Uplift von 144,56% erzielt. Trotz höherem Aufwand lässt sich der Uplift nicht in den Zahlen wiederfinden. Ein A/B-Test mit Control und der Siegervariante zeigt oft auf sehr eindrucksvolle Weise: Es gibt keinen Unterscheid (hier müsste man die Zonk-Melodie einspielen)! Das nötige Statistik-Wissen hatte einfach gefehlt, dann hätte man sich den Aufwand auch sparen können. Andere Tests werden technisch unsauber (fehlerhaft) aufgesetzt, auch dies kann zu enttäuschenden Ergebnissen führen.
Wer einmal durch dieses Tal der Tränen (die Desillusionierungsphase) gewandert ist, wird dafür mit der Erkenntnis belohnt und diese führt im Idealfall zu guten Testkonzepten, validen und erfolgreichen Testergebnissen und somit zur Millionen-Euro-Strategie bei der Optimierung.
3 Conversion-Faktoren für Millionen-Euro-Uplifts
Wenn Du Dir das 4-Felder Modell des A/B-Testings genauer anschaust, wird Dir schnell klar, dass der Erfolg im Feld “High Impact Testing” von drei Faktoren abhängt:
1. Anzahl der Tests
2. Anzahl erfolgreicher Tests
3. Durchschnittlicher Uplift pro Test
Diese 3 Erfolgsfaktoren haben eine Auswirkung auf die wichtigste Kennzahl bei der Optimierung überhaupt: Den kumulierten Uplift (oder das Wachstum). Dieser beschreibt, wie sich die Optimierung nach und nach auf die Conversion Rate auswirkt.
Kumulierter Uplift = (1 + Ø Uplift)^(Anzahl erfolgreicher Tests)
Du kannst den kumulierten Uplift als Dein durch Optimierung induziertes Wachstum bezeichnen.
Ein Rechenbeispiel:
Du führst 10 A/B-Tests pro Jahr durch, davon haben 5 Tests einen signifikanten Uplift. Der durchschnittliche Uplift beträgt 5%. Der kumulierte Uplift beträgt 27,63% (1,05)^5
Doch welchen Einfluss hat der kumulierte Uplift auf den Umsatz Deines Unternehmens?
Hier eine einfache Rechnung. Bei 10 Mio. Besuchern, einer Conversion Rate (vorher) von 1,5% und 60€ Warenkorbwert erzielst Du vor Optimierung 9 Mio. Euro.
Bei der gleichen Anzahl der Besucher und einer Conversion Rate, die um 27,63% besser ist, wirken sich diese fünf erfolgreichen Tests mit 2,4 Mio. Euro mehr Umsatz aus. Gut, wir reden jetzt noch nicht von Multimillionen, aber das ist auch nur ein Rechenbeispiel. Die bessere Frage lautet:
Wie kann ich das Wachstum skalieren?
Unterm Strich bleiben genau diese drei Faktoren, mit denen Du den kumulierten Uplift und damit das Wachstum steigern kannst:
(1) Anzahl der durchgeführten Tests steigern
Die Anzahl durchgeführter Tests sind nach oben limitiert durch die Anzahl der Conversions, die auch bestimmen, wie viele Tests pro Zeiteinheit überhaupt möglich sind. Beim Testing benötigst Du eine bestimmte Menge an Sales/Leads, mit denen Du einen Uplift (in unterschiedlichen Höhen) überhaupt nachweisen kannst. Das stellt das obere Limit dar. In vielen Unternehmen bewegen wir uns allerdings am unteren Ende der Skala.
Faktoren, zur Steigerung der Anzahl durchgeführter Tests:
- Traffic/Conversions steigern (traffic growth)
- Ressourcen (inhouse/extern) besser nutzen
- Prozesse optimieren – Reibungsverluste vermeiden
- Agiles Testing für eine höhere Schlagzahl
- Gute Planung, sowie Prozess- und Projektmanagement >> iridion nutzen
(2) Anzahl erfolgreicher Tests steigern
Die Anzahl erfolgreicher Tests zu beeinflussen, hat etwas damit zu tun, dass Du Dich vor Testentwicklung mit der Hypothesen-Priorisierung beschäftigst. Letztlich schmeißt Du alle Hypothesen raus, von denen Du oder ein Team nicht ausgeht, dass sie die Zielgruppe in irgendeiner Form in ihrer Entscheidung beeinflussen. Dieses Ausmisten von Hypothesen muss nicht auf Bachgefühl basieren, sondern kann mit qualitativen Analysen (Research) belegt werden. Bestmöglich gibt es auch noch Zahlen dazu, die das untermauern. Unser Testingbacklog zur Priorisierung von Hypothesen kannst Du Dir hier im Blog herunterladen und damit die eigenen Hypothesen priorisieren.
Faktoren zu Steigerung erfolgreicher Tests
- Durchführung von Nutzeranalysen für ein besseres Verständnis
- Priorisierung von Hypothesen
- Top-Schwachstellen angehen
- Technisch sauberes Testing (Stichwort Qualitätssicherung)
- Valides Testen (nur Sieger ausloben, wenn sie wirklich genügend Traffic hatten)
- Segmentierung von Testergebnissen für weitere Insights (welche Segmente funktionieren gut, auch wenn es keinen Sieger gibt?)
(3) Durchschnittlichen Uplift erhöhen
Der durchschnittliche Uplift pro Test kann nur schwer vorhergesagt werden. Allerdings kannst Du Dir vorab schon einige Infos von der Zielgruppe holen, um zu verstehen, ob eine Idee das Potenzial zur Steigerung hat. Wie gut die Probanden im Test allerdings eine Änderung wahrnehmen können, das hast Du durchaus in der Hand. Denn hierfür braucht es kontrastreiche Tests. Den nötigen Schub kannst Du erreichen, indem Du sowohl emotional, als auch unterbewusst den Entscheidungshebel im Kopf Deiner Kunden umlegst. Das ist ehrlich gesagt mit eine der großen Herausforderungen beim Testing. (Hier ein Artikel zum kontrastreichen Testen >> Erfolgreiches A/B-Testing mit Mut zu mehr Kontrast
- Kontrastreiches Testen – Änderungen, die das Verhalten wirklich beeinflussen
- Emotionen der Zielgruppen ansprechen – emotional selling
- Einsetzen von konsumpsychologischen Tricks zur Beeinflussung von Entscheidungen
- Deutliches Hervorheben von Änderungen in den Testvarianten
- Auf den Haupt-Trampelpfaden der Zielgruppen(-segmente) testen
Fazit
Auch wenn dieser Artikel Dich nicht über Nacht reich macht, so zeigen Dir die 3 Faktoren zur Verbesserung Deines Optimierungsprogramms sehr eindrucksvoll, was auf Meta-Ebene wirklich wichtig ist und wie sich die Optimierung auf das Wachstum auswirkt.
Optimierungsressourcen sind dabei sicherlich knapp, daher kann man häufig gar nicht an der Anzahl möglicher Tests drehen (vorausgesetzt die Prozesse laufen alle einwandfrei), wenn zum Beispiel der Traffic nicht weiter steigt. In diesen Fällen bleibt einem nur die Optimierung der beiden anderen Faktoren (Trefferquote und durchschnittlicher Uplift). Eine gute Conversion-Strategie passt sich diesen Gegebenheiten an.
PS: Wenn Du wissen willst, wie Du Conversion-Optimierung im eigenen Unternehmen implementierst und wie Du diese 3 Faktoren im Griff hast, dann solltest Du einen Blick in unseren Lehrgang zum zertifizierten Conversion-Manager werfen.
4 Kommentare
Markus,
Hallo Herr Beck, danke, guter Artikel, schärft den Blick auf das Wesentliche.
Hinweis: Im xls ist die Differenz als Wert vorhanden, nicht als Formel (Zelle C18).
Gabriel Beck,
Danke für den Hinweis. Habe ich geändert.
spstiger,
Das ist ja großartig, wenn wir es schaffen mit durchschnittlich 5% Uplift 30 Tests pro Jahr zu machen, dann könnten wir in nur zehn Jahren von 1 Mio. € Umsatz auf über 9 Billionen € wachsen. Damit fangen wir sofort an, ich ruf gleich mal Mario Draghi an, er soll die Gelddruckmaschinen anwerfen, wir brauchen mehr Geld im Markt für unser geplantes Wachstum.
Gabriel Beck,
Hallo,
das freut mich zu hören, denn…
Bei durchschnittlich 5% Uplift pro Tests brauchst Du pro Variante ca. 6.000 Sales, um diesen Uplift auch statistisch nachweisen zu können. Das bedeutet 12.000 Sales pro Test, wenn es sich um einen A/B Test handelt. Macht bei 30 Tests 360.000 Sales pro Jahr. Jeder Test läuft damit ca. 1,7 Wochen. Damit bist Du schon in der Conversion Superhero Klasse.
Was mich allerdings wundert, warum Du bei 360.000 Sales pro Jahr nur 1 Million € Umsatz machst?
PS: Hier der Link zu unseren Statistik ebook >> //b2zo0i6c.myraidbox.de/hintergrunde/e-book-leitfaden-zur-statistischen-interpretation-von-testergebnissen.html
Beste Grüße,
Gabriel