Conversion Checklisten

A/B-Testing als SEO-Gefahr?

Gabriel Beck
 Lesezeit: 9 Minuten    
8
arrow_down
8

Im Marketingmix vieler Unternehmen gibt es einen festen Platz für SEO-Maßnahmen. Die organischen Suchtreffer sind fester Bestandteil des Traffics und damit des Unternehmenserfolgs. Anders als bei der Conversion-Optimierung, wo alle Hypothesen getestet werden, können die Früchte der SEO Maßnahmen häufig erst nach Monaten geerntet werden. Man muss lange warten, eh Onsite- und Offsite Maßnahmen greifen und sich die Rankings verbessern. Umso größer die Angst, dass die hart erarbeiteten Positionierungen durch Ausprobieren beim Website Testing wieder verloren gehen.

A/B Testing als SEO Gefahr

Viele Website-Betreiber führen daher keine A/B Tests durch, weil sie schlichtweg Angst davor haben, dass alles den Bach runter geht. Dabei muss man sich eigentlich nur vor Augen führen, dass die Suchmaschine im Prinzip wie ein Conversion-Optimierer funktioniert: Liefere zu einem gewünschten Suchbegriff relevante Inhalte, die sauber strukturiert und aufbereitet sind.

Das ist der Grund, warum wir uns in einem Interview mit Thomas Zeithaml, Geschäftsführer bei Seoratio und ausgewiesener SEO-Spezialist zusammengesetzt haben, um zu klären, welche Gefahren beim Testing für die Positionierungen in den Suchmaschinen auftreten können, bzw. wie man dafür sorgen kann, dass alles glatt läuft.

Interview mit Thomas Zeithaml (Seoratio)

Gabriel Beck im Interview mit Thomas Zeithaml
Gabriel Beck im Interview mit Thomas Zeithaml (Geschäftsführer von Seoratio)

konversionsKRAFT: Erzeugen mehrere Varianten beim Testing Duplicate Content?

Zuerst einmal möchte ich erklären was Duplicate Content (DC) überhaupt aus Sicht von Google bedeutet. Von Duplicate Content spricht man, wenn zwei nahezu identische Inhalte auf zwei unterschiedlichen Webadressen verfügbar sind. Dabei ist es unerheblich in welches Layout der Text eingebettet ist. Einfache Beispiele sind Pressemitteilungen, die auf vielen Webseiten veröffentlicht werden. Für Google sind diese reinen Inhalte vereinfacht gesagt „Resourcenfresser“, da sie diese mehrfach in ihren Suchindex aufnehmen müssen. Aus diesem Grund versucht Google hier Festplattenspeicher zu sparen und Quellen von Duplicate Content auszublenden. Daher ist die Frage in Bezug auf den Umgang mit Testing-Tools berechtigt.

Es gibt verschiedene Herangehensweisen von und in Testingtools. Die einen verändern nur den Inhalt oder das Layout auf der Seite. Dabei bleibt die Internetadresse der Seite jedoch unverändert. Diese Art der Veränderung wird auch als DOM-Manipulation bezeichnet. Da die Adresse jedoch die gleiche bleibt, gibt es aus Sicht von Google diesen Inhalt nur einmal. Somit entsteht bei dieser Art von Tests mittels Dom-Manipulation kein doppelter Inhalt. Gefährlicher wird es, wenn das Tool mit unterschiedlichen Adressen arbeitet. Wird z.B. bei einem A/B-Test der Inhalt einer Seite auf der Adresse “test1.html” und nur in einem veränderten Layout auf “test2.html” ausgeliefert, entsteht tatsächlich Duplicate Content. Bei dieser Konstellation sind gleiche Inhalte auf unterschiedlichen Adressen verfügbar.
Man sollte also bei einem Test genau drauf achten, ob die Varianten auf der gleichen Webadresse stattfinden. Denn nur so kann man der DC-Problematik aus dem Weg gehen.

konversionsKRAFT: Cloaking – wird die Manipulation einer indizierten Seite abgemahnt?

Abgemahnt wird bei Google erstmal gar nichts 😉 Die Richtlinien sind eher Spielregeln und haben nichts mit gültigem Recht zu tun. Auch hier muss man vielleicht Cloaking erst mal definieren.
Das typische Cloaking stammt aus einer Zeit, in der man die Suchmaschinen noch sehr leicht hinters Licht führen konnte. Laut Definition ist Cloaking das Ausliefern von Inhalten die speziell für die Suchmaschinen-Robots entwickelt werden. So wurden früher statistischer optimierter Inhalt an Google ausgeliefert, während ein normaler Besucher einen ganz anderen Inhalt angezeigt bekommen hat.

Inzwischen arbeiten viele Seiten mit dynamischen Elementen. Ein einfaches Beispiel wären hier personalisierte Inhalte oder eine Auslieferung des Inhalts aufgrund der geographischen (IP-) Herkunft. Solche Methoden würde man somit auch als Cloaking einstufen. Aus diesen Gründen hat Google die Regeln hier deutlich freizügiger definiert. Mir ist seit Jahren keine Seite mehr bekannt, die aufgrund von Cloaking eine Positions-Strafe erhalten hätte.
Meine Empfehlung bei Testläufen wäre, die Varianten nicht zu weit auseinander laufen zu lassen. Die Anordnung von Layout-Elementen kann problemlos verändert werden. Die Anzeige des Inhalts sollte jedoch auf beiden Varianten weitestgehend gleich sein. Also eine Variante mit und eine ohne Text könnte Google wirklich verwirren.

konversionsKRAFT: Was passiert mit der URL-Struktur – landen Varianten-URLs im Index?

Varianten die auf einer DOM-Manipulation beruhen, sind an sich kein Problem. Meist ist diese Adresse sowieso im Suchmaschinen-Index. Tritt der Fall auf, dass eine Testversion im Google-Index landet, kann man den Test pausieren und über die Webmaster-Tools eine Neuindexierung anstoßen. Alternativ kann man das Problem auch aussitzen. Denn beim nächsten Crawl-Vorgang wird die Originalversion des Inhalts wieder aufgenommen.

Problematischer sind Testläufe, bei denen mit zwei Webadressen gearbeitet wird. Wenn also jede Variante unter einer eigenen URL verfügbar ist und je nach Besucher damit die eine oder andere Version verlinkt wird. Wie oben erwähnt, würde an dieser Stelle Duplicate Content auftreten. Wir empfehlen daher bei solchen Tests einen der beiden folgenden Schritte zu unternehmen:

Ich gehe davon aus, dass die Version A die eigentliche Seite darstellt. Die Seite B sollte nun per Canonical Tag auf diese Seite A verweisen. Aus Sicht von Google entspricht dies einer Weiterleitung. Dazu wird auf Seite B im Head Bereich des HTML Quellcodes eine Zeile eingefügt. Dies könnte wie folgt implementiert werden: <link rel=”canonical” href=”https://www.example.com/a.html” />

Die andere Möglichkeit besteht darin, die Seite B aus den Suchmaschinen auszusperren. Die einfachste Methode ist hier ebenfalls im Head Bereich die Anweisung: <META NAME=”ROBOTS” CONTENT=”NOINDEX”> anzugeben. Dadurch wird verhindert, dass Google und Co diese Seite in den Suchindex aufnehmen.

 

konversionsKRAFT: Interpretation der Inhalte (JavaScript) – Welche Inhalte indiziert Google?

Google versucht Webseiten immer besser zu verstehen. Durch neue Technologien (jQuery, Ajax) war dies aus Sicht von Google nicht mehr gegeben. Aus diesem Grund hat Google sein Verhalten hier geändert. Inzwischen werden Seiten so interpretiert und indexiert, wie sie im Browser angezeigt werden. Dies schließt die Interpretation von JavaScript mit ein.

Somit kann es also vorkommen, dass Testvarianten von Google indexiert werden. Fehlende Texte oder Elemente der Variante wären dann nicht mehr im Google-Index enthalten. Bei langen Tests kann dies durchaus problematisch werden. So könnte die interne Verlinkung einer Webseite Schaden nehmen. Wir hatten schon mal einen Fall, bei dem eine Variante keine weiterführenden Cross-Selling-Links hatte. Die Folge war, dass einige Produkte in den Suchergebnissen abgefallen sind, weil sie intern nicht mehr so gestärkt wurden.

Einige Tools am Markt können solche Indexierungsfehler jedoch verhindern. Eigentlich alle setzen Cookies ein, um nicht einem Benutzer unterschiedliche Versionen auszuliefern. Werden keine Cookies erlaubt, findet in der Regel kein Test statt. Google akzeptiert keine Cookies und nimmt somit nicht an dem Test teil. Ebenso bieten Tools wie Optimizely oder VWO auch die Möglichkeit, bestimmte User-Agents aus den Tests auszuschließen. Damit kann man also verhindern, dass der Googlebot an Tests teilnimmt.

konversionsKRAFT: Zum Targeting – Warum sollte man Google aus dem Test ausschließen?

Im Mai 2014 gab Google (siehe http://googlewebmastercentral.blogspot.de/2014/05/understanding-web-pages-better.html) bekannt, dass sie vermehrt die Webseiten wie ein normaler Nutzer betrachten wollen. Dazu gehören auch Browserfunktionen wie z. B. JavaScript und das Erkennen von dynamischen Inhalten, die über Schnittstellen nachgeladen werden. Während also früher JavaScript und Ajax nicht erkannt wurden, schafft es Google nun, diese Funktionen auszuwerten.

Viele Testing-Tools verändern allerdings mittels JavaScript den HTML-Code um z. B. Inhalte woanders zu platzieren. Da Google diese JS-Logik früher nicht ausführen konnte, war Google somit nicht in der Lage an einem Test teilzunehmen. Dies hat sich durch die Umstellung von Google nun jedoch geändert.

Die reine Platzierung von Inhalten ist für Google nicht ausschlaggebend und stellt an sich kein Problem dar. Aber natürlich gibt es Testfälle, in denen Inhalte weggelassen oder hinzugefügt werden. Daraus würde aus Sicht von Google eine komplett neue Interpretation der Relevanz der Webseite in den Suchergebnissen nötig. Denn je nach Textausrichtung, Textlänge und inhaltlicher Relevanz wird eine Unterseite in den Suchergebnissen eingeordnet. Da diese HTML- bzw. DOM-Manipulation, wie gesagt, mit JavaScript umgesetzt wird, würde Google an diesem Test teilnehmen und die Seite neu interpretieren.

In diesem Zusammenhang wird immer wieder der Begriff Cloaking ins Spiel gebracht. Die Intention von Cloaking ist somit eine bewusste Verbesserung in den Suchergebnissen. Dies ist in einem Testfall ja nicht gegeben. Daher kann Testing nicht mit Cloaking gleichgesetzt werden. Trotzdem haben wir in unserem oben beschriebenen Testfall eine Version mit zusätzlichem Inhalt und eine ohne. Aus diesem Grund sollte man den Bot aussperren. Ein Ausschluß ist sozusagen nur zum Schutz da, Google nicht am Test teilnehmen zu lassen. Während also beim Cloaking ein anderen Inhalt an den Bot ausgeliefert wird, verhindert man mit einer Sperre den Zugriff auf einen Inhalt.

Es macht aber auch keinen Sinn, einen Bot an einem Test teilnehmen zu lassen. Aus diesen Daten kann man keine sinnvollen Aktionen ableiten. So wird ein Bot keine Klicks ausführen, nicht scrollen oder Einkäufe tätigen – auch wenn viele Testing-Tools die Besuche nicht in die Reportings einrechnen.

Visual Website Optimizer und die „vis_opt_url“

Dazu kommt, dass von den Tools oft auch URLs, die es so im System nicht gibt, erzeugt werden. Nimmt der Bot am Test teil, kann er somit auch am Beispiel von „vis_opt_url“ neue URLs aufspüren und in den Suchmaschinenindex aufnehmen. Google ist in diesem Bereich sehr hungrig geworden und versucht alle URLs aufzunehmen, die wie Webadressen aussehen. Da diese URLs nicht vorhanden sind, werden so viele Fehlerseiten erzeugt.

Infos zur Testing-Praxis

In den meisten Testing-Tools kann man anhand bestimmter Regeln festlegen, welche Nutzer an einem Test teilnehmen sollen. Hier sollte man anhand des User-Agents nun die Regeln für Bots definieren. Man kann so z. B. über einen regulären Ausdruck „Googlebot“ (oder ganz allgemein “bot”) die Bots ausschließen.

Prüfen kann man das in den Google Webmaster Tools recht einfach, indem folgendes gewählt wird: “Abruf wie durch Googlebot” > “Rendern”. Dort ist ein visueller Vergleich möglich:

Kontrolle des Google Caches
Kontrolle des Google Caches

Unsere Tipps für SEO sichere A/B-Tests

  1. Bei Redirect-Tests Canonical-URLs verwenden
  2. Google per UserAgent-Überprüfung aus dem Test ausschließen
  3. Gegebenenfalls Überprüfung der Google Webmaster-Tools
  4. Beim Ausrollen des Tests sicherstellen, dass alte URLs (z. B. von nun getauschten Bildern) nicht in einem 404 enden
  5. Vorsicht bei serverseitigen Tests (also nicht per JavaScript im Browser) unter gleicher URL
  6. Wenn eigene Tools zum Einsatz kommen, sollte der Einfluss auf die SEO-Bemühungen eingehend geprüft werden

Gefährden A/B Tests die SEO Rankings?

Unterm Strich kann man sagen, dass A/B Tests keine Auswirkungen auf die SEO Rankings haben. Es gibt immer wieder Fälle, in denen Tests angeblich zu Verschlechterungen der Positionen geführt haben sollen. Beim näheren Betrachten hat sich aber rausgestellt, dass Fehler im Setup vorliegen, bzw. auf die oben genannten Punkte nicht eingegangen wurde. Von daher gilt auch hier wie immer:

keep calm and continue testing

 

Wir danken Thomas Zeithaml von Seoratio für das Interview und dafür, dass er für Fragen in den Kommentaren unserer Leser da ist 😉

Über den Autor

Gabriel Beck

Vorstand

Gabriel ist seit über 10 Jahren Conversion Optimierer und berät die konversionsKRAFT Kunden strategisch, ist Trainer für die Conversion Seminare und als Vorstand seit 2014 im Unternehmen.
Frage zum Artikel? Frag den Autor!

Welche Frage hast du an den Autor?

33 [contact-form-7 id="53320" title="Autorkontakt"]

8 Kommentare

  1. Gravatar

    Viktor,

    John Müller hat in einem Hangout zum Thema mal ganz deutlich gesagt, dass Google einen A/B Test erkennt und einige Zeit toleriert. Er sprach in etwa von einem Zeitraum von einem Monat.
    Ich halte den Rat, Google aus dem Targeting rauszunehmen als völlig gefährlich! Hier könnte der Bot fälschlicherweise auf die Idee kommen, dass dem User andere Inhalte angezeigt werden als dem Bot.

  2. Gravatar

    Tom Zeithaml,

    Hallo Viktor,
    viel gefährlicher finde ich es Google diese Art der Entscheidung zu überlassen. Du schreibst selber “in etwa” und “tolleriert”.

    Man darf dabei ja eines nicht vergessen: meine Empfehlung geht ja dahin, Google aus dem Test rauszunehmen. Also ähnlich wie das bei personalisierten Webseiten mit z.B. Standorterkennung auch häufig der Fall ist.

  3. Gravatar

    Denis,

    Hallo Tom,
    Ich selbst sehe zum Thema Ausschluss von Google noch zusätzlich die Gefahr, dass Google zur Erkennung von Spam-Webseiten theoretisch auch in der Lage ist, Webseiten mit einem “normalen” User Agent als Abgleich und Gegenprüfung zu besuchen.

    Im Rahmen des Risikomanagements habe ich also wie Viktor ebenfalls ein Problem damit, den Googlebot (egal in welcher Hinsicht) gezielt anzusprechen und gesondert zu behandeln.

    Die Gefahr für eine Missinterpretation als Spamversuch seitens Google scheint mir hier also nicht geringer zu sein als die “Entscheidung und Erkennung des Tests Google zu überlassen”.

  4. Gravatar

    Tom Zeithaml,

    Google hat natürlich einen Mechanimus Doorway oder Cloaking-Spam zu erkennen. Allerdings ist unterschiedlicher HTML Code nicht gleich Spam und wird auch als solches erkannt !

    Wie oben bereits erwähnt, gibt es ja viele Webseiten die auch personalisierte Inhalte, dynamische Elemente usw. ausgeben. Diese müsste alle Gefahr laufen, bei Google bestraft zu werden. Mir ist aktuell kein Fall bekannt, wo so etwas vorgefallen wäre.
    Aber zurück zur Hauptfrage: Was bringt es Google an einem Test teilnehmen zu lassen ? Jeder Shop der Cookies benutzt – also so ziemlich jeder würde nach deiner Logik dann aber auch den Bot vor dem Einkaufen aussperren. Daher ja meine Empfehlung, den Bot an dieser Stelle keinen Test-HTML Inhalt auszuliefern.

  5. Gravatar

    Denis,

    Hallo Tom,

    Dein Argument mit dem Cookie kann ich nachvollziehen.

    Dennoch habe ich ein offizielles Statement von Google zu diesem Thema gefunden, das ich hiermit zitieren möchte:

    “Achtet darauf, dass nicht je nach User-Agent entschieden wird, ob der Test oder eine bestimmte Inhaltsvariante angezeigt wird. Ein Beispiel hierfür wäre, dass dem User-Agent “Googlebot” immer der ursprüngliche Inhalt angezeigt wird…”

    Quelle:
    http://googlewebmastercentral-de.blogspot.de/2012/09/website-tests-und-google-suche.html

  6. Gravatar

    Tom Zeithaml,

    Hallo Denis,
    Dieses Statement ist leider von 2012 – aus einer Zeit in der Google gerade angefangen hat, ein bisschen mehr – wie ein Nutzer zu werden. Aber in diesem Punkt gebe ich dir Recht. Lässt aber auch sehr viel Interpretationsspielraum. Weil Sie halt schon sehr wohl zwischen Cloaking und Testing unterscheiden.

    Siehe hier:
    https://support.google.com/analytics/answer/2576845?hl=de
    “Google ist der Meinung, dass der verantwortungsvolle Einsatz von Test-Tools wie dem Inhaltstest kein Cloaking darstellt.”

    und die Definition von Cloaking wie folgt beschrieben wird:
    “Ziel ist dabei, die Suchmaschinen zu täuschen und den Rang der Seite im Suchindex zu verbessern.”
    Das ist ja bei einem Test, in dem ich den Bot das Original ausliefere nicht gegeben.

    Ich würde mir aber von Google wünschen, dass Sie hier das Thema auf den neuen Stand bringen. Neue Techniken wie Dynamische Landingpages, JS Interpretation, Rendering und auch Blockaden von CSS/JS Resourcen, Mobile friendly usw. sind ja noch recht frische Themen. Zu diesem Thema wird da nie Bezug genommen.

  7. Gravatar

    Holger Könemann,

    Mich würde mal interessieren wie ein Test, ausgeführt über Google Analytics, gewertet wird. Hier ist ja Google selber der Lieferant verschiedener Inhalte und müßte ja sehr genau wissen das es sich hier um ein A/B Test handelt. Bestehen hier auch entsprechende DC Gefahren?

    Und müßte Google nicht selber, zumindest bekannte Tools wie Optimizely und VWO erkennen können?

  8. Gravatar

    Micha,

    Hallo Zusammen,

    wie ist dieses Thema denn aktuell zu bewerten?
    Sollte der Googlebot bei einem optimizely-Test vom Test ausgeschlossen werden? Oder sollte er Zugriff auf alle Testvarianten bekommen?

    Nach den Daten in unserer Search Console sieht der Googlebot aktuelle die Ursprungsseite, der Nutzer bekommt die Testseite angezeigt.

    Danke für eure Meinungen

Schreibe einen Kommentar

Teile diesen Artikel

Kostenlos anmelden