Verlassen Websitebesucher den Shop eines Unternehmens, ohne das gesuchte Produkt oder die Dienstleistung zu erwerben, ist dies ein Warnsignal. Hier setzt das A/B-Testing an, um dem Problem auf den Grund zu gehen. Unternehmen wirken damit dem Verlust wichtiger Leads entgegen, indem sie einzelne Elemente ihrer Website miteinander vergleichen, um die nutzerfreundlichste Option zu finden. So steigern sie gezielt ihre Conversion und reduzieren unter anderem Kaufabbrüche.
Beim A/B-Testing (auch Split-Testing genannt) werden verschiedene Versionen einer Website, eines Onlineshops, eines Newsletters oder einer App getestet. Das primäre Ziel: Die performantere Seite zu ermitteln und mehr Traffic zu generieren. Diese A/B-Tests dienen als Grundlage, um wichtige Fragen für die Marketingstrategie zu klären und eine genaue Analyse bestimmter Elemente durchzuführen. Sie gelten als statistische Methode und sind mit den richtigen Tools einfach durchzuführen.
Aber wie funktioniert ein A/B-Test? Um ein umfassendes Ergebnis zu erhalten, sollten Unternehmen ihn über zwei komplette Geschäftszyklen laufen lassen. So werden auch Käufer einbezogen, die erst über einen Kauf nachdenken müssen, alle Traffic-Quellen werden integriert und anstehende Feiertage fallen nicht zu stark ins Gewicht. Im Folgenden wird ein Ansatz für den E-Commerce-Sektor skizziert:
Zu Beginn müssen Unternehmen das Ziel des anstehenden Tests definieren. Häufig wird ein A/B-Test durchgeführt, um herauszufinden, welche Seite die höchste Konversionsrate erzielt. Aber auch bei Apps oder E-Mails sind A/B-Tests ein beliebtes Marketing-Werkzeug. Um entsprechende Verbesserungspotenziale zu identifizieren, sollte der Fokus auf real überprüfbare Faktoren gelegt werden. Ob Interviews, Umfragen, Google Analytics oder Eye-Tracking – es gibt viele Wege, um an Nutzerdaten zu kommen. Diese Fragen können dabei helfen:
Welche Elemente sind wichtig? Was funktioniert auf einer Website bereits und was ist noch verbesserungswürdig? Wird eine Seite kaum besucht, lohnt es sich nicht viel Zeit und Energie zu investieren, um diese anzupassen.
An welcher Stelle springen Kunden ab?
Wie lässt sich ein Absprung verhindern?
Im nächsten Schritt werden alle Besucher einer Website in zwei Testgruppen eingeteilt. Diese müssen immer gleich groß sein, um am Ende aussagekräftige Ergebnisse zu erhalten. Der einen Hälfte wird Variante A des Shops ausgespielt und dem anderen Teil Variante B. Die Testgruppen wissen nichts von ihrem Glück, denn ihnen wird eine der beiden Varianten nach dem Zufallsprinzip vorgesetzt– so werden die Ergebnisse nicht verfälscht. Auch bei einem Newsletter-Versand hilft eine gezielte Segmentierung, die gewünschte Zielgruppe einzugrenzen und Bestandskunden vom Test auszuschließen.
Tipp: Ein Rechner zur Stichprobengröße hilft zu messen, wie groß die Stichprobe pro Variante sein muss. Oft hilft ein Tool dabei, die gesamte Zielgruppe in kleinere Gruppen zu unterteilen.
Welche Variablen werden untersucht? Ein Beispiel hierfür ist die Bounce Rate, die bestimmt, wie lange sich Nutzer im Shop aufhalten. Hier kann es zum Beispiel unterschiedliche Call-to-Action-Buttons geben, um zu sehen, welcher öfter geklickt wird (“Jetzt Bestellen” vs. “Zum Shop”). Anschließend formulieren Shopbetreiber eine Hypothese, die am Ende des Tests Aufschluss über den Erfolg der Anpassungen gibt. In den meisten Fällen sind mehrere Hypothesen notwendig. Im Folgenden eine Beispielhypothese:
Die Bounce Rate verringert sich, wenn der potenzielle Kunde direkt auf der gewünschten Produktseite landet, statt auf der Übersichtsseite für Hosen.
Sind alle Vorbereitungen abgeschlossen, kann der Test starten. Dafür sollte der Shopbetreiber checken, welches Testing-Tool am besten zu der eigenen Seite passt. Hier hilft es, sich die verschiedenen Optionen anzuschauen und deren Vor- und Nachteile gegenüberzustellen. Anschließend beginnt der Test: Dafür erstellt ein Mitarbeiter die beiden Varianten der Seite und schaltet sie live.
Ob Feiertage, Ferien oder große Ereignisse wie die Olympischen Spiele – all diese Faktoren können signifikanten Einfluss auf die Testphase nehmen. An dieser Stelle greifen Tools Unternehmen unter die Arme und geben Zuverlässigkeitsraten an. Liegen nach mehreren Wochen noch keine signifikanten Ergebnisse vor, gilt es die Vorgehensweise zu überdenken. Sowohl die Größe der Testgruppe als auch die Laufzeit spielen demnach eine aussagekräftige Rolle.
Zunächst sollten die vorher definierten Hypothesen mit den Ergebnissen abgeglichen werden. Weichen die Ergebnisse stark von den erwarteten Resultaten ab, gilt es nochmal alle Faktoren genau zu prüfen. Die Testergebnisse entsprechen den Erwartungen? Performt Variante A wie gedacht besser als Variante B, ist dies die Seite, mit der Unternehmen weiterhin arbeiten sollten. Daraus lassen sich wichtige Schlüsse ziehen. Am Ende sollten Unternehmen jedoch immer die bessere Version mit einer weiteren Testinstanz gegenchecken. Nun geht es ans Beobachten:
Ändert sich das Nutzerverhalten auf längere Sicht oder nur kurzfristig?
Kommen weniger Supportanfragen rein?
Steigt die Kundenzufriedenheit?
Wie verändern sich die Zahlen?
Ist der Testzyklus abgeschlossen, geht es daran, andere Elemente zu testen und herauszufinden, ob diese einen Unterschied machen.
Im Folgenden sind einige Beispiele zur Visualisierung der Tests, die helfen, das Prinzip von A/B-Tests besser zu verstehen. Bei allen Tests wird immer nur ein Element verändert, damit sich messen lässt, welche Elemente besser beim Zielpublikum ankommen. Ändern sich mehrere Faktoren gleichzeitig, ist es nicht möglich zu bestimmen, was den Besuchern an der Version zusagt.
Jeder bekommt regelmäßig Newsletter von einem Unternehmen, bei dem er oder sie schon mal Produkte erworben oder sich rein aus Interesse für den Newsletter angemeldet hat. Da heutzutage sehr viele Unternehmen E-Mail-Marketing nutzen, ist es schwierig, nicht in der Masse an Mitbewerbern unterzugehen. Hier bietet es sich an, einen Newsletter beispielsweise mit unterschiedlichen Betreffzeilen zu nutzen. Klappt es bei der gewünschten Zielgruppe besser mit Click-Bait-Headlines oder mit Zahlen im Titel?
Beim Besuch eines Onlineshops erwarten Nutzer ein bedienungsfreundliches Umfeld, mit schnellen Ladezeiten, einer Auswahl an Bezahlsystemen und vielem mehr. Shopbetreiber können unterschiedliche Faktoren testen.
Beispiel: Im Shop werden Sommerkleider verkauft. Statt “rotes Kleid” könnte der Content-Creator die folgende Beschreibung nutzen: “runbinrotes Strandkleid”. Damit lässt sich testen, was bei den Lesern besser ankommt.
Sowohl bei Google Ads als auch Social Ads sollten Unternehmen variabel sein. Um die richtige Zielgruppe für die eigene Marke zu erreichen, gilt es herauszufinden, welche Version einer Kampagne besser perfomt. Hier können beispielsweise einmal cleanere Anzeigen genommen werden und mal verspieltere, um zu sehen, wie diese sich auf die Klick- und Conversion Rate auswirken. Außerdem lassen sich CTAs schnell anpassen und testen.
Neben dem klassischen A/B-Testing existieren weitere bekannte Testmöglichkeiten. Diese erfordern jedoch häufig einen hohen Traffic und eignen sich eher für mittelständische bis große Unternehmen.
Bei A/B/n-Tests lassen sich mehrere Varianten der Kontrollversion gegen eine Kontrollinstanz testen. Die Zielgruppe wird dabei in kleinere Testgruppen aufgesplittet (zum Beispiel je 25 %). Durch das mehrfache Testen eröffnen sich neue Wege, um zu sehen, welche Kombination von Elementen auf einer Seite am besten performt. Damit diese Art und Weise der Tests funktioniert, benötigt ein Unternehmen eine Menge Traffic.
Multivariate Tests sind eine Form des A/B-Testings, bei denen jedoch nicht nur eine, sondern mehrere Variablen in Kombination untersucht werden. Das Ziel des Testverfahrens ist es, Kombinationen miteinander zu vergleichen und die Variante herauszustellen, die die bestmögliche Conversion Rate erzielt. Während dieser Test automatisch alle möglichen Kombinationen testet, muss jemand bei einem A/B/n-Test alle Optionen per Hand selektieren.
Es gibt zwei verschiedene Typen von multivarianten Tests:
Vollfaktoriell: Diese Methode beschreibt den generellen Fall des multivariaten Testings. Dabei werden alle möglichen Kombinationen der Variablen unter denselben Bedingungen geprüft. Das bedeutet, dass jede definierte Kombination mit der gleichen Anzahl an Testpersonen getestet wird. Diese Methode ermöglicht es, die Wechselwirkungen zwischen den Variablen zu analysieren und die optimale Kombination zu identifizieren.
Teilfaktoriell: Dieses Verfahren wird seltener angewendet, da es statistische Ableitungen erfordert. Hierbei werden nur einige ausgewählte Kombinationen für den gesamten Traffic getestet. Die übrigen Varianten werden mithilfe statistischer Methoden bestimmt. Dieser Ansatz ermöglicht es, eine große Anzahl von Kombinationen effizient zu testen und dennoch aussagekräftige Ergebnisse zu erzielen.
Die Wahl zwischen vollfaktoriellen und teilfaktoriellen multivarianten Tests hängt von verschiedenen Faktoren wie der verfügbaren Testgröße, den Ressourcen und dem gewünschten Detailgrad der Analyse ab. Multivariate Tests bieten somit eine erweiterte Möglichkeit, die Auswirkungen mehrerer Variablen auf die Conversion Rate zu untersuchen und die bestmögliche Kombination zu ermitteln. Durch die gezielte Optimierung der Variablen können Unternehmen ihr Online-Marketing effektiver gestalten.
A/B-Testing hat einen bedeutenden Einfluss auf datengesteuerte Entscheidungen. Demnach bieten sie ein Potenzial zur kontinuierlichen Verbesserung von Marketingstrategien eines Unternehmens und unterstützen beispielsweise bei der Suche nach der besten Version einer Website oder einer App. Auch wenn nicht jeder Test positiv ausfällt, geben sie immer weitere Aufschlüsse über neue Testmethoden. Achtung: Die Ergebnisse sollten immer mit Vorsicht interpretiert werden, damit sich keine Fehler einschleichen. Zudem spielen externe Einflüsse und auch die Saisonalität eine wichtige Rolle während der Testphase.
A/B-Testing und Multivariates Testing sind Methoden zur Optimierung von Marketingstrategien, unterscheiden sich jedoch in ihrem Ansatz. Beim A/B-Testing werden zwei Varianten (A und B) miteinander verglichen, wobei jeweils nur eine Variable geändert wird. Beim Multivariaten Testing werden mehrere Elemente oder Variablen gleichzeitig getestet, um ihre individuellen und kombinierten Auswirkungen zu analysieren. Während A/B-Tests einfacher und schneller zu implementieren sind, ermöglicht das Multivariate Testing eine detailliertere Analyse der Wechselwirkungen zwischen den Variablen.
Die Dauer eines A/B-Tests hängt von verschiedenen Faktoren ab:
der Größe der Testgruppen
dem erwarteten Effekt der Änderungen
der Verkehrsrate auf der Website
In der Regel sollten Tests jedoch für einen ausreichenden Zeitraum laufen, um statistisch signifikante Ergebnisse zu erhalten. Mindestens eine Woche lang, um etwaige wochentags bedingte oder saisonale Schwankungen zu berücksichtigen. Am besten sogar zwei Geschäftszyklen lang.
Die Auswahl der richtigen Metrik für die Bewertung eines A/B-Tests ist entscheidend, um aussagekräftige Ergebnisse zu erhalten. Die Metrik sollte eng mit dem Testziel verbunden sein und die gewünschten Veränderungen widerspiegeln. Beispiele für gängige Metriken sind:
Conversion Rate
Klickraten
Durchschnittlicher Bestellwert
Verweildauer auf einer Seite
Es ist wichtig, die Metrik vor Beginn des Tests festzulegen und sicherzustellen, dass sie objektiv, messbar und aussagekräftig ist.