vier Kaffeetassen mit verschiedenen Milchanteilen

A/B-Testing kann Marketern helfen, Inhalte zu optimieren und Konversionsraten zu steigern. Bei der Durchführung eines A/B-Tests gibt es jedoch einiges zu beachten.

Landing Pages erstellen, Werbeanzeigen verfassen oder einen CTA entwerfen: Häufig verlassen sich Marketer auf ihr Bauchgefühl, wenn es darum geht, potenzielle Kunden zum Konvertieren zu bringen. In vielen Fällen bringen Entscheidungen, die auf Gefühlsbasis entstehen, allerdings nicht die gewünschten Ergebnisse. Es kann sich daher lohnen, A/B-Tests durchzuführen.

Durch A/B-Testing können Unternehmen ihre Konversionsrate steigern und die Verhaltensweisen von Zielgruppen besser kennenlernen. Einer Studie von Econsultancy und RedEye zufolge sehen 72 Prozent der befragten Marketer A/B-Tests sogar als „hochwertvoll“ an (PDF-Download).

Was ist A/B-Testing?

Beim A/B-Testing werden zwei Versionen einer Webseite, E-Mail, etc. verglichen, um festzustellen, welche Variante bessere Ergebnisse erzielt (Konversionsrate, Impressions, etc.). Dabei wird der einen Hälfte der Nutzer die einfache Version (Kontrolle) und der anderen Hälfte eine leicht veränderte Version (Variation) des Inhalts angezeigt. Daraufhin wird statistisch analysiert, welche Variante sich für ein bestimmtes Ziel eher eignet. Nach dem A/B-Test wird die erfolgreiche Variante für alle Nutzer gewählt.

Hier sind einige Tipps, die Marketer befolgen können, um ihre A/B-Tests zu optimieren:

  1. Die richtigen Elemente auswählen und isolieren

Marketer müssen sich im Vorfeld eines A/B-Tests überlegen, bei welchen Inhalten sich Änderungen lohnen können. Dabei bietet es sich häufig an, stark frequentierte Bereiche auszuwählen, die trotzdem zu niedrigen Konversionsraten führen. So können schneller Daten gesammelt werden, aus denen wichtige Erkenntnisse hervorgehen.

Innerhalb eines Bereichs gibt es viele verschiedene Elemente, die getestet werden können. Darunter fallen beispielsweise Farben von CTA-Buttons oder Titel von redaktionellen Inhalten. Um beurteilen zu können, wie effektiv eine Änderung ist, muss das entsprechende Element einzeln betrachtet werden. Sprich, die Variation sollte nicht zu viele Änderungen enthalten, sondern im Idealfall genau eine, um das veränderte Nutzerverhalten besser messen zu können. Andernfalls können sich Unternehmen nicht sicher sein, welches Element wirklich für eine Leistungsänderung verantwortlich war.

  1. Kleine Änderungen können Großes bewirken

Marketer sollten sich außerdem bewusst darüber sein, dass bereits kleine Änderungen nachweisbare Auswirkungen auf die Konversionsrate haben können.

Marketingexperte Perry Marshall berichtet von einem A/B-Test, bei dem die Konversionsrate von zwei Werbeanzeigen ausgewertet wurde. Der einzige Unterschied zwischen den Anzeigen war ein einziges Komma. Trotz dieses scheinbar irrelevanten Details hat die Version mit dem Komma die Konversionsrate 0,28 Prozentpunkte gegenüber der einfachen Version verbessert (Quelle: Wordstream). Das klingt auf den ersten Blick nach keiner merklichen Änderung, doch zählt man kleine Änderungen zusammen und spielt man beispielsweise die Anzeigen an ein großes Publikum aus, so können hier enorme Mehrwerte erlangt werden.

  1. Konzentration auf eine Zielmetrik

Es ist darüber hinaus sinnvoll, sich auch nur auf ein Konversionsziel zu konzentrieren. Das bedeutet, eine bestimmte Metrik auszuwählen, anhand derer Marketer feststellen können, ob die leicht veränderte Version erfolgreicher ist als die einfache Version. Die Zielmetrik selbst kann dabei vielfältig sein, von Klicks auf eine Schaltfläche oder einen Link bis hin zu Produktkäufen und Newsletter-Anmeldungen.

Testen Unternehmen beispielsweise zwei Versionen einer Landing Page und haben generierte Leads als Metrik gewählt, sollten die Impressions/Views keine Rolle spielen.

  1. Eine klare Hypothese formulieren

Sind die richtigen Elemente ausgewählt, müssen Marketer möglichst konkrete Hypothesen formulieren, die durch das Testing überprüft werden sollen. Diese sollen in der Regel ein bestimmtes Konvertierungsproblem lösen. Durch das Aufstellen der Hypothesen können später verlässlich Rückschlüsse aus den Testergebnissen gezogen werden.

Was macht eine gute Hypothese aus?

Erwartung: Was soll mit der Variation erreicht werden? Im Idealfall ist diese Erwartung analytisch gestützt (Kundenstudien, Best Practices, Benchmarks, etc.)

Messung: Wie wird das Ergebnis gemessen? Welcher Wert bestimmt einen Erfolg (z.B. Conversion, Klickrate, Impressionen, etc.).

Mehrwert: Welchen Wert hat diese Änderung für Kunden und Nutzer (z.B. intuitivere Ansicht, positive Reaktion auf einen Text oder ein Bild, etc.).

Beispiel:

Basierend auf niedrigen Klickraten auf unserer Seite und Best Practices in unserer Branche, gehen wir davon aus, dass eine Veränderung unserer CTAs von einem Text-Link zu einem beschrifteten Button eine höhere Konversion mit sich bringt. Der Erfolg lässt sich leicht an der Klickrate auf der Seite messen. Durch die Buttons sind unsere CTAs klarer ersichtlich und Kunden können einfacher über die nächste Interaktion auf unserer Seite entscheiden.

Eine einfache Hilfe, um präzise Hypothesen zu formulieren, ist übrigens das Hypothesis-Kit von Craig Sullivan.

  1. Genügend Zeit einplanen, …

Um zu den richtigen Ergebnissen zu kommen, müssen Marketer über einen ausreichend großen Datensatz verfügen, auf den sie zurückgreifen können. Größere Datenmengen liefern nicht nur genauere Ergebnisse, sondern machen es auch einfacher, typische Abweichungen vom Durchschnittsergebnis zu identifizieren.

Aussagekräftige Ergebnisse von A/B-Tests stellen sich in der Regel also nicht über Nacht ein. Beim Entwerfen, Durchführen und Auswerten von A/B-Tests sollten Marketer demnach geduldig sein. Einen Test vorzeitig zu beenden, kann sich zwar wie eine Zeitersparnis anfühlen, könnte Unternehmen am Ende jedoch Geld kosten.

  1. … aber Tests nicht unnötig lang laufen lassen

Laufen Tests zu lange, kann dies von Suchmaschinen als Täuschungsversuch gewertet werden. Haben Marketer einen A/B-Test erfolgreich durchgeführt, empfiehlt es sich daher, die schlechter abschneidende Version umgehend zu entfernen.

Unternehmen müssen genau darauf achten, wann der Datensatz groß genug ist. Wie lange das dauert, hängt insbesondere davon ab, wie viele Nutzer auf den ausgewählten Inhalt zugreifen.

  1. Feedback von Nutzern einholen

Warum Nutzer bestimmte Aktionen anderen bevorzugen, erklärt sich durch A/B-Tests nicht unbedingt. Es kann für Marketer daher sinnvoll sein, direktes Feedback von Nutzern einzuholen.

Dafür können Unternehmen Online-Umfragen nutzen, beispielsweise direkt auf der Webseite. Nutzer können befragt werden, warum sie gerade auf einen bestimmten CTA geklickt, oder Formulare ausgefüllt haben. So erhalten Unternehmen konkrete Informationen darüber, warum sich ihre Benutzer auf eine bestimmte Art und Weise verhalten. Diese Informationen lassen sich wiederum auf weitere Optimierungen anwenden.

Beachten Sie derweil bei der Anwendung von Nutzerbefragungen, dass diese nicht zu aufwändig, lang oder sperrig sind, damit sie nicht von Nutzern als negative Interaktion mit Ihrem Unternehmen empfunden werden.

  1. A/B-Testing ist ein Lernprozess

Ist bei einem Test keine der beiden getesteten Versionen besser, wird er in der Regel als nicht schlüssig markiert und die einfache Version beibehalten. Umsonst war der Aufwand allerdings trotzdem nicht.

Auch aus gescheiterten A/B-Tests können Unternehmen wertvolle Erkenntnisse für die Zielgruppenansprache gewinnen. Die gewonnenen Daten können darüber hinaus genutzt werden, um einen neuen Test zu entwickeln, der eventuell andere Elemente betrachtet, die sich im gleichen Bereich befinden.

Mit jedem A/B-Test sammeln Unternehmen also Erfahrungen darüber, welche Maßnahmen für bestimmte Arten von Inhalten am besten funktionieren. Wichtig ist, sich auch nach einem erfolgreichen A/B-Test nicht zufrieden zu stellen, sondern weiter zu testen und Möglichkeiten zu suchen, Landing Pages, Werbeanzeigen oder CTA stetig zu optimieren.


Um für Ihr A/B-Testing herauszufinden, wo Nutzer eventuell Optimierungen wünschen, lohnt sich die Anwendung des Customer Journey Mappings. Nutzen Sie die Anleitung in unserem Whitepaper, um mit der Nutzerbrille Lücken im Erlebnis zu identifizieren, um diese zu optimieren. 

New call-to-action


Icon PersonMilos Kuhn ist Werkstudent im Corporate Communications-Team der ec4u. Er studiert aktuell Medienwirtschaft an der Hochschule der Medien, Stuttgart.

Kontakt:
LinkedIn

,