Maßgeschneiderte Serviceangebote, die auf die individuellen Interessen der Kunden abgestimmt sind, bilden die Grundlage für eine umsatzstarke Webseite. Dabei schaffen es persönliche Produktvorschläge und Empfehlungen, Kunden immer wieder in den Onlineshop oder in die eigene App zu holen und so die Conversion Rate hoch zu halten. Um herauszufinden, was Kunden wollen, können Unternehmen einen A/B-Test vornehmen. Wir zeigen, worauf Sie achten sollten, um über A/B-Tests aussagekräftige Ergebnisse zu erhalten.
Inhaltsverzeichnis
Was ist ein A/B-Test?
Über einen A/B-Test ermitteln Unternehmen Faktoren, die Nutzer vom Kaufabschluss abhalten könnten. Dafür vergleichen sie zwei oder mehr Alternativen eines Elements auf einer Webseite, in einer App oder E-Mail. Auf diese Weise finden sie heraus, welche Variante am besten funktioniert, um User zu Webseitenbesuchern oder Käufern zu machen. Der Vorteil: Seitenbetreiber müssen nicht den Traffic über teure Akquise erhöhen, sondern können bei gleichbleibenden Besucherzahlen die Conversion Rate steigern.
Wie sieht ein A/B-Test in der Praxis aus?
User bekommen bei einem A/B-Test zwei Versionen – beispielsweise einer Webseite – angezeigt. Dabei sehen einige User per Zufallsprinzip Variante A und andere User Variante B. Das Verhalten der Nutzer auf der Seite zeigt dann, welche Variante mehr Leads, Klicks, Registrierungen oder Käufe erzielt. Auf Basis dieser Ergebnisse können Unternehmen ihre Online-Präsenz oder Marketingstrategie anpassen.
Welche Elemente können Unternehmen auf ihrer Webseite testen?
Unternehmen wissen oftmals nicht, warum ihre Conversion Rate besonders gut oder besonders schlecht ist – und damit auch nicht, wie sie ihre Seite optimieren können. Um Ihnen eine Orientierung zu geben, wo Sie mit einem A/B-Test ansetzen können, werfen wir einen Blick auf mögliche, zu testende Elemente:
Titel und Überschriften
Titel und Überschriften entscheiden mit darüber, ob sich User für einen Inhalt interessieren. Sie können daher zum Beispiel zwei verschiedene Überschriften testen oder ihre Farbe oder die Schriftart verändern.
Seitenstruktur
Die Seitenstruktur vor allem von Onlineshops ist komplex, so dass Sie hier zahlreiche Möglichkeiten haben, ihre Wirkung zu überprüfen. Dabei können Sie zum Beispiel Banner austauschen, Bildanzeigen verändern oder beliebte Produkte auf der Startseite anzeigen.
Navigation
Testen Sie bei der Navigation mehrere Conversion-Funnel. Dabei können Sie zum Beispiel kontrollieren, ob User Zahlungsart und Lieferangaben auf einer einzigen Seite oder doch auf zwei Seiten sehen möchten.
Buttons
Die Gestaltung und Platzierung von Buttons ist vor allem für Online-Händler eine Herausforderung. Testen Sie dabei beispielsweise, ob kleine oder große Buttons besser funktionieren, welche Form – rund oder eckig – bei Usern gut ankommt und welche Farbe Nutzer zu Klicks animiert. Diese Tests empfehlen sich insbesondere für Call-to-Actions bzw. Kaufbuttons im Shop, da sie ein entscheidender Faktor für Conversion Rate und Umsatz sind.
Bilder
Bilder auf Webseiten sind für die Conversion genauso wichtig wie Text. Online-Händler können dabei beispielsweise testen, ob Bilder von Produkten oder Bilder von Models zusammen mit Produkten besser ankommen. Ebenfalls möglich für einen A/B-Test: die Größe, Platzierung und Ästhetik von Bildern.
Formulare
Formulare auf Webseiten sollten unmissverständlich klar machen, was User wo eintragen müssen. Und: Sie sollten möglichst kurz sein und sich auf das Wesentliche beschränken. Testen Sie dabei verschiedene Formulierungen, das Hinzufügen oder Entfernen von optionalen Feldern und die Anordnung der Zeilen und Spalten.
So führen Unternehmen einen aussagekräftigen A/B-Test durch
Damit Unternehmen verlässliche Ergebnisse aus einem A/B-Test erhalten, sollten Sie auf diese Kriterien achten:
- Hypothese formulieren
Unternehmen können nicht ohne Vorarbeit in einen A/B-Test gehen. Sie benötigen eine Ahnung, welche Conversion-Probleme ihre Seite an welcher Stelle haben könnte. Diese Ahnung sollten sie dann in einer Reihe von Hypothesen formulieren. Die Hypothesen sollten dabei diese Vorgaben erfüllen:
- Die Hypothese sollte ein klar bezeichnetes Problem nennen, dessen Ursache Sie erahnen.
- Es sollte eine mögliche Lösung für das Problem nennen.
- Es sollte auf den zu erwartenden Benefit aus dem Test verweisen.
Vermuten Sie beispielsweise, dass die Absprungrate beim Bestellformular im Onlineshop so hoch ist, weil das Formular zu lang ist, könnte die Hypothese lauten:
Das Kürzen des Bestellformulars über das Entfernen optionaler Felder steigert die Zahl der Kaufabschlüsse.
- Auf ein Detail konzentrieren
In der Regel erhalten Sie bei einem A/B-Test besonders aussagekräftige Ergebnisse, wenn Sie zwei Variablen miteinander vergleichen, die sich nur im Details unterscheiden. Wollen Sie also beispielsweise verschiedenen Content testen, sollte das Design der Seite unverändert bleiben. Wollen Sie die Platzierung von Buttons überprüfen, sollte ihre Bezeichnung gleichbleiben. Als Leitsatz können sich Unternehmen merken: Je kleiner die Unterschiede zwischen den beiden Varianten, desto aussagekräftiger ist der A/B-Test.
Das gilt lediglich nicht für einen multivariaten Test (MVT): Dieser überprüft, wie sich mehrere veränderte Elemente auf ein- und derselben Seite auswirken. Auf diese Weise klären Sie, welche Kombination die beste Leistung auf einer Seite erzielt.
- Messgrößen festlegen
Am Ende wollen Unternehmen wissen, welche Elemente auf einer Webseite die Conversion Rate und damit den Umsatz erhöhen. Bei einem A/B-Test müssen Sie sich jedoch auf eine kleine Messgröße festlegen und daraus Ihre Schlüsse ziehen. Wollen Sie also beispielsweise die Platzierung eines Buttons auf der Seite überprüfen, ist die Messgröße für beide bzw. alle Varianten die Zahl der Klicks auf den Button.
- Gleichmäßige Verteilung der User vornehmen
Jede Variante sollte, soweit möglich, von nahezu identisch vielen Usern getestet werden. Denn: Nur, wenn Variante A und Variante B gleich viele User zu sehen bekommen, erhalten Sie aussagekräftige Daten. Überprüfen Sie daher besser mehrfach, ob der Counter wirklich alle Sessions berücksichtigt hat. Treten hier Fehler auf, sind die Messungen unbrauchbar.
- Testfeld nicht verändern
Auch wenn die ersten Messungen keine Ergebnisse erbringen, sollten Sie das Testfeld über den gesamten Zeitraum des A/B-Tests nicht verändern. Unternehmen sollten daher währenddessen keine neuen Elemente einführen oder bestehende Elemente abwandeln. Denn: Das würde die User beeinflussen und damit die Ergebnisse des Tests verfälschen.
- Zuverlässigkeitsrate erreichen
Die Herausforderung eines A/B-Tests liegt darin, so viele Daten zu gewinnen, dass diese statistisch zuverlässig sind. Denn: Nur dann können Unternehmen daraus Schlüsse ziehen, die ihre Webseite oder App tatsächlich und nachhaltig optimieren. In der Regel läuft ein A/B-Test daher über mehrere Tage, um unterschiedliche Wochentage und Tageszeiten in die Datenaufnahme einfließen zu lassen. Je nach Produktart und Zielgruppe kann der Test jedoch auch mehrere Wochen dauern. Vor allem komplexe, technische Produkte und B2B-Dienstleistungen erfordern in der Regel viel Zeit, bis User einen Kauf abgeschlossen haben.
Als Richtwert können Unternehmen eine statistische Zuverlässigkeit von mindestens 95 Prozent notieren. Dann ist es sehr unwahrscheinlich, dass die Ergebnisse der unterschiedlichen Varianten auf Zufall beruhen.
- Test lange genug laufen lassen
Haben Sie die statistische Zuverlässigkeitsrate bereits nach kurzer Zeit erreicht, ist es unwahrscheinlich, dass Sie bereits aussagekräftige Daten gewonnen haben. Denn: Zu wenige Besucher über einen kurzen Zeitraum können zwar die Rate von 95 Prozent erfüllen. Verschiedene Wochentage und Uhrzeiten sind dann jedoch Variablen, die der Test nicht berücksichtigt hat. Grundsätzlich gilt: Ein A/B-Test sollte mindestens 5.000 Besucher und 75 registrierte Conversions pro Variante aufweisen, damit Sie brauchbare Ergebnisse erhalten.
Andersherum kann es auch passieren, dass ein Test zu lange braucht, bis er die Zuverlässigkeitsrate erreicht hat. Sie können den Test dann vorzeitig beenden. Das Ergebnis lässt dann vermuten, dass das getestete Element keine Auswirkungen auf den gemessenen Indikator hat.
- Test dokumentieren
Damit Sie (oder Ihre Mitarbeiter) die Ergebnisse genau nachvollziehen und auswerten können, sollten Sie einen A/B-Test ausführlich dokumentieren. Dazu gehören unter anderem
- der Name des Tests,
- der Zeitraum des Tests,
- die getesteten Hypothesen,
- eine aussagekräftige Beschreibung der getesteten Varianten und
- die Schlussfolgerungen des Tests.
- Ergebnisse richtig einschätzen
Sind alle Daten eingesammelt, geht es an die Auswertung. Für diese sollten Unternehmen im Hinterkopf behalten, dass ein A/B-Test lediglich Wahrscheinlichkeiten aufdeckt, wie sich bestimmte Elemente auf das Verhalten von Usern auswirken. Ein mathematischer Beweis ist der A/B-Test nicht. Unternehmen sollten daher die nach dem Test vorgenommenen Optimierungen langfristig überprüfen.
Daneben sollten Sie bei der Auswertung des A/B-Tests mögliche Faktoren, die den Test beeinflusst haben könnten, berücksichtigen. Tests kurz vor Weihnachten beispielsweise können irreführende Ergebnisse erbringen, da die Conversion Rate – zumindest im E-Commerce – zu dieser Zeit grundsätzlich höher liegt. Auch laufende Kampagnen zur Traffic-Generierung oder eine verstärkte Anzeigenschaltung sorgen dafür, dass ein A/B-Test verfälschte Ergebnisse liefern kann.
Welche Tools stehen Unternehmen für A/B-Tests zur Verfügung?
Unternehmen finden am Markt zahlreiche verschiedene Tools, über die sie einen A/B-Test vornehmen können. Grundsätzlich müssen sie sich dabei vor allem entscheiden, ob sie dafür Geld ausgeben möchten. Eine gute Software sollte über eine Reporting-Schnittstelle verfügen, die
- die Conversion Rate,
- die Conversion pro Variante,
- die prozentuale Verbesserung im Vergleich zur Originalversion und
- die statistische Zuverlässigkeitsrate der jeweiligen Variante
ermittelt. Software für einen ausführlicheren A/B-Test kann zum Beispiel den Kundentyp, die geografische Herkunft von Nutzern und die Traffic-Quelle bestimmen. Am Markt etabliert hat sich unter anderem Google Analytics, das Unternehmen eine kostenlose Möglichkeit für einen A/B-Test bietet. Insbesondere kleinere Unternehmen und Händler können so erste Tests preiswert vornehmen. Um die Daten auszuwerten, müssen sie ihre Webseite mit Google Analytics verbinden. Adobe Target dagegen ist eher etwas für größere Unternehmen, die umfangreichere Ergebnisse ermitteln möchten.