Kategorien
(Kostenlose) Services E-Business Essentials SEO & Online-Marketing

Optimizely: Das kann der schnelle A/B-Test wirklich

Ideen gibt es wie Sand am Meer. Tolle Ansätze, wie eine Webseite noch viel erfolgreicher sein könnte aber von denen niemand weiß, ob sie wirklich funktionieren. Einfach ausprobieren ist meist eine gute Idee. Durch die Beteiligung möglichst vieler Nutzer sollte schnell klar werden, welche Lösung die wirklich passende ist. Die sogenannten A/B-Tests sind mit dem Internet fest verwurzelt und der Web-Dienst optimizely verspricht, alles rund um diese Tests ganz einfach zu machen.

Stundenlange Diskussionen sind bei Online-Marketern in lustiger Runde mit Webentwicklern normal. Schließlich gibt es fast unendlich viele Möglichkeiten, die betreuten Webseiten zu verändern. So können schon kleine Änderungen bei einem Online-Shop zu einer drastischen Erhöhung der tatsächlichen Verkäufe führen. Umgekehrt passiert es, dass die besten Ideen, in schlüssige Konzepte gegossen, überhaupt nicht funktionieren. Eine Sicherheit gibt es nicht. Zum Schluss entscheidet immer der Nutzer. Ob eine Manipulation letztlich eine Optimierung war, zeigt sich so erst im Nachhinein.

opt-general

Probieren geht über Studieren

Um vom Nachhinein ins Vorhinein zu wechseln, muss lediglich die Phase des Ausprobierens ebenfalls ins Vorhinein verlegt werden. Ideen werden zusammengefasst, umgesetzt und direkt den Kunden ausgeliefert. Die Idee mit den besten Ergebnissen gewinnt. Eine einfache Idee, die technisch nicht einfach umzusetzen ist. Erst müssen verschiedene Versionen der jeweils angedachten Lösungen erstellt werden, im Anschluss liefert eine technische Anwendung für jeden Benutzer eine bestimmte Version aus. Die ausgelieferte Version muss mit dem Benutzer verbunden werden und zum Schluss soll noch die endgültige Aussage herausfallen, welche Version nun besser funktioniert hat: Schritte, die ein großes Unternehmen ohne jegliche Probleme mit der notwendigen Personalstruktur umsetzen kann. Für ein kleineres Projekt sind die Hürden immens und kaum wirtschaftlich umzusetzen.

Tests in der Cloud

Es gibt viele Ziele: Verkäufe steigern, höhere Warenkörbe erzielen, die Verweildauer auf der Webseite maximieren oder prozentual mehr Newsletter-Abonennten gewinnen – zentrale Fragen für jeden Betreiber einer Webseite. Der Dienst optimizely hat es den Großen im Markt nachgemacht und mit einer großen Portion Leichtigkeit die Welt des A/B-Testings in die Wolke gepackt. Einmal die URL eingegeben, wird die zu testende Webseite automatisch geladen. Per Klick wird eine neue Version der Webseite angelegt und das Herumspielen kann beginnen. In einem Online-Editor lässt sich jeder kleinste Punkt der Webseite komplett umstrukturieren. Texte werden geändert, Bilder eingefügt oder ein Klick-Tracking platziert. Alles funktioniert wie in bekannten Office-Programmen und in einer atemberaubenden Geschwindigkeit bei zeitgleicher exakter Ausführung. Eine Stärke, die andere Online-Editoren gerne einmal optimizely abschauen sollten.

opt-drweb

Kompliziertere Änderungen lassen sich unkompliziert per direkter Änderung des Quelltextes erledigen, ohne die schöne Oberfläche verlassen zu müssen. Die Hürde der Erstellung vieler Test-Versionen wäre damit schon einmal überwunden. Nur muss auch alles zum Benutzer transportiert werden. Dazu liefert optimizely einen Javascript-Code, der einfach nur in den Header-Bereich der zu testenden Webseite eingefügt wird. Vom Server kommt also weiterhin das Original, aber immer wenn ein Test läuft, wird noch vor der Darstellung der Quelltext automatisch geändert. Eine Vorgehensweise, die auch beim SEO hilft: In den Suchmaschinen landet nur die vom Server ausgelieferte Original-Version. Die kleinen, mehr oder weniger guten Tests sind absolut transparent und verwässern das Suchergebnis nicht.

Relevante Ergebnisse

Die wichtigste Funktion fehlt noch: das Tracking. Da können die vielen ausgelieferten Test-Versionen noch so schön sein. Ohne die folgende Auswertung bleiben sie nur eine Spielerei. Der virtuelle Baukasten beinhaltet eine ausgereifte Experimente-Funktion. Hat man einmal ein Ziel festgelegt, funktioniert alles automatisch. Ob Newsletteranmelderate, Warenkorbwert oder Abbruchrate – alles kann meist ohne eine Zeile Programmieraufwand in die Cloud-Lösung geschoben werden und wird sogleich mit der ausgelieferten Test-Version kombiniert. Heraus kommt eine übersichtliche und absolut aussagekräftige Statistik. So lässt sich ganz einfach der Gewinner aller konkurrierenden Versionen feststellen und entsprechend die Webseite umgestalten. In höheren Tarifen ist auch eine Tunnel-Analyse möglich, die einen Prozess über mehrere Schritte abbildet und zum Schluss eine Aussage darüber trifft, an welchem Punkt die meisten Nutzer scheitern.

Nicht nur Vorteile

Ohne einen Dienst wie optimizely würden viele Potentiale nicht entdeckt. Gerade in der Einfachheit und hinsichtlich der schnellen Testergebnisse ist die Cloud-Anwendung kaum zu schlagen. Schade nur, dass wirklich interessante Funktionen, wie der nach Browsern aufgeteilte Tests oder die Analyse von Besuchersegmenten nur in höheren Tarifen zugänglich ist. Zahlt ein Nutzer für die Standard-Funktionen schon 17 Dollar pro Monat, sind es mehrere hundert Dollar in den Tarifen mit einem höheren Funktionsumfang – natürlich auch mit mehr erlaubten Test-Besuchern auf der Seite.

Doch gerade viele Funktionen der höheren Tarife wären für Anwender mit einer kleineren Zielgruppe von Interesse. Die Einschränkung wird in Hinblick auf vorhandene Software und keinen relevanten Mehraufwand einfach nur beliebig.  Auch mit dem Datenschutz dürften gerade die deutschen Nutzer Probleme haben. Schließlich speichert optimizely zur Auswertung der Nutzung entsprechende Daten und geht in der Erhebung noch über bekannte Analyse-Dienste wie Google Analystics hinaus.

Neben der Identifizierung des jeweiligen Nutzers können noch personenbezogene Daten mit einem Mausklick in die Datenwolke in den USA geschickt werden. Eine Aufklärung über die Nutzung in den Datenschutzbedingungen und eine Abrede mit optimizely selbst wäre bei der Komplexität nicht ganz abwegig.

(dpe)

Kategorien
Webdesign

Conversionrate Workshop – Teil 2: A/B-Test mit Google Analytics

Jede Veränderung wichtiger Elemente der Website will getestet werden, ob das Resultat tatsächlich besser funktioniert als die ursprüngliche Seite. Mittel der Wahl ist der A/B-Test oder der Test mit mehr als zwei Alternativen – sprich Multivariattest.

Bevor Sie irgend einen Test aufsetzen, sollten Sie sich zunächst Gedanken darüber machen, was Sie testen wollen. Wenn Sie zu frühzeitig in Detailtests einzelner Elemente einsteigen, riskieren Sie, den größeren Zusammenhang zu verlieren.  Vielleicht ist bereits das Grunddesign der Seite, die Sie testen, suboptimal. Die Farbwahl, das Wording, die grafischen Elemente.

Vom Großen zum Kleinen

Das strategische Grundprinzip ist die Optimierung vom Großen zum Kleinen. Bevor Sie die einzelnen Buttons ins Visier nehmen, testen Sie zunächst unterschiedliche Grundvarianten gegeneinander. Vergleichen Sie konservative Gestaltungsvarianten und moderne Web2.0-Designs. Testen Sie lange Informationsseiten gegen kurze, einfache Präsentationen von Produktvorteilen. In vielen Fällen gewinnt das Prinzip der Einfachheit und Klarheit.

Erzeugen Sie also zwei Varianten Ihrer Produkt- oder Landeseite. Wenn Sie hohen Traffic auf Ihren Seiten haben (ab 10 000 Nutzer pro Monat), erstellen Sie gleich drei oder vier Varianten. Nun lassen Sie eine Variante gegen die nächste antreten und vergleichen die Ergebnisse. Die bessere Seite kommt „eine Runde weiter“ und wird der nächsten Veränderung unterworfen.

Google verbirgt seine zwei Testmethoden – A/B-Testing und mutlivariates Testing – hinter einem Hyperlink namens „Nutzen Sie das Website-Optimierungstool“, den Sie rechts unten in Ihrem Google Analytics Bericht „Content“ finden. Sie können aber auch direkt den Websiteoptimizer aufrufen und sich dort mit Mail-Adresse und Passwort einloggen.

Klicken Sie nun auf den Link „Neuen Test erstellen“ und wählen Sie auf der nächsten Seite „A/B-Test“. Achten Sie nicht auf den beschreibenden Text. Natürlich müssen Sie nicht die ganze Seite verändern. Tatsächlich ist es sogar umso leichter, die Wirkung einer Maßnahme exakt zu analysieren, je weniger sie an einer Seite ändern. Im nächsten Schritt fordert der Optimizer Sie dazu auf, die Varianten herzustellen und zu veröffentlichen. Beginnen Sie mit exakt zwei Varianten, dann tun Sie sich in der Analyse leichter.

Die dritte Seite, die Sie benötigen, ist eine Landeseite. Wenn Sie maximale Transparenz haben wollen, legen Sie eine neue Landeseite nur für diesen Zweck an. Sollte Ihre Anwendung vorsehen, dass gar keine neue Seite geladen wird (beim Download einer PDF-Datei oder beim Abschicken eines Mail-Formulars, so können Sie die Weiterleitung auf die Landeseite im Hintergrund erzwingen. Platzieren Sie folgendes Skript im Kopf beider Variantenseiten:

<script type=“text/javascript“>
function weiter (Adresse) {
Danke = parent.location.href(Adresse);
Danke.focus();
}
</script>

Der entsprechende Button bekommt zusätzlich zu seiner normalen Funktion noch:

onClick=“weiter(‚mail_danke.html‘)

Laden Sie die drei Seiten auf Ihren Webserver und übergeben Sie die URLs an den WebsiteOptimizer. Dieser wird zunächst nur die Existenz der Adressen prüfen.

Auf der nächsten Seite gibt Ihnen der Optimizer Code, den Sie einmal im Kopf der Originalseite und dann ganz am Ende aller drei Seiten einfügen müssen. Ein einfacher Click ins Codefenster wählt den gesamten Code aus. Kopieren Sie ihn in die Zwischenablage und fügen Sie ihn vor <html> bzw. nach </html> auf Ihren Seiten ein. Laden Sie die Seiten erneut auf den Server.


Dieser A/B-Test erbrachte nach drei Wochen ein eindeutiges Ergebnis: Die orange-gefärbte Variante konvertiert deutlich besser

Am Fuß dieser Seite testet der Optimizer mit einem Button, ob die Skripte korrekt eingebunden wurden. Ist das der Fall, können Sie den Test starten. Der WebsiteOptimizer wird nun Traffic, der auf ihre Orignalseite trifft, in der Hälfte der Fälle direkt auf die zweite Variante weiterleiten. Nach einem gewissen Zeitraum (Google spricht von 100 Conversions) lassen sich erste Tendenzaussagen treffen.

So einfach der A/B-Test eingerichtet ist, so schwierig ist es, die richtigen Schlüsse aus den Ergebnissen zu ziehen. Zwar ist es einfach zu erkennen, welche Variante eines Elements besser funktioniert als die andere, doch stellt sich die Frage ob die Variante selbst dafür verantwortlich ist oder eine ganz andere Umgebungsvariable. So kann die Bestellmenge eines Produkts natürlich von Woche zu Woche schwanken, wenn zum Beispiel einer Ihrer Konkurrenten Lieferschwierigkeiten hat.

Und vergessen Sie nicht, den Wert der Optimierung zu messen. Nur der Wert entscheidet, ob sich der Aufwand, den Sie für das Testing betreiben, überhaupt lohnt.

Links zum Artikel

(sl), (mm)