w

Jak ocenić skuteczność serwisów e-commerce?

8344048410 176048abb9 b
Źródło: https://www.flickr.com/photos/cadencrawford/8344048410/CC

Odpowiedź na to pytanie można zawrzeć w jednym zdaniu: na przykład, stosując testy a/b. Sprawdziły się w porównywarce cen Okazje.info, stając się podstawowym narzędziem oceniającym skuteczność realizowanych projektów. Udział w testach bierze każdorazowo do miliona użytkowników.

Na czym polegają testy a/b?

Jeśli serwis e-commerce’owy ma rozbudowaną strukturę, warto opracować autorski mechanizm testów. Taki cel postawiła sobie Grupa Okazje, myśląc o wersji dla swojej porównywarki cen. Było to o tyle istotne, że ze względu na wprowadzenie dodatkowego systemu wydłużyłby się czas ładowania strony. Ponadto zastosowanie własnej technologii znacznie ułatwiło przeprowadzenie integracji z systemami wewnętrznymi.

W przypadku Okazje.info zintegrowaliśmy narzędzie z Google Analytics dzięki użyciu zmiennych niestandardowych (kod _setCustomVar). W Universal Analytics zastąpiony został przez tzw. custom metrics. To tu można zapisać unikalny numer testu i informację o wersji strony, którą widzi użytkownik. Te same dane zapisują się w pliku cookie. Gdy użytkownik powraca na stronę w trakcie testów, widzi tę samą wersję – odczytaną z ciastka.

Rozpoznawanie zmiennych w Analytics’ie wygląda tak:

1

W teście 5EA9 wyniki wskazują na 900 tysięcy odwiedzin z wyraźnym podziałem na dwie grupy użytkowników.

Co konkretnie dają testy a/b?

Doświadczenie, które zdobyła Grupa Okazje, pokazuje, że bez udziału testów a/b ocena efektywności jest nie tylko bardzo trudna, czasem wręcz niemożliwa, ale i podatna na błędy. Mimo że ich wdrożenie jest czasochłonne, takie testy stanowią ważny element optymalizacji działań serwisu. Dają również jednoznaczną ocenę danego projektu, uwzględniając m.in. poziom konwersji czy przychodu.

Ponadto, testy zapewniają minimalizowanie wpływu czynników zewnętrznych. Często są nimi, na przykład, pogoda, święta, wolne od pracy dni albo sezonowość ruchu i konwersji dla różnych kategorii produktowych. Należy pamiętać też o zmianach w ruchu, które są wynikiem wahania jego źródeł, ich efektywności, startujących kampanii, zmian w ruchu organicznym. A to tylko kropla w morzu.

Nieuniknione są także problemy w postaci awarii czy błędów. Wliczyć do tego trzeba wydłużenie czasu wczytywania strony, które może zniweczyć efekty nawet najlepszego projektu.

Jak to działa w e-sklepach?

Co istotne, poziomy konwersji i innych parametrów nie są z zasady stałe. Przykładem niech będzie sklep internetowy mający współczynnik konwersji w miesiącu średnio na poziomie 2%. Dziennie lub tygodniowo może odnotować duże wahania, ale wzrost lub spadek skuteczności wcale nie musi wynikać z tych zmian. Dopiero porównanie obu wersji: A i B w jednym czasie, gdy poddane są tym samym czynnikom zewnętrznym przyniesie wiarygodne informacje.

Zobaczmy, jak przedstawia się tabela z danymi tygodniowymi o konwersji dla danego sklepu internetowego. Choć dane są hipotetyczne, odzwierciedlają możliwą sytuację.

2.1

To zestawienie na pierwszy rzut oka wskazuje spadek konwersji, który można byłoby usprawiedliwiać właśnie wprowadzonymi zmianami. Jednak, gdy przyjrzymy się danym z podziałem na wersje A i B dla testu przeprowadzonego w tym samym czasie, możemy wyciągnąć kilka ciekawych wniosków.

2.2

Średnia konwersja tygodniowa dla wersji A: 1,78%
Średnia konwersja tygodniowa dla wersji B: 2,03%
Różnica B do A w punktach procentowych: 0,25 pkt. proc.
Różnica B do A w procentach: 14,07%

Dane wskazują, że:

a) różnica konwersji przedstawiona w punktach procentowych może być niewielka, natomiast wersja B zwiększyła skuteczność strony aż o 14%! To istotna zmiana, zwłaszcza gdy uświadomimy sobie, że znaczy to o 14% więcej zamówień.

b) dzienne wahanie konwersji w sklepie wynosi od 1,53% do 2,42%, choć nie jest to wcale najwyższe z możliwych. Przy takich wahaniach próba oceny skuteczności zmian bez testu a/b mogłaby być wątpliwa. Ponadto takie dane trzeba analizować z dłuższej perspektywy czasu.

c) spadek skuteczność serwisu ujawnił się w ostatnich dniach. Choć widzimy to w jednej i drugiej wersji, widoczna jest przewaga wersji B. Stąd można byłoby wyciągnąć błędny wniosek, że to właśnie ona działa na niekorzyść serwisu.

Segmentacja statystyk to kolejny krok, po którym należało by sprawdzić zależność konwersji np. od źródeł ruchu, stron docelowych, konkretnych kampanii albo kategorii produktowych. Te działania dadzą podstawę do analizy i następnych testów.

Jak sprawdzić wiarygodność wyników? Istotność statystyczna na ratunek

Czy wyniki, które widzimy w teście na pewno są dowodem na to, że dana wersja działa lepiej? Jest to problem, z którym od dawna borykają się np. koncerny farmaceutyczne testujące nowe leki. Z pomocą przychodzi istotność statystyczna. Wyliczona ze wzoru P-wartość mówi nam, czy wyniki, które obserwujemy, miałyby również szansę pojawić się przypadkowo, gdy test nie był aktualnie prowadzony.

Gotowy kalkulator wyliczający istotność statystyczną można znaleźć na stronie. Na ogół przyjmuje się, że p-wartości nie powinien być wyższy niż 0,5. W przeciwnym razie wynik uznaje się za przypadkowy.

Przykłady testowanych zmian

Wersja A: Zdjęcia 100×100 px:

2

Wersja B: Zdjęcia 120×120 px:

3

Wyniki testu wskazują, że użytkownicy, którzy widzieli wersję B, konwertowali aż o 11% lepiej.

Po tym doświadczeniu zdecydowaliśmy się na przetestowanie zmian w układzie wyświetlania ofert produktów – dotyczyło to kategorii związanych z modą. Tu wprowadziliśmy układ kaflowy zamiast dotychczasowego paskowego. Zamiast zdjęć 120×120 px wprowadziliśmy zdjęcia 220×220 px, które odgrywają teraz większą rolę niż m.in. nazwa produktu.

Wersja A: dotychczasowy układ paskowy

4

Wersja B: nowy układ kaflowy

5

Wynik testu pokazał, że użytkownicy widzący drugą wersję konwertowali o 12% lepiej. Co to oznacza? Bardzo ważne jest, by dostosować treść do potrzeb i profilu użytkownika danej kategorii produktowej. Jak pokazały testy, w kategoriach modowych obraz ważniejszy jest od treści.

Nowa strona produktu

Praca nad stroną konkretnego produktu trwała dosyć długo. Na przestrzeni dwóch miesięcy stworzylismy około 30 makiet z różnymi poziomami dokładności. Ta najlepsza została poddana testom a/b. Oto efekty:

Wersja A: strona dotychczasowa

6

Wersja B: obszar informacji o produkcie został pomniejszony, a oferty sklepów nie są już sortowane według licytacji. W pierwszej kolejności wyświetlane są trzy najlepsze oferty sklepów, to znaczy z dobrymi opiniami i cenami. To dotychczas największa zmiana, jaką wprowadziliśmy od czasu istnienia serwisu. Niosła za sobą ryzyko niepowodzenia od strony biznesowej, ale przyniosła pożądany efekt – użytkownicy widzący nową wersję strony konwertowali o 6% lepiej.

7

Wprowadzone zmiany, tzn. umieszczenie elementów konwersyjnych wyżej niż dotychczas i wyświetlanie lepszych ofert przyniósł wzrost konwersji na stronie produktowej. Na tym nie koniec: strona poprawiła wyniki dla innych miar biznesowych, czyli generowany przychód i wartość jednego użytkownika.

Na podsumowanie warto dodać, że dzisiejszy rozwój produktów i usług jest zdecydowanie trudniejszy bez testów a/b. Co prawda, regularne testy są dużym wyzwaniem, jednak warto je wdrażać. Przykład naszej porównywarki pokazuje, że warto poświęcić czas i uwagę właśnie takim testom.

Bartłomiej Dymecki, UX Specialist Okazje.info

Więcej informacji i kontakt

Screen Shot 2014 03 12 at 12.44.20

Wirusowe pocałunki

logo CallPay Kolej

Kolej na bilet przez telefon