Optimization glossary

A/B-testning

Vad är A/B-testning?

A/B-testning (även kallat split-testning eller bucket-tester) är en metod för att jämföra två versioner av en webbsida eller app mot varandra för att avgöra vilken som fungerar bäst. A/B-testning är huvudsakligen ett experiment där två eller flera varianter av en sida visas för användarna slumpmässigt, och statistisk analys används för att avgöra vilken variation som fungerar bäst för ett visst konverteringsmål.

ab-testing

Genom att köra ett A/B-test som direkt jämför en variation med en aktuell upplevelse kan du ställa specifika frågor om ändringar på din webbplats eller app och sedan samla in data om förändringens konsekvenser.

Genom att köra ett A/B-test slipper du gissa dig till rätt webbplatsoptimering och den möjliggör datainformerade beslut som förflyttar affärsbeslut från ”vi tror” till "vi vet". Genom att mäta hur förändringar påverkar dina mätdata kan du säkerställa att varje förändring ger positiva resultat.

Så här fungerar A/B-testning

I ett A/B-test tar du en webbsida eller appskärm och ändrar den för att skapa en andra version av samma sida. Denna ändring kan vara så enkel som en enda rubrik eller knapp, eller en fullständig förändring av sidan. För hälften av din trafik visas den ursprungliga versionen av sidan (kallad kontrollen) och för den andra hälften visas den modifierade versionen av sidan (variationen).

ab-testning-optimizely-2

Eftersom besökarna antingen får kontrollen eller variationen mäts deras engagemang i varje upplevelse och samlas i en dashboard som analyseras med hjälp av en statistisk motor. Du kan sedan avgöra om en förändring av upplevelsen hade en positiv, negativ eller neutral effekt på besökarens beteende.

control-variation-graph-3

Varför du ska A/B-testa?

A/B-testning gör det möjligt för individer, team och företag att göra förändringar med precision i sina användarupplevelser samtidigt som de samlar in data om resultaten. Detta gör det möjligt för dem att konstruera hypoteser och lära sig varför vissa delar av användarupplevelsen påverkar användarbeteendet. De kan också bevisas vara felaktiga – deras åsikt om den bästa upplevelsen för ett givet mål kan bevisas som felaktig genom ett A/B-test.

A/B-testning kan användas för att kontinuerligt förbättra en given upplevelse eller förbättra ett enda mål som konverteringsgrad över tid, mer än att bara svara på en enstaka fråga eller lösa en oenighet.

Ett B2B-teknikföretag kan vilja förbättra sin kvalitet och volym på leads från kampanjers landningssidor. För att uppnå detta mål skulle teamet kunna prova att A/B-testa förändringar av rubriker, visuella bilder, formulärfält, call to action och sidans övergripande layout.

Att testa en förändring i taget hjälper dem att fastställa vilka förändringar som hade en effekt på besöksbeteendet och vilka som inte gjorde det. Med tiden kan de kombinera effekten av flera vinnande förändringar från experiment för att demonstrera den mätbara förbättringen av en ny upplevelse jämfört med den gamla.

Resultat av A/B-tester över tid

Denna metod för att införa förändringar i en användarupplevelse gör det också möjligt att optimera upplevelsen mot ett önskat resultat och kan göra avgörande steg i en marknadsföringskampanj mer effektiva.

Genom att testa annonstexten kan marknadsförare lära sig vilka versioner som drar till sig fler klick. Genom att testa nästa landningssida kan de lära sig vilken layout som konverterar besökarna till kunder på bästa sätt. De totala utgifterna för en marknadsföringskampanj kan faktiskt minskas om elementen i varje steg fungerar så effektivt som möjligt för att skaffa nya kunder.

A/B-testning, konverteringstratt

A/B-testning kan också användas av produktutvecklare och designers för att demonstrera effekterna av nya funktioner eller förändringar i en användarupplevelse. Produktintroduktion, användarengagemang, modaler och produktupplevelser kan alla optimeras med A/B-testning, så länge som målen är tydligt definierade och du har en tydlig hypotes.

A/B-testprocess

Följande är ett A/B-testramverk som du kan använda för att starta tester:

  • Samla in data: Dina analyser ger ofta en inblick i var du kan börja optimera. Det hjälper dig att börja med områden med hög trafik på din webbplats eller i din app så att du kan samla in data snabbare. Leta efter sidor med låg konverteringsgrad eller hög drop off som kan förbättras.

  • Identifiera mål: Dina konverteringsmål är de mätdata som du använder för att avgöra om variationen är mer framgångsrik än den ursprungliga versionen. Mål kan vara allt från att klicka på en knapp eller länk till produktköp eller registrering av e-post.

  • Generera hypotes: När du har identifierat ett mål kan du börja generera A/B-testidéer och hypoteser om varför du tror att de kommer att bli bättre än den nuvarande versionen. När du har en lista över idéer ska du prioritera dem i termer av förväntad inverkan och svårigheter med implementeringen.

  • Skapa varianter: Använd ditt A/B-testprogram (som Optimizely) för att göra önskade ändringar av en del av din webbplats eller mobilapp. Det kan handla om att ändra färgen på en knapp, byta ordning på elementen på sidan, dölja navigeringselement eller något helt annat. Många ledande A/B-testverktyg har en visuell redigerare som gör dessa ändringar enkla. Se till att kvalitetssäkra ditt experiment för att säkerställa att det fungerar som förväntat.

  • Kör experiment: Sparka igång experimentet och vänta på att besökarna ska delta! Vid denna tidpunkt tilldelas besökarna på din webbplats eller app slumpmässigt antingen kontrollen eller variationen av din upplevelse. Deras interaktion med varje upplevelse mäts, räknas och jämförs för att fastställa hur de presterar.

  • Analysera resultaten: När experimentet är klart är det dags att analysera resultaten. Ditt A/B-testprogram presenterar data från experimentet och visar skillnaden mellan hur de två versionerna av din sida presterade och om det finns en statistiskt signifikant skillnad.

Grattis om din variation är en vinnare! Se om du kan tillämpa lärdomar från experimentet på andra sidor på din webbplats och fortsätta upprepa experimentet för att förbättra dina resultat. Oroa dig inte om ditt experiment ger ett negativt resultat eller inget resultat alls. Använd experimentet som en erfarenhet och generera en ny hypotes som du kan testa.

A/B-testprocess

Oavsett resultatet av ditt experiment kan du använda din erfarenhet för att skapa framtida tester och kontinuerligt upprepa för att optimera din appens eller webbplatsens upplevelse.

A/B-testning och SEO

Google tillåter och uppmuntrar A/B-testning och har uppgett att ett A/B- eller multivariattest inte utgör någon inneboende risk för din webbplats sökresultat. Det är dock möjligt att äventyra din sökrankning genom att missbruka ett A/B-testverktyg för t.ex. cloaking. Google har uppgett en best practice för att säkerställa att detta inte händer:

  • Ingen cloaking: Cloakning innebär att visa sökmotorer annat innehåll än vad en typisk besökare skulle se. Cloaking kan leda till att din webbplats degraderas eller till och med tas bort från sökresultaten. För att undvika cloaking ska du inte missbruka besökarens segmentering genom att visa annat innehåll för Googlebot baserat på användaragent eller IP-adress.

  • Använd rel="canonical": Om du kör ett delat test med flera URL:er bör du använda attributet rel="canonical" för att peka variationerna tillbaka till den ursprungliga versionen av sidan. Detta förhindrar att Googlebot förväxlar flera versioner av samma sida.

  • Använd 302 omdirigeringar istället för 301: Om du kör ett test som omdirigerar den ursprungliga URL:en till en variations-URL använder du en 302 (tillfällig) omdirigerare jämfört med en 301 (permanent) omdirigerare. Detta talar om för sökmotorer som Google att omdirigeringen är tillfällig och att de bör hålla den ursprungliga URL:en indexerad snarare än test-URL:en.

  • Utför experiment endast så länge det behövs: Att köra tester längre än nödvändigt, särskilt om du erbjuder en variant av din sida till en stor andel användare, kan ses som ett försök att lura sökmotorer. Google rekommenderar att du uppdaterar din webbplats och tar bort alla testvarianter på webbplatsen så snart ett test avslutas och undviker att köra tester i onödan.

För mer information om A/B-testning och SEO, se vår kunskapsdatabasartikel om hur A/B-testning påverkar SEO.

Ett medieföretag kan vilja öka läsupplevelsen, öka tiden som läsarna tillbringar på sin webbplats och förstärka sina artiklar med delningar i sociala media. För att uppnå dessa mål kan de testa variationer på:

  • Registreringsmetoder för e-post
  • Rekommenderat innehåll
  • Delningsknappar

Ett reseföretag kan vilja öka antalet lyckade bokningar som görs på deras webbplats eller mobilapp, eller kan vilja öka intäkterna från extraköp. För att förbättra dessa mätdata kan de testa variationer av:

  • Sökmodaliteter för startsida
  • Sökresultatsida
  • Utökad produktpresentation

Ett e-handelsföretag kan vilja öka antalet genomförda köp, det genomsnittliga ordervärdet eller öka semesterförsäljningen. För att uppnå detta kan de A/B-testa:

  • Kampanjer på hemsidan
  • Navigeringselement
  • Komponenter i kassaflödet

Ett teknikföretag kan vilja öka antalet högkvalitativa leads för sitt säljteam, öka antalet kostnadsfria testanvändare eller attrahera en viss typ av köpare. De kan testa:

  • Komponenter för leads
  • Gratis testversioner
  • Meddelanden på hemsidan och call-to-action

Exempel på A/B-tester

Dessa A/B-testexempel visar de typer av resultat som världens mest innovativa företag har sett genom A/B-testning med Optimizely:

Discovery A/B testade komponenterna i sin videospelare för att interagera med sitt TV-program ”superfan”. Resultatet? En ökning av videoengagemanget med 6 %.

ComScore A/B-testade logotyper och rekommendationer för att öka den sociala bekräftelsen på en produktstartsida och ökade antalet genererade leads med 69 %.

Secret Escapes testade varianter av sina mobilregistreringssidor som fördubblade konverteringsgraden och ökade livstidsvärdet.