Splittesten. Hogere omzet, lagere kosten, meer winst

Een van de grootste zegeningen die online marketing biedt is de mogelijkheid om snel, effectief en meestal gratis te splittesten. Doe het goed en je verlaagt je kosten, verhoogt je omzet en maakt meer winst. Hoeveel aanmoediging heb je nodig…?

Soms lijkt online marketing meer op wiskunde dan me lief is. Op de middelbare school was ik dolgelukkig als ik een 5- uit een wiskunde proefwerk wist te persen, tegenwoordig omarm ik mijn spreadsheets als dierbare, wijze vrienden die me de weg wijzen naar een beter resultaat.

Ik (split)test alles. Alles? Voor zover mogelijk.

Splittesten is het allereerste wat ik in gang zet zodra ik met een klant in zee ga. Het levert belangrijke data op en maakt problemen zichtbaar. Het is een van de voorwaarden die ik stel voordat ik aan boord kom: er wordt gemeten en er word ge(split)test. Tot in den treure.

Ik heb zelden meegemaakt dat een paar simpele ‘splits’ het online rendement niet aantoonbaar verbeterde. Direct, blijvend en tegen minimale kosten. Het werkt eigenlijk altijd.

Voordat we naar de praktijk gaan, eerst (voor de zekerheid) een paar regels theorie.

Bij een splittest (of een A/B test) worden twee variaties van (bijvoorbeeld) een webpagina tegen elkaar afgezet. Uit de ‘analytics’ kun je vervolgens afleiden welke van de twee varianten het meeste rendement oplevert.

Je hebt voor een simpele A/B test niet veel traffic nodig en je kunt vrijwel elk onderdeel van je online campagne splittesten.

De meest voor de hand liggende test is een A/B van de homepage. Maar nog handiger is het om als eerste de pagina te testen die het meeste traffic krijgt. Daar is immers de grootste slag te maken. Google Analytics kan je vertellen welke pagina dat is.

De data hieronder komt uit de praktijk.

De pagina in dit voorbeeld krijgt redelijk wat traffic en heeft een bounce rate van 54%. Dat betekent dat ruim één op de twee bezoekers de website verlaat zonder dat ik de kans heb ze meer te vertellen of te verkopen. Dat percentage is al geruime tijd redelijk stabiel en te hoog naar mijn zin. Ik laat te veel bezoekers ‘weglopen’ en het doel van de test was de bounce rate te verlagen.

Om misverstanden te voorkomen noemen we de pagina in dit voorbeeld ‘pagina XYZ’.

Via Google Analytics achterhaalde ik wat de meest populaire ‘klik’ op pagina XYZ is.

Van de 46% die niet meteen vertrekt, klikt 40% door naar pagina 2, 15% naar pagina 5, 8% naar pagina 12 en de overige 37% fladdert uit over de overige pagina’s.

Blijkbaar heeft pagina 2 iets wat veel van de bezoekers aantrekkelijk lijkt. Dat werd het uitgangspunt van deze test. Door de klaarblijkelijk aantrekkelijke content op pagina 2 meer en duidelijker onder de aandacht te brengen, hoopte ik de bounce rate te verlagen.

Let op: Deze truc werkt niet altijd. Hij werkt alleen als ik vooral de ‘bouncers’ weet te verleiden door te klikken naar pagina 2. Als dat alleen lukt voor de bezoekers die in bestaande situatie naar een andere pagina doorklikken, dan koker ik hooguit mijn traffic, maar blijft de bounce rate gelijk.

Voor de test heb ik een nieuwe versie gemaakt van pagina XYZ. Die lijkt als 2 druppels water op het origineel. Het enige verschil is dat ik op de aangepaste versie de link naar pagina 2 benadrukte. In dit geval door domweg het korps van die link te vergroten en een andere kleur te geven (diepdonkerblauw).

Let op: verder hield ik de pagina exact zoals die is. Zodoende weet ik zeker dat een eventuele verandering in het klikgedrag van de bezoekers alleen door die ene aanpassing komt.

Ik begon de test dus met twee versies van pagina XYZ. De een zoals die al was, de tweede met de nadruk op de link naar pagina 2. Laten we ze pagina XYZ-a en pagina XYZ-b noemen.

De software (daarover later meer) deed vervolgens het werk. De ene bezoeker kreeg pagina XYZ-a voorgeschoteld, de volgende XYZ-b, de volgende weer XYZ-a et cetera. Keurig netjes om en om.

Het resultaat was al na twee dagen duidelijk. Pagina XYZ-a bleef zoals verwacht een bounce rate vertonen van om en nabij de 54%. Pagina XYZ-b deed het beter. De bounce rate was 47%. De ‘Click Through Rate’ (CTR) naar pagina 2 steeg van 40% (XYZ-a) naar 63% (XYZ-b). De CTR naar de overige pagina’s daalde licht.

Let op: Omdat pagina XYZ redelijk wat traffic krijgt, was het resultaat na twee dagen duidelijk. Als je minder traffic krijgt, moet je het meer tijd geven. Hoewel de geleerden daarover nog wel eens van mening willen verschillen, heb ik voor mezelf de regel dat ik minstens 100 bezoekers (50 op elke variant) wil hebben voordat ik conclusies trek. Als het resultaat dan nog niet duidelijk is, laat ik het aantal oplopen tot 200 (100 voor elke variant).

De volgende stap bestond uit een nieuwe testversie van XYZ (XYZ-c) waarbij de link naar die pagina 2 nog meer benadrukt werd. In dit geval door een foto bij de link te plaatsen. In de nieuwe A/B test werd XYZ-b getest tegen XYZ-c. Pagina XYZ-a speelt dus niet meer mee.

Het resultaat van die tweede test was dat de bounce rate verder zakte, naar 37%. Het percentage dat doorklikte naar pagina 2 steeg ook, maar minder spectaculair.

Al met al duurde de hele exercitie minder dan een week. In die paar dagen verlaagde ik de bounce rate van pagina XYZ van 54% naar 37%. Om het iets concreter te maken: in de oude situatie bleven 46 van de 100 bezoekers op mijn website, in de nieuwe 63 van de 100. Een verbetering van bijna 40%.

Daar bleef het niet bij. Nu duidelijk is dat er veel bezoekers uiteindelijk op pagina 2 terecht komen (via pagina XYZ) ben ik ook voor die pagina aangepaste versies gaan  A/B testen. Zo hou ik constant de vinger aan de pols en werk ik consequent, stap voor stap aan het rendement van de website.

Mocht je het idee hebben dat dit soort tests alleen zijn weggelegd voor grote bedrijven met dito budgetten: ik heb tijdens het hele proces geen stuiver uitgegeven.

Het heeft me tijd gekost, maar het echte werk heb ik laten uitvoeren door mijn vrienden bij Google.

Google Analytics ken je en Webmastertools waarschijnlijk ook. Google’s Website Optimizer is minder bekend, maar minstens zo’n pareltje als zijn bekendere broertjes. Het programma stelt je in staat om A/B tests zoals net beschreven uit te voeren.

GWO is gratis, het werkt, is betrouwbaar en al heb je het programma niet binnen twee minuten in je vingers, het is de investering in tijd meer dan de moeite waard.

Je kunt webpagina’s splittesten, zoals in het voorbeeld hierboven, maar daarmee houdt het niet op. Er is meer te testen. Kopregels, achtergrondkleuren. advertenties. foto’s. Daar kom ik later op terug. Want geloof me: als testen eenmaal een tweede natuur is geworden, mag je domweg rekenen op meer omzet tegen lagere kosten.

Over Carl Weenink

Stapte van 'sales' naar de journalistiek, werd 'ghostwriter', maakte bladen, verzeilde in de reclame, raakte verslaafd aan Direct Marketing en bundelde gaandeweg de ideale combinatie van commercie, content en marketing tot een solide fundament onder wat we 'online marketing' noemen. Meer >>"

Geef een antwoord