A/B Testen: Wat is het, Hoe Werkt het en Hoe Begin je Ermee?
Je hebt twee versies van een pagina. Welke converteert beter? Je kunt het raden of je kunt het bewijzen.
A/B testen is de methode waarmee je twee versies van een webpagina, e-mail of advertentie tegelijkertijd toont aan verschillende bezoekers, om vervolgens data te verzamelen over welke versie beter presteert. Het is het fundament van elke serieuze aanpak van conversie optimalisatie.
Amazon, Booking.com, Coolblue — de meest succesvolle online bedrijven ter wereld voeren honderden A/B tests per jaar uit. Niet omdat ze dat leuk vinden, maar omdat het werkt. In deze gids leer je hoe een A/B test werkt, hoe je er correct een opzet en welke fouten je moet vermijden.
Wat is een A/B test?
Een A/B test (ook wel splittest of gesplitste test) is een gecontroleerd experiment waarbij je twee versies van een pagina vergelijkt:
- Versie A — de originele versie (ook wel “control” of “controlegroep” genoemd)
- Versie B — de aangepaste versie (ook wel “variant” of “challenger” genoemd)
De helft van je bezoekers ziet versie A, de andere helft versie B. De testsoftware houdt bij welke versie meer conversies oplevert. Na voldoende data kun je met statistische zekerheid zeggen welke versie wint.
Het principe is eenvoudig. De uitvoering vraagt discipline.
Waarom A/B testen zo krachtig is
De meeste mensen denken dat ze weten wat beter werkt op een website. Ze hebben het mis.
Uit onderzoek blijkt dat zelfs ervaren marketeers en CRO-specialisten bij een A/B test slechts in ongeveer 50% van de gevallen de winnende variant correct voorspellen. Dat is toeval. Jouw bezoekers zijn de enige betrouwbare jury.
A/B testen geeft je drie dingen die je anders niet hebt:
1. Zekerheid in plaats van mening. Je stopt met discussiëren over wat beter werkt. De data beslist.
2. Cumulatief leereffect. Elke test leert je iets over jouw specifieke doelgroep. Na tientallen tests ken je jouw bezoekers beter dan wie ook.
3. Risicobeheer. Je implementeert nooit grote wijzigingen zonder te weten of ze werken. Verliest een variant? Geen enkel probleem. Je gooit hem weg en probeert iets anders.
Het verschil tussen A/B testen en multivariate testen
Naast A/B testen bestaat er ook multivariate testen (MVT). Het verschil:
- A/B test: Je test één variabele tegelijk (bijvoorbeeld alleen de headline). Eenvoudig, snel, geschikt voor bijna elk verkeersniveau.
- Multivariate test: Je test meerdere variabelen tegelijk (headline + afbeelding + CTA-knop). Complexer, vereist veel meer verkeer, maar geeft inzicht in hoe elementen elkaar beïnvloeden.
Begin altijd met A/B testen. Multivariate testen zijn alleen zinvol als je een hoog verkeersvolume hebt en al een solide testcultuur hebt opgebouwd.
Er is ook de A/B/n test: je vergelijkt niet twee maar drie of meer varianten tegelijk. Dit versnelt je leerproces, maar vereist ook meer verkeer per variant.
Hoe zet je een A/B test correct op? (Stap voor stap)
Stap 1 — Identificeer de pagina of het element om te testen
Begin bij de pagina’s die de meeste invloed hebben op je conversies. Dat zijn doorgaans:
- De homepage (eerste indruk voor veel bezoekers)
- Productpagina’s of dienstenpagina’s
- De checkout- of aanvraagpagina
- Landingspagina’s van je advertentiecampagnes
Gebruik je analytics om te zien waar bezoekers afhaken. Hoge uitstappercentages of lage klikratio’s op CTA-knoppen zijn goede startpunten.
Stap 2 — Stel een hypothese op
Een A/B test zonder hypothese is een mislukking die op je te wachten staat. Een goede hypothese heeft drie componenten:
“Als ik [X verander], verwacht ik [Y effect] omdat [Z reden].”
Voorbeeld: “Als ik de headline op de contactpagina verander van ‘Contacteer ons’ naar ‘Ontvang jouw gratis adviesgesprek in 24 uur’, verwacht ik meer formulierinzendingen omdat de nieuwe headline een concreet voordeel benoemt in plaats van een neutrale opdracht.”
De hypothese dwingt je om na te denken over de reden achter je aanpassing. Dat maakt je tests gefundeerder en je conclusies bruikbaarder.
Stap 3 — Bepaal de primaire metric
Wat meet je? De primaire metric is de conversieactie die je wilt verbeteren:
- Klikratio op de CTA-knop
- Formulierinzendingen
- Aankopen
- Aanmeldingen
Kies één primaire metric. Bekijk secundaire metrics (zoals tijd op pagina of bouncepercentage) alleen als aanvullende context, niet als beslissende factor.
Stap 4 — Bereken de benodigde steekproefgrootte
Dit is de stap die het vaakst wordt overgeslagen — en die het vaakst tot verkeerde conclusies leidt.
Hoeveel bezoekers heb je nodig per variant voor een betrouwbare test? Dat hangt af van:
- Je huidige conversieratio
- De minimale verbetering die je wilt kunnen detecteren (Minimum Detectable Effect)
- Het gewenste betrouwbaarheidsniveau (standaard: 95%)
Gebruik een gratis steekproefgrootte-calculator om dit te berekenen voor je start. Als je 5.000 bezoekers per variant nodig hebt maar er maar 500 per week binnenkomen, duurt de test tien weken — en dat is prima, zolang je dat van tevoren weet.
Stap 5 — Stel de test in en launch
Gebruik A/B testsoftware om de twee varianten te maken en het verkeer te verdelen. Populaire tools:
- VWO (Visual Website Optimizer) — uitgebreid, populair bij CRO-bureaus
- Optimizely — enterprise-niveau, uitgebreide rapportering
- AB Tasty — goed alternatief met Europese focus (GDPR-vriendelijk)
- Google Optimize — inmiddels stopgezet; gebruik alternatieven of maak gebruik van server-side experimenten
Zorg ervoor dat alleen de bedoelde variabele verschilt tussen de twee versies. Andere elementen moeten identiek zijn.
Stap 6 — Wacht op statistische significantie
Dit is de moeilijkste stap: geduld hebben.
Stop een test nooit te vroeg op basis van tussenresultaten. Vroege resultaten kunnen sterk fluctueren. Een variant die na drie dagen “wint” met 20% kan na drie weken verlies lijden.
Richtlijnen:
- Test minimaal twee volledige weken om weekdagvariaties uit te vlakken
- Bereik minimaal 100 conversies per variant voor enige betrouwbaarheid
- Streef naar een statistische significantie van 95% of hoger
Gebruik de statistisch significantie-calculator van je testtool of een externe tool om dit te beoordelen.
Stap 7 — Analyseer en implementeer
Heeft de variant gewonnen? Implementeer de winnende versie. Heeft de originele versie gewonnen? Gooi de variant weg en formuleer een nieuwe hypothese.
Documenteer altijd:
- Wat je hebt getest
- Waarom (de hypothese)
- Wat het resultaat was
- Wat je hebt geleerd
Deze documentatie is goud waard voor toekomstige tests. Je bouwt zo een kennisbank op van wat werkt voor jouw specifieke doelgroep.
Wat kun je A/B testen? De 10 meest impactvolle elementen
Bijna alles op een webpagina kan getest worden. Maar niet alles heeft evenveel impact. Dit zijn de elementen die doorgaans de grootste effecten opleveren:
1. Headlines
De headline is het eerste wat een bezoeker ziet. Als die niet overtuigt, leest niemand verder. Test de kernboodschap, de formulering en de angle (benefit vs. feature, vraag vs. statement).
2. CTA-knoptekst en -kleur
“Bestellen” vs. “Voeg toe aan winkelwagen” vs. “Koop nu”. De tekst op je knop bepaalt mee hoe hoog de drempel aanvoelt. Test ook de kleur: de knop moet opvallen maar ook vertrouwen uitstralen.
3. Afbeeldingen en video’s
Een productafbeelding vs. een foto van een persoon die het product gebruikt. Een hero-afbeelding vs. een uitlegvideo. Visuele elementen hebben een groot effect op de eerste indruk.
4. Sociaal bewijs
Meer testimonials toevoegen, testimonials met foto’s vs. zonder, video-testimonials vs. tekstgetuigenissen, het aantal klanten vermelden. Sociaal bewijs verlaagt twijfel en vergroot vertrouwen.
5. Formulierlengte
Minder velden leiden doorgaans tot meer inzendingen, maar soms ook tot minder gekwalificeerde leads. Test wat de juiste balans is voor jouw situatie.
6. Prijspresentatie
Per maand vs. per jaar, bedrag uitschrijven vs. visuele vergelijking, prijs prominent vs. minder prominent. De manier waarop je prijs communiceert, beïnvloedt de perceptie ervan.
7. Garanties en beloften
“30 dagen geld terug” vs. “Volledige tevredenheidsgarantie” vs. geen garantie. Test welke formulering de meeste twijfels wegneemt bij jouw doelgroep.
8. Navigatie en structuur
Soms converteert een pagina zonder navigatiemenu beter dan een pagina met volledig menu, omdat bezoekers minder afleidingen hebben.
9. Laadtijd en technische performance
Technische verbeteringen zijn ook testbaar. Een snellere versie van je pagina testen vs. de huidige versie toont de directe impact van performance op conversie.
10. Urgentie en schaarste
Een afteltimer, “nog 3 plaatsen beschikbaar” of “aanbieding geldig tot vrijdag” — mits eerlijk en reëel — kunnen de conversieratio significant verhogen.
De meest gemaakte fouten bij A/B testen
Fout 1: Meerdere elementen tegelijk veranderen in een A/B test
Als je de headline én de CTA én de afbeelding verandert in variant B, weet je niet welk element het verschil heeft gemaakt. Test één variabele per keer in een A/B test. Wil je meerdere tegelijk testen? Gebruik dan multivariate testing.
Fout 2: De test te vroeg stoppen
Je variant wint na 48 uur met 35%? Verleidelijk om te stoppen. Maar dat resultaat is statistisch onbetrouwbaar. Wacht altijd tot je genoeg data hebt en statistisch significant bent.
Fout 3: Resultaten niet segmenteren
Een test die wint voor desktop-gebruikers kan verliezen voor mobiele gebruikers. Analyseer je resultaten altijd per apparaat, en eventueel per verkeersbron of klanttype.
Fout 4: Testen zonder hypothese
“Laten we eens kijken wat er gebeurt als we dit veranderen” is geen testmethode. Zonder hypothese leer je niets bruikbaars, zelfs als de test een winnaar oplevert.
Fout 5: Kleine elementen testen terwijl grotere problemen onopgelost zijn
Als je checkout vier onnodige stappen heeft, helpt een andere knopkleur nauwelijks. Los eerst de grote problemen op. Laat je analytics zien waar bezoekers massaal afhaken? Dáár begin je.
A/B testen en statistiek: wat je moet weten
Je hoeft geen statisticus te zijn om A/B tests correct te interpreteren. Maar je moet wel drie begrippen begrijpen:
Statistische significantie
De kans dat je resultaat niet op toeval berust. Een significantie van 95% betekent: er is 5% kans dat het resultaat toevallig is. Dit is de standaard drempel in CRO.
Confidence interval
Het bereik waarbinnen het werkelijke effect waarschijnlijk valt. Een variant wint met 12% (met een confidence interval van 5%-19%) betekent: het echte effect ligt waarschijnlijk ergens tussen 5% en 19% winst.
Statistical Power
De kans dat je test een echt effect detecteert als dat effect er is. Standaard doel: 80% power. Hoe meer verkeer, hoe hoger je power.
Moderne testsoftware berekent dit automatisch. Maar begrijpen wat de getallen betekenen, helpt je betere beslissingen te nemen.
Veelgestelde vragen over A/B testen
Hoeveel verkeer heb ik nodig voor een A/B test?
Dat hangt af van je huidige conversieratio en het effect dat je wilt detecteren. Als vuistregel: minimaal 100 conversies per variant. Gebruik een steekproefgrootte-calculator om je specifieke situatie te berekenen.
Hoe lang moet een A/B test duren?
Minimum twee weken, om weekdagvariaties mee te nemen. De exacte duur is afhankelijk van je verkeer en conversieratio. Stop nooit puur op basis van tijdsduur als je de benodigde steekproef nog niet hebt bereikt.
Wat als mijn test geen duidelijke winnaar oplevert?
Een “gelijkspel” (geen statistisch significant verschil) is ook een uitkomst. Het vertelt je dat de twee versies voor jouw doelgroep gelijkwaardig zijn. Ga door naar je volgende hypothese.
Kan ik A/B testen zonder programmeerkennis?
Ja. Tools als VWO en AB Tasty hebben visuele editors waarmee je pagina-elementen kunt aanpassen zonder code te schrijven. Voor complexere tests (structurele wijzigingen, server-side experimenten) is technische kennis wel nodig.
Heeft A/B testen invloed op mijn SEO?
Nee, mits correct uitgevoerd. Zorg dat je geen cloaking toepast (verschillende content tonen aan Google vs. bezoekers), gebruik canonical tags correct en test niet te lang. Google heeft officiële richtlijnen voor A/B testen gepubliceerd.
Klaar om je eerste A/B test op te zetten?
A/B testen is de motor achter elke succesvolle aanpak van conversie optimalisatie. Het maakt van jouw website een lerende machine: elke test maakt je inzichtrijker, en elk gewonnen experiment maakt je resultaten beter.
De sleutel is om te beginnen. Kies één pagina, formuleer een hypothese, stel de test in en wacht geduldig op je data. Dat is het.
Wil je weten hoe A/B testen past in een bredere strategie? Lees onze complete gids over conversie optimalisatie als overkoepelende methodologie.
Wil je professionele ondersteuning bij het opzetten van je eerste testprogramma? Neem contact op met GrowthForce Digital — wij helpen Belgische bedrijven met bewezen CRO-methodologie.
De kennis van een groot bedrijf. De aandacht van een boutique bureau.

Manou Zaakvoerder – Voormalig CRO-specialist en hoofd digitale marketing experten • KBC
GrowthForce Digital is opgericht door Manou Maudgal, voormalig CRO specialist en hoofd digitale marketing expertenteam bij KBC. Tien jaar lang werkte hij aan conversieoptimalisatie en digitale groeistrategie voor een van de grootste financiële instellingen van België, met miljoenen gebruikers en complexe digitale funnels.
Vandaag zet hij die expertise in voor ambitieuze e-commerce en lead generation bedrijven. GrowthForce werkt met een bewust beperkt aantal klanten tegelijk zodat elk traject de strategische diepgang krijgt die grote agencies zelden bieden.
Manou doceert digitale strategie en conversieoptimalisatie aan UCLL, de Vrije Universiteit Brussel, de Universiteit Antwerpen, SBM en SyntraPXL.
