Conversion Conference 2016 – dag 1


DAG 1

Na een geslaagd debuut vorig jaar wilde ik de Conversion Conference dit jaar zeker niet missen! En na dag 1 kan ik al zeggen, het vroege opstaan werd alvast beloond. Stephen Pavlovich begon de dag met een uitgebreide versie van hoe je een Hypothese kan opstellen. En dit doet hij als volgt:

We know that “quantitive” and “qualitative” data
We believe that “lever” by test “concept”
On “area” for “audience” will result in “goal”
We”ll know by observing “KPI” for “duration”

Hij gaf ook mee dat we testen veel breder moeten zijn dan enkel een A/B test op een website. Je kan testen doen in de hele customer journey. Op TV, SEO, SEA, In store, outdoor advertenties. Zo zijn er bedrijven die 2 verschillende Adwords campagnes opzetten met verschillende bidstrategieën en deze testen.

De volgende sessie die ik bijwoonde was die van Rudger de Groot van Mintminds. Hier ging het vooral rond de setup van A/B testing tools. Hij had alvast enkele tips waar ik in de toekomst zeker rekening mee ga houden:

• Hou je optimizily snippet klein
• Stop met het gebruiken van de WYSIWYG
• No more DOM ready
• Gebruik een content type tag voor het testen van dezelfde pagina’s
• Quality assurance met user scenario’s
• Gebruik cookies voor QA en niet de preview

Dan met een dubbel gevoel naar de 2 sprekers van Google gaan luisteren, meestal zijn ze heel oppervlakkig wat betreft hun presentaties (of toch degene die ik heb gezien). Maar dat was dit keer niet het geval.

Waar het voornamelijk over ging is dat je moet gaan onderzoeken of er een verschil zit in het doelpubliek van de verschillende apparaten (mobiel, desktop, tablet). Bijvoorbeeld kinderen kunnen op hun mobiel zoeken naar een skateboard, maar hoogstwaarschijnlijk zijn het de ouders die achteraf online of offline het skateboard kopen. Dit vraagt voor een andere benadering per apparaat.

Na de lunch, meestal een iets minder aandachtig moment voor velen, wist André Morys toch de aandacht te trekken met zijn boeiende presentatie.

Wat er meestal gebeurt is dat werknemers binnen een bedrijf een GO krijgen om aan A/B testing te doen. Door het dolle heen beginnen ze dan maar ineens te testen en te testen.
Maar dit is niet de beste manier. Hoe dan wel? De afbeelding hieronder laat dat duidelijk zien.

Je start met een strategie/plan uit te werken. Dan ga je je website analyseren adhv user research, analytics,persona’s, CRM,…. Wat er dan volgt is het gaan prioritiseren van de belangrijkste punten die je hebt gevonden in je analyse. Daar kan je dan mee aan de slag om A/B testen te gaan opzetten. En tot slot moet je gaan meten en leren van wat er allemaal uit je testen is gekomen. Dit is hoe je testen zou moeten aanpakken en niet anders!

Als voorlaatste spreker van de dag was er Els Aerts. Zij heeft heel uitvoerig, en met veel passie, gesproken over user testing. Ze heeft gehad over moderated en unmoderated testing. Als je hier meer over wil weten kan je dat hier lezen.

Wat ik hier interessant vond was de five second test van een homepage. De opzet is een aantal gebruikers de homepage 5 seconden laten zien en ze dan enkel vragen stellen:

  • Wat doet dit bedrijf?
  • Wat is de naam van dit bedrijf?
  • Wat is de prijs?
  • Wat vond je het leukst?
  • Wat vond je minder?

Stel er max 3. Maar op basis hiervan kan je duidelijk zien of je homepage duidelijk weergeeft wat je doet. Interessant om eens te testen!

Tot slot was er Britney Muller. Zij werkt voor MOZ en had enkele leuke hacks/tools/sites bij. Hieronder alvast een lijstje van diegene ik het leukst vond.

https://www.similarweb.com/
http://mysiteauditor.com/
https://search.google.com/structured-data/testing-tool
https://ubersuggest.io/
http://answerthepublic.com/
http://rockerbox.com/
http://www.luckyorange.com/
http://optimizilla.com/
https://developers.google.com/web/progressive-web-apps/

Wat doen ze? Ik zou zeggen, ga op ontdekking!

Andreas Remes | 12 oktober 2016

Contacteer Ons