L'A/B Testing c'est le meilleur moyen de comprendre comment la conception de l'outil affecte sa performance.
Le principe de l'A/B Testing est assez simple : créer deux versions A et B d'un outil ou d'un contenu, qui diffère d'une variable (par exemple le texte d'un bouton). Les deux versions sont testées sur les utilisateurs afin de déterminer laquelle des deux convertit le mieux.
Les deux versions vont être proposées aléatoirement aux utilisateurs, l'analyse d'indicateurs comme le taux de conversion, le nombre de clics ou d'abonnements générés par chacune des versions permet de déterminer les conséquences de la variable modifiée.
Toutefois, il est important de ne faire varier qu’un seul paramètre à la fois sur les différents modèles confrontés. L'AB Testing est une procédure scientifique qui nécessite de choisir une zone d'optimisation. Sans cela, les résultats sont inexploitables.
Il existe deux manières de tester les différentes versions. La première, en temps, la version est testée pendant un temps donné. La deuxième, en trafic, la version est testée un nombre de fois déterminé en avance.
Il est d'abord nécessaire d'identifier le problème de conversion de l'outil testé et d'émettre des hypothèses quant à ses causes. On détermine ensuite une zone précise où l'amélioration peut être pertinente, puis l'élément au cœur du test. Enfin, il faut identifier la manière dont les performances vont être évaluées.
Par exemple, si on modifie le positionnement d'un bouton, on mesure le nombre de visiteurs qui cliquent sur le bouton.
On créé ensuite la version B, identique à la version A sauf pour l'unique élément modifié. Là aussi, si on teste une page web on peut s'attarder sur un titre, un texte, une image ou encore la couleur d'un bouton, il existe une infinité de variables... La version A, quant à elle, reste inchangée, elle constitue la référence du test.
Plusieurs plateformes permettent de réaliser l'A/B Testing, en revanche à ETIC INSA technlogies on privilégie AB Tasty ou encore Google Optimize. On oppose alors les versions A et B en proposant à deux groupes d'utilisateurs, à savoir une proportion de visiteur, les versions A pour l'un des groupes et B pour l'autre. On mesure alors les performances de chaque version via une analyse des données obtenues pour chaque groupe.
Finalement, l'A/B Testing est un outil au service de la stratégie d'optimisation des conversions.
Certaines variantes de l’A/B Testing sont également utilisées. Parmi elles, l’A/B/n Testing qui reprend le principe de l’A/B Testing et vient simplement ajouter un troisième modèle modifiant également une seule variable, différente de celle du modèle B. Dans la même lignée, le Multivariate Testing qui comme son nom l’indique test plusieurs variables à la fois. En effet, plusieurs variables sont testées individuellement puis combinées.