S’abonner

Effectuer un test A/B avec la Seed List de Return Path

Le test A/B est une méthode de comparaison de deux versions d'une seule campagne email permettant de déterminer la version produisant les meilleurs résultats. C'est un moyen efficace de trouver ce qui fonctionne (ou ne fonctionne pas) dans vos campagnes email. Il vous permet également de déterminer l'incidence des modifications apportées à vos campagnes sur les filtres de spam des opérateurs de messagerie ainsi que sur votre délivrabilité. 

Vous pouvez l'utiliser pour tester presque tous les éléments de votre campagne email : la ligne d'objet, l'offre, la longueur de l'email, les images, la mise en page et bien plus encore. Lorsqu'il est bien réalisé, le test A/B présente des avantages qui compensent largement le travail supplémentaire. 

Planifiez votre test A/B

  • Veillez à bien planifier la portée et la durée du test. L'e-book de Return Path, All About A/B Testing (Tout sur le test A/B) est une ressource utile pour vous aider à planifier et exécuter votre test. 
  • Lorsque vous aurez choisi les éléments à tester, exécutez votre test et suivez les résultats à l'aide de l'outil Inbox Monitor.

Utilisez la seed list pour votre test A/B 

  1. Configurez la seed list complète, y compris les marqueurs de référence, pour la version A (la version de contrôle, à savoir votre version standard de l'email).
  2. Configurez la seed list complète, y compris les marqueurs de référence, pour la version B (la version test, qui comprend la variation que vous souhaitez tester).
  3. Vérifiez que les Matching ID (identifiants de corrélation) sont configurés correctement pour chaque version afin que vos tests s'affichent correctement et avec précision dans Inbox Monitor.
  4. Déployez les versions A et B dans Inbox Monitor, ainsi que votre prochaine campagne.
  5. Prenez note des résultats de chaque version. Quels sont les taux de placement en boîte de réception, de spam et de non-remise pour chaque version ?
  6. Vérifiez vos autres sources de données pour chaque version afin de mesurer la réussite. L'une des versions génère-t-elle davantage de lectures, de conversions ou une valeur moyenne des commandes supérieure ?
  7. Refaites le test conformément à votre programme jusqu'à ce que vous observiez des résultats concluants. Si vous ne constatez pas de différence de performance, réévaluez la situation et essayez un autre test.
Cet article vous a-t-il été utile ?
Utilisateurs qui ont trouvé cela utile : 0 sur 1
Vous avez d’autres questions ? Envoyer une demande