Retour sur l'étude Digital Experience Benchmark 2024 de Contentsquare

Entre deux séances de châteaux de sable sur la plage, je me suis plongé cet été dans le Digital Experience Benchmark 2024 de Contentsquare.

Entre autres enseignements, il quantifie un constat que beaucoup d’entre nous avons déjà fait, à nos niveaux respectifs : générer des visites coûte de plus en plus cher… et ces visites convertissent de moins en moins. D’où la nécessité d’avoir un site irréprochable sur le plan technique. Vous ne voyez pas le rapport ? Hold my cocktail, on va essayer d’y voir plus clair. 

Déjà, quelle est l’ampleur du phénomène ? Sur une base de 3600 sites représentant 200 milliards de pages vues à l’année, tous secteurs confondus (il y a donc du e-commerce, mais aussi du média, du site de marque etc.), le Benchmark 2024 fait état d’un trafic en baisse de 3,6% en 2023 (par rapport à l’année précédente), alors même que les dépenses d’acquisition ont augmenté de façon significative, avec le paid search comme premier levier (+17% sur Google), suivi par le paid social (+13% sur les plateformes de Meta).
Conséquence, le coût par visite augmente de 9,4% !

Dans le même temps, l’étude fait état d’un décrochage sur tous les facteurs liés à la consommation du contenus des sites et donc à l’engagement, qui se traduirait in fine par une baisse de 5,5 points des taux moyens de conversion. Autrement dit, on dépense plus pour vendre moins. 

Contentsquare, dont le métier est pour mémoire de vendre (cher) de l’optimisation de sites Web, estime que ce décrochage est en partie dû aux frustrations rencontrées par les internautes lors de leur parcours en ligne. Longtemps, c’est la webperf qui faisait office d’ennemi public numéro un en la matière, et c’est d’ailleurs un indicateur que tous les SEO ont pris l’habitude de surveiller. 

Mais cette année, surprise, ce sont les erreurs JavaScript qui arrivent en première position des facteurs de frustration ! Le sujet n’est d’ailleurs pas étranger à celui de la webperf, puisque ces erreurs techniques la pénalisent. Mais si on pense parcours client, ce sont bien sûr les bugs de navigation, les formulaires inopérants, ou les fenêtres de consentement mal placées qui génèrent le plus de frustration. 

Le comble, c’est qu’on a tendance – surtout en e-commerce - à multiplier les outils, et donc les codes .js, précisément dans l’objectif d’améliorer nos performances : un test A/B par ici, un rappel dynamique du panier sauvegardé par là… or il devient de plus en plus difficile d’assurer le bon fonctionnement de l’ensemble sur tous les écrans et toutes les configurations. A plus forte raison quand les navigateurs, au nom de la confidentialité, offrent de plus en plus d’options destinées à bloquer le chargement de scripts externes (et je ne parle même pas d’Adblock). 

Bref, trop de frictions, c’est un taux de rebond qui augmente, un engagement qui baisse et au final un référencement qui risque de perdre en efficacité. Je pense que vous aurez compris où je veux en venir : si le coût par visite augmente alors que le trafic général baisse, la performance de votre site devrait être votre priorité numéro un.
Et je note à ce sujet qu’il n’y a que deux secteurs d’activité dont le trafic ne baisse pas dans ce rapport : l’e-commerce biens de grande consommation, et le voyage. Probablement parce que dans l’e-commerce, on a cette notion d’expérience client optimisée au maximum chevillée au corps !