Stabilité de votre datalayer : comment la confirmer ?
Il contient les informations nécessaires à la collecte de données. Il est présent sur votre site. On le traduit par « couche de données ». Oui nous parlons bien du datalayer. Le datalayer est une variable JavaScript utilisée par le TMS et mise en place par l’équipe technique dans laquelle se trouvent toutes les données nécessaires au déclenchement et au paramétrage des différents tags du site. Problème, il n’est pas exempt des régressions suite à des mises en production du site internet. Et qui dit régression du datalayer, dit absence de données, dit impacts sur les webanalyses.
Dans cet article, nous vous proposons de voir comment assurer la stabilité de votre datalayer et par extension sécuriser votre collecte de données.
Le datalayer pour collecter de la data et produire des webanalyses
Prenons le cas d’une équipe data qui doit produire des reportings permettant aux équipes e-commerce de s’en servir pour suivre le trafic, identifier quels produits mettre en avant sur le site web ou encore déceler et corriger les points de frictions lors de la navigation de l’internaute. L’équipe marketing quant à elle se sert de la data afin d’évaluer la performance des différents canaux d’acquisitions, de les optimiser, et d’ identifier les meilleurs leviers pour piloter les budgets de campagnes en conséquent.
Pour cela, elle monitore les parcours stratégiques du site internet et collecte de la donnée afin de mesurer la déperdition de trafic et de conversion d’une étape à l’autre.. Ces données doivent donc être fiables. Dans le cas contraire, elles risquent d’induire les équipes en erreur. Prenons l’exemple d’une anomalie au niveau du datalayer. Celle-ci bloque le déclenchement du tag sur 20% des pages. De ce fait, une partie de la consultation des pages ne remonte pas dans l’outil analytics. Hors le nombre de transactions effectuées ne change pas. Au niveau des KPI analytics, cela se traduit par une hausse anormale du taux de conversion que les équipes ne sont pas en mesure d’expliquer.
Afin de contrôler la qualité de la donnée collectée, l’équipe data consacre plusieurs heures par mois à la recette du plan de marquage car le site contient plus de 2500 pages et plus de 40 variables de collecte. Par conséquent, une recette manuelle en amont de chaque mise en production demanderait trop de temps.
L’équipe data a donc mis en place un process de ticketing pour gérer les régressions de tracking. Ces derniers sont traités, corrigés et recettés en amont de chaque mise en production. Il n’y a donc pas de recette préventive du plan de taggage mais uniquement curative en cas d’anomalie de données.
Vous aussi vous avez des difficultés à garantir la qualité de votre data ? Alors notre masterclass est faite pour vous. En 20 min on vous explique les principales erreurs faites lorsque vous collectez de la donnée. Mieux on vous donne des tips pour les corriger. Pour accéder à la masterclass, c’est par ici.
Des dysfonctionnements du site impactent la collecte de données
Un ticket a été ouvert par l’équipe data suite à la détection d’une anomalie au niveau du chargement du datalayer.
Il mettait parfois plusieurs dizaines de secondes à se charger, voire était absent de certaines pages. Les données essentielles à l’analyse des performances du site n’étaient donc pas collectées avec des répercussions sur les web analyses.
A quoi est-il dû ? Depuis combien de temps existe-t-il ? Combien de pages concerne-t-il ? Même si le problème était identifié, des zones de flou persistaient pour l’équipe data.
L’équipe data souhaite vérifier que le datalayer est présent sur toutes les pages. Sa volonté est de rendre ce contrôle systématique en amont des mises en production, pour pouvoir identifier les différents effets de bords. En effet, il peut par exemple arriver que des mises à jour sur la homepage aient des conséquences sur le tracking, le chargement ou encore l’accessibilité des fiches produits. Elle souhaite être alertée du moindre dysfonctionnement au niveau du data layer : latence de chargement, absence, mauvaise collecte…
C’est ce que seenaptic a permis de faire.
La présence du datalayer automatiquement contrôlée
Des tests automatisés ont été mis en place, pour vérifier la bonne présence du datalayer sur l’ensemble des pages du site internet. Plus de 100 pages sont contrôlées quotidiennement, en environnement de recette et de production. Les parcours clients stratégiques tels que l’identification à un espace client ou de réservation sont également monitorés afin de vérifier la bonne collecte de données tout au long de la navigation des internautes.
Un datalayer présent sur 97% des pages
Les premiers tests ont révélé que le datalayer était présent sur seulement 54% des pages, l’équipe data a également pu identifier l’origine de l’anomalie. En effet une importante dépendance aux web services provoquait des latences de chargement au niveau du datalayer. Des correctifs ont été apportés à ce dysfonctionnement. Désormais le datalayer est présent sur 97% des pages.
Dorénavant, l’équipe data peut faire confiance aux données qu’elle collecte et aux rapports qu’elle produit. L’équipe e-commerce sécurise sa collecte de données tout au long de ses parcours stratégiques et peut ainsi optimiser leurs performances. L’équipe marketing sait quant à elle quel arbitrage effectuer au niveau de ses partenaires pour générer un maximum de R.O.I de ses campagnes d’acquisition.
Pour plus d’informations sur l’automatisation du contrôle de votre datalayer, n’hésitez pas à nous contacter : contact@seenaptic.com