En plus de trouver un modèle économique durable, les éditeurs d'aujourd'hui opérant dans l'arène numérique sont aux prises avec un autre défi : bien mesurer la performance de leurs contenus et vraiment comprendre le comportement de leur audience. Il s'agit d'un véritable problème pour toutes sortes de publications, qu'elles soient financées par la publicité ou qu'elles fassent partie de la nouvelle génération fonctionnant selon un modèle de revenus des lecteurs.
Les choses étaient un peu plus simples dans le passé. Les éditeurs pourraient mesurer leur réussite commerciale en notant et en comparant le nombre de journaux ou de magazines vendus au fil du temps. Ils pourraient alors estimer la taille de leur lectorat en multipliant le nombre d'exemplaires vendus par 2 ou 2,5, ce qui est considéré comme le taux de transmission moyen . Les informations sur le succès de la diffusion étaient particulièrement importantes pour les annonceurs qui voulaient une preuve de valeur avant d'investir dans l'espace publicitaire.
Les éditeurs de médias traditionnels s'appuient toujours sur ce type de calculs, car avouons-le, c'est aussi bon que possible.
Une fois entrés dans l'ère numérique, les éditeurs ont découvert de nouvelles façons de monétiser leur contenu. Cependant, ils se sont également retrouvés en territoire inconnu. Mesurer les performances du contenu impliquait désormais d'utiliser des outils d'analyse et de maîtriser les données, ce qui, pour de nombreux éditeurs, s'est avéré être un gros morceau à avaler. D'où l'erreur de faire confiance à des métriques uniques.
Essayons de voir pourquoi des statistiques uniques telles que
- Pages vues
- Temps sur la page et
- Visiteurs de retour
ne peuvent pas être des indicateurs fiables pour les éditeurs qui souhaitent mesurer les performances de leur contenu, comprendre le comportement de leur public, identifier leurs lecteurs fidèles et entretenir une relation solide avec eux.
1. Pages vues
Les pages vues ont été omniprésentes pour mesurer les performances des publicités et la popularité des pages de produits sur les sites de commerce électronique. Cette métrique a d'abord décollé avec Google Analytics, qui est l'un des outils d'analyse les plus connus, conçu principalement pour les entreprises de commerce électronique.
Le problème avec les pages vues :
Malheureusement, en l'absence de mieux, les pages vues ont rapidement été adoptées comme une mesure légitime pour mesurer les performances du contenu par de nombreux outils d'analyse sur le marché.
Voici comment les pages vues ont été faussement interprétées par de nombreux éditeurs : plus de pages vues équivaut à plus de visiteurs et plus d'engagement. Si un élément de contenu génère de nombreuses pages vues, il est finalement meilleur que le reste des articles, n'est-ce pas ?
Pas vraiment.
Abordons ce problème systématiquement.
Voici comment les pages vues ont été définies dans Google Analytics :
Une page vue (ou pageview hit, page tracking hit) est une instance d'une page en cours de chargement (ou de rechargement) dans un navigateur. Les pages vues sont une mesure définie comme le nombre total de pages consultées. […] Si un utilisateur clique sur recharger après avoir atteint la page, cela est compté comme une page vue supplémentaire. Si un utilisateur accède à une autre page, puis revient à la page d'origine, une deuxième page vue est également enregistrée.
Il existe également une métrique appelée Unique Pageviews qui représente un nombre de sessions au cours desquelles une certaine page a été vue au moins une fois. Ainsi, si un certain utilisateur visite la page en question, puis s'en éloigne et y revient au cours de la même session, GA comptera 1 page vue unique.
Cependant, les pages vues sont une mesure du navigateur et ne décrivent pas la nature de la connexion ou le niveau d'engagement des visiteurs du site avec votre contenu. Pas de loin.
Une personne peut ouvrir un certain article puis le fermer immédiatement, ou le laisser ouvert dans un onglet du navigateur tout en faisant autre chose. Le script de l'outil d'analyse l'enregistrera malgré tout comme une page vue.
Nous pourrions dire que le nom plus précis pour Pageviews serait Page-Loads , puisque cette métrique ne montre pas nécessairement le nombre de personnes qui ont consulté la page, mais le nombre de fois que la page a été chargée dans le navigateur.
Comment les éditeurs essaient de donner un sens aux pages vues :
Les éditeurs et les spécialistes du marketing de contenu peuvent essayer de donner plus de sens à cette métrique en observant sa corrélation avec d'autres métriques uniques disponibles dans le GA et des outils d'analyse similaires.
Par exemple, ils examineront la combinaison de mesures uniques disponibles : pages vues, temps moyen sur la page et taux de rebond. Ainsi, la « formule » commune pour estimer si un certain article a bien fonctionné ou non ressemble à ceci :
Nombre élevé de pages vues + "bon" temps moyen sur la page + faible taux de rebond
Le Temps sur Page « idéal » serait celui qui correspond au temps de lecture nécessaire pour l'article en question. La vitesse moyenne de lecture est d'environ 265 WPM, donc les éditeurs s'assoient et font quelques calculs simples : si leur article contient 1500 mots, il faudrait environ 5 minutes et demie pour qu'une personne le lise, de haut en bas. Bien sûr, tous les visiteurs du site ne le liront pas, donc le temps moyen sur la page sera inférieur. La partie délicate pour les éditeurs est de décider quel temps serait acceptable ici, c'est-à-dire quel est le "bon" temps moyen sur la page.
Le problème clé avec cela? Eh bien, la façon dont le temps moyen sur la page est calculé dans GA et des outils similaires peut fausser vos hypothèses (voir le segment suivant intitulé Temps sur la page / Temps moyen sur la page).
Par définition, un rebond est une session d'une seule page sur votre site. Le taux de rebond est le pourcentage de visites d'une seule page. Le taux de rebond d'une page est basé uniquement sur les sessions qui commencent par cette page.
Ainsi, les éditeurs pensent : plus le taux de rebond est faible, mieux c'est. En théorie, ils ont raison puisque cela indique que les gens étaient intéressés par d'autres contenus publiés sur votre site Web, c'est-à-dire qu'ils ont décidé de naviguer plus loin. Mais les informations sur la manière dont ils interagissent réellement avec votre contenu ne sont pas disponibles dans les rapports standard de GA. Vous pouvez présumer que certains d'entre eux sont restés sur votre site Web, mais c'est tout.
En ligne, vous pouvez trouver des informations concernant les valeurs idéales du taux de rebond : elles ne dépassent pas 40 %, tandis que les valeurs moyennes vont jusqu'à 55 %. Cependant, vous devez définir une base de référence en fonction de votre propre site Web et ne pas rechercher des chiffres et des normes qui fonctionnent pour quelqu'un d'autre. De plus, les valeurs du taux de rebond peuvent être horriblement trompeuses si elles ne sont pas interprétées correctement. Le contexte est également important : par exemple, si une page de contact a un taux de rebond élevé, ce n'est pas qu'elle n'apporte pas de valeur. Il répond simplement à une requête spécifique pour les utilisateurs qui ne ressentent alors plus le besoin de naviguer plus loin.
Comment nous avons abordé ce problème :
Contrairement aux pages vues dans GA et aux outils similaires, chez Content Insights , nous avons développé des mesures complexes . Notre solution d'analyse a Article Reads , qui se concentre sur le comportement humain réel, car il prend en compte le temps réel passé sur la page, mais aussi la façon dont les gens interagissent avec la page (par exemple, les clics, la sélection de texte, les défilements, etc.). En plus des lectures d'articles, CI dispose également profondeur de lecture en tant que métrique complexe qui révèle à quel point un visiteur a approfondi la lecture d'un élément de contenu. Pour plus de précision, il s'appuie sur la combinaison de plusieurs métriques dont l'une est le Temps d'Attention. De plus, nous avons également Page Depth qui calcule le nombre moyen de pages visitées après qu'un lecteur a ouvert la page initiale ou l'article.
2. Temps sur la page / Temps moyen sur la page
De nombreux éditeurs examinent le temps passé sur la page et le temps moyen passé sur la page lorsqu'ils essaient de définir quel contenu pourrait être considéré comme engageant. Ils pensent que plus les gens restent longtemps sur une certaine page, plus la probabilité que le contenu proposé soit engageant est élevée.
Cependant, après avoir réalisé la façon dont cette métrique est mesurée, vous verrez qu'elle ne fournit aucune information fiable.
Le problème avec la mesure du temps passé sur la page :
Google Analytics et des outils d'analyse similaires mesurent ces mesures uniquement au niveau du navigateur, ce qui ne dit rien sur la façon dont les gens interagissent avec le contenu.
Lorsqu'une personne quitte la page mais laisse l'onglet ouvert, Google Analytics et les outils d'analyse similaires ne peuvent pas l'enregistrer. En ce qui concerne les analyses, la personne n'a jamais quitté le site Web. De plus, GA ne peut pas mesurer le temps qu'un utilisateur a passé sur la dernière page de sa visite sur votre site. De plus, si le visiteur quitte après avoir consulté une seule page (c'est-à-dire si une visite est un rebond), aucune heure ne sera enregistrée.
Comme vous pouvez le voir, ces données ne reflètent pas correctement le niveau d'engagement du lecteur avec votre contenu.
Comment les éditeurs essaient de donner un sens au temps moyen passé sur la page :
Certains éditeurs déploient des trackers d'événements, tels que la profondeur de défilement, dans le but d'obtenir des rapports plus précis et de s'assurer que le temps passé sur la page est mesuré même si la page est un rebond. Cependant, ce n'est pas si simple.
Lorsqu'il s'agit de se fier uniquement à la profondeur de défilement, il existe un problème sous-jacent concernant :
- activité réelle de l'utilisateur
- l'emplacement du pli
- la longueur de l'article
Disons qu'une personne fait défiler les 60% de votre contenu, mais qu'elle le fait sur un écran qui n'est pas zoomé à 100% mais à 75%. Ils peuvent voir le reste de votre contenu et ne continuent pas à faire défiler vers le bas.
Ou, disons qu'ils sont à 60% de votre contenu, mais qu'ils y restent une demi-heure (la page reste ouverte et qu'ils s'éloignent de leur ordinateur), avant de finalement rebondir. De plus, ce n'est pas parce qu'ils font défiler votre contenu qu'ils le lisent réellement. Et si l'article n'est pas très long ? La profondeur de défilement sera de 100 %, mais cela ne signifie pas que cet article particulier a généré plus d'engagement ou est plus performant que d'autres.
Inutile de dire que même avec le suivi des événements, les rapports peuvent ne pas être précis car ils ne fournissent pas une image complète. Les écarts de données ne sont pas rares, de sorte que les propriétaires de compte peuvent remarquer dans leur rapport que le temps moyen sur la page est plus long que la durée moyenne de la session, ce qui n'a pas beaucoup de sens. Dans Google Analytics, cela s'appelle le "temps perdu".
Comment nous avons abordé ce problème :
Contrairement à GA et aux outils d'analyse similaires, Content Insights mesure le temps d'attention , qui est le temps réel qu'un utilisateur passe sur la page à consommer du contenu. Il ne prend pas en compte le temps d'inactivité, c'est-à-dire le temps pendant lequel une personne n'est pas active sur la page ou est absente de la page. Ainsi, ce que vous obtenez avec cette métrique est le temps d'engagement réel.
Notre solution d'analyse repose sur un algorithme complexe appelé Content Performance Indicator (CPI). L'IPC est toujours présenté sous la forme d'un nombre, de 1 à 1000, 500 étant la ligne de base (c'est-à-dire la « norme ») pour le site Web, la section, le sujet, l'auteur ou l'article observé.
L'IPC prend en considération des dizaines de mesures de performance de contenu différentes et examine leurs relations. Elle les pondère également différemment selon trois modèles comportementaux : exposition , engagement et fidélité . Ainsi, nous avons développé trois CPI qui mesurent ces comportements : Exposure CPI , Engagement CPI et Loyalty CPI .
Dans le contexte de l'engagement, nous avons Engagement CPI qui est calculé en mesurant la lecture attentive et le parcours du lecteur au sein du site ou du domaine. Il offre un moyen beaucoup plus avancé et précis de mesurer l'engagement par rapport au simple examen du temps passé sur la page, qui est une mesure unique dans GA et des outils d'analyse similaires.
3. Visiteurs de retour
Afin de comprendre ce que sont les visiteurs récurrents, nous devons examiner brièvement la manière dont Google Analytics et la plupart des outils d'analyse actuels suivent les utilisateurs.
La première fois qu'un certain appareil (ordinateur de bureau, tablette, appareil mobile) ou navigateur (Chrome, Firefox, Internet Explorer) charge le contenu de votre site Web, le code de suivi Google Analytics lui attribue un identifiant aléatoire et unique appelé identifiant client, puis l'envoie au serveur GA
L'identifiant unique est compté comme un nouvel utilisateur unique dans GA. Chaque fois qu'un nouvel identifiant est détecté, GA compte un nouvel utilisateur. Si l'utilisateur supprime les cookies du navigateur, l'ID est supprimé et réinitialisé.
Dans cet esprit, un visiteur récurrent est celui qui utilise le même appareil ou navigateur qu'auparavant pour accéder au site Web et démarrer une nouvelle session, sans effacer les cookies . Ainsi, si Google Analytics détecte l'identifiant client existant dans une nouvelle session, il le considère comme un visiteur récurrent.
Le problème avec les visiteurs récurrents :
Le problème avec le calcul des visiteurs récurrents est évident : les outils d'analyse peuvent compter le même visiteur qui est revenu sur le site Web comme nouveau , simplement parce qu'il a changé d'appareil ou de navigateur, ou effacé ses cookies. Personne ne peut faire grand-chose à ce sujet puisque leur identifiant client est modifié de cette façon. Il n'est pas possible de suivre les utilisateurs sur différents navigateurs et appareils. En outre, Google Analytics peut compter le même visiteur comme nouveau et récurrent, s'il revient dans un certain délai. Cela signifie qu'il peut y avoir un chevauchement entre les nouveaux visiteurs et les visiteurs récurrents, ce qui entraîne des divergences de données. De plus, le même utilisateur peut être compté deux fois pour la même source/support.
Cependant, il y a un problème beaucoup plus important ici:
De nombreux éditeurs ont accepté les visiteurs récurrents comme mesure indiquant le nombre de lecteurs fidèles, ce qui est une erreur logique.
Les visiteurs récurrents indiquent le nombre de personnes qui ont visité votre site Web dans le passé, puis sont revenues. Cependant, ce rapport ne dit rien sur :
- Dans quelle mesure votre contenu est-il efficace pour engager les visiteurs ?
- Le comportement humain réel (comment les gens interagissent avec votre contenu)
- La fréquence et la récence de leurs visites
- Que ces visiteurs soient ou non réellement fidèles à votre publication ou simplement des fouineurs occasionnels qui étaient sur votre site Web auparavant (c'est-à-dire que ces visiteurs ont pris l' habitude de visiter votre publication ou sont simplement tombés sur votre site Web plus d'une fois au cours d'une certaine période de temps pour des raisons XY)
Pour mieux comprendre cette métrique, on peut essayer de l'expliquer par une simple analogie. Si une personne se rend dans un magasin, en sort et y revient, sans intention précise ni achat, cette personne est-elle un client fidèle par défaut ? Pas vraiment. Ils pourraient l'être, mais vous ne pouvez pas vraiment le savoir.
Encore une fois, nous devons souligner que les visiteurs de retour mesurent l'activité du navigateur et cela n'a rien à voir avec la fidélité.
Comment les éditeurs essaient de donner un sens aux visiteurs récurrents :
De nombreux éditeurs choisissent d'ignorer ces erreurs de calcul ou ils ne savent même pas comment les choses sont réellement mesurées. Ils prennent en compte le ratio Nouveaux visiteurs par rapport aux visiteurs récurrents pour obtenir un aperçu du type de trafic que leur site Web attire, même s'il n'est pas très précis. Ils comparent ensuite des éléments tels que le nombre de sessions ou le temps moyen passé sur la page, dans le but de découvrir les similitudes et les différences entre la manière dont les visiteurs qui reviennent et les nouveaux visiteurs interagissent avec leur site Web. De plus, ils peuvent choisir d'appliquer une segmentation et de générer des rapports personnalisés pour plus de détails sur leurs visiteurs.
Pourtant, ces rapports sont basés sur des mesures uniques qui ne fournissent pas d'informations exploitables lorsqu'il s'agit de mesurer les performances du contenu.
Une autre chose que les éditeurs peuvent utiliser pour obtenir des données plus précises est le suivi de l'identifiant de l'utilisateur , c'est-à-dire l'établissement d'un système de connexion sur leur page Web où les utilisateurs peuvent se connecter. Une fois connectés, les utilisateurs peuvent être facilement suivis sur tous les appareils. Cependant, GA ne fonctionne pas rétroactivement, donc si vous choisissez d'implémenter un système de connexion, il ne connectera aucune session précédente. Le problème brûlant ici est que vos visiteurs ne choisiront probablement pas de se connecter à votre site Web si le contenu est disponible malgré tout.
Comment nous avons abordé ce problème :
L'équipe Labs de Content Insights s'est particulièrement intéressée à comprendre et à définir les lecteurs fidèles, et à trouver un moyen de mesurer la fidélité .
Enfin, nous avons défini les lecteurs fidèles comme « systématiquement très engagés » , car cela correspond le plus précisément à leur comportement habituel Il existe une manière spécifique de compter leurs "journées actives" dans les analyses du CI pour s'assurer qu'ils interagissent vraiment avec le contenu.
Contrairement à d'autres outils d'analyse, nous mesurons la fidélité au niveau du contenu, car c'est ce qui compte vraiment. Les éditeurs veulent identifier les éléments de contenu qui encouragent un comportement fidèle et contribuent peut-être à convertir les lecteurs fidèles en abonnés.
Grâce aux dernières améliorations de notre IPC de fidélité , il est désormais possible de mesurer exactement cela. Ce modèle comportemental examine comment les articles contribuent à la fidélité globale de votre base de lecteurs sur le site Web.
"Si ce n'est pas cassé, ne le répare pas"
Nous avons créé une vue d'ensemble des métriques uniques les plus fréquemment utilisées et montré en détail pourquoi il est erroné de baser les rapports sur les performances du contenu sur celles-ci.
Le problème brûlant ici est que de nombreux éditeurs d'aujourd'hui ne prendront pas la peine de comprendre la façon dont les choses sont calculées.
Par exemple, les éditeurs croiront vraiment que lorsqu'ils demanderont le rapport d'audience dans le GA, ils obtiendront des informations précises et fiables sur la façon dont leur public consomme leur contenu. Mais chaque rapport dans GA en tant qu'outil prêt à l'emploi repose sur des statistiques uniques qui décrivent les événements du navigateur .
Ces rapports ne peuvent pas mesurer correctement le comportement humain et sa complexité, peu importe comment vous les appelez. De nombreux outils d'analyse sur le marché ont construit des récits entiers qui sont en fait faux et trompeurs - puisque vous ne pouvez pas vraiment mesurer les choses qui vous sont promises.
Vous pouvez appeler un chat un tigre et prétendre que tout va bien simplement parce qu'ils appartiennent au même arbre généalogique de félins, mais à un moment donné, l'erreur remontera à la surface et deviendra douloureusement évidente pour toutes les parties prenantes clés. Un miaulement n'est pas un rugissement.
Certains éditeurs commencent à réaliser qu'il est faux de croire à des métriques uniques lors de la mesure des performances du contenu, mais ils choisissent de fermer les yeux. D'autres ne sont pas encore conscients du fait que le problème existe même.
Étant donné que les gens sont naturellement très résistants au changement, de nombreux éditeurs s'en tiennent au principe « si ce n'est pas cassé, ne le répare pas ». Leur logique est saine : ils utilisent des mesures uniques et ont réussi à joindre les deux bouts. Le changement signifie qu'il y a un risque de perte de contrôle, il est marqué par « l'incertitude », il impose un travail supplémentaire et il est généralement effrayant, voire terrifiant.
Cependant, les choses SONT cassées et doivent être réparées.
Comme tous les changements fondamentaux, ce passage de métriques simples à des métriques complexes suit la loi dite du mouvement d'Hemingway : cela se produit progressivement puis soudainement. Et comme pour tout type de technologie ou de méthode perturbatrice qui fait avancer le monde, les premiers utilisateurs acquièrent un avantage concurrentiel. Nous l'avons vu arriver. C'est ainsi que fonctionne le progrès.
Maintenant, les projecteurs sont braqués sur vous. Quelles analyses utilisez-vous ? Comment donner du sens aux données ? Quelle est votre métrique "étoile du nord" pour mesurer les performances du contenu ? Nous vous invitons à vous joindre à cette conversation et à partager vos réflexions dans les commentaires ci-dessous.