Les éditeurs investis pour apparaître en haut des résultats de recherche de Google comprennent déjà l'importance du référencement. Cependant, un aspect important et potentiellement négligé du référencement pour les grands éditeurs est le budget de crawl de Google.
Les budgets d'exploration de Google aident à déterminer dans quelle mesure les articles apparaissent dans les résultats de recherche.
Comprendre les budgets de crawl est une étape essentielle pour s'assurer que les objectifs de référencement sont atteints et que le contenu est visualisé. Vérifier que le back-end technique d'un site est sain signifie que le front-end est plus susceptible de refléter cet état.
Dans cet article, nous expliquons ce qu'est un budget de crawl, ce qui affecte le budget, l'optimisation du budget de crawl, comment vérifier et suivre les budgets de crawl et pourquoi ces budgets sont si importants pour le bien-être de tout site en ligne.
Qu'est-ce qu'un budget de crawl ?
Le budget de crawl fait référence aux ressources que Google alloue à la recherche et à l'indexation de pages Web nouvelles et existantes.
Le robot d'exploration de Google - Googlebot - explore les sites pour mettre à jour et développer la base de données de pages Web du géant de la recherche. Il utilise des liens internes et externes, des sitemaps XML, des flux RSS et Atom, ainsi que des fichiers robots.txt pour aider à explorer et indexer les sites aussi rapidement que possible.
Certaines pages gagnent en autorité avec le temps, tandis que d'autres peuvent être totalement ignorées pour un certain nombre de raisons allant du contenu lié aux restrictions techniques.
Savoir comment maximiser le budget de crawl est inestimable pour tout éditeur ou site Web organisationnel à la recherche de succès sur les pages de résultats des moteurs de recherche (SERP).
Les limites de Googlebot
Googlebot n'est pas une ressource infinie et Google ne peut pas se permettre de parcourir un nombre infini de serveurs Web. En tant que tel, la société a offert des conseils aux propriétaires de domaine pour maximiser leur propre budget de crawl. 1
Comprendre comment les bots mènent leur activité est fondamental.
Si un crawlbot arrive sur un site et détermine que son analyse et sa catégorisation seront problématiques, il ralentira ou passera entièrement à un autre site en fonction de l'étendue et du type de problèmes auxquels il est confronté.
Lorsque cela se produit, c'est un signal clair que le site manque d'optimisation du budget de crawl.
Savoir que Googlebot est une ressource limitée devrait être une raison suffisante pour que tout propriétaire de site se soucie du budget de crawl. Cependant, tous les sites ne sont pas confrontés à ce problème au même degré.
Qui devrait s'en soucier et pourquoi ?
Bien que chaque propriétaire de site veuille que son site Web réussisse, seuls les sites moyens et grands qui mettent fréquemment à jour leur contenu doivent vraiment se soucier des budgets de crawl.
Google définit les sites moyens comme ceux avec plus de 10 000 pages uniques mises à jour quotidiennement. Les grands sites, quant à eux, comptent plus d'un million de pages uniques et sont mis à jour au moins une fois par semaine.
Google note la relation entre l'activité d'exploration et les sites Web plus importants, en disant : "Priorité à ce qu'il faut explorer, quand et combien de ressources le serveur hébergeant le site Web peut allouer à l'exploration est plus important pour les sites Web plus grands, ou ceux qui génèrent automatiquement des pages basées sur Paramètres d'URL, par exemple. » 2
Les sites avec des nombres de pages limités ne doivent pas être trop préoccupés par le budget de crawl. Cependant, étant donné que certains éditeurs peuvent se développer rapidement, l'acquisition d'une compréhension fondamentale des statistiques et des opérations d'exploration mettra tous les propriétaires de sites dans une meilleure position pour récolter les fruits d'un trafic plus important sur le site.
Qu'est-ce qui affecte le budget de crawl de Google ?
La mesure dans laquelle Google explore un site Web est déterminée par les limites de capacité d'exploration et la demande d'exploration.
Afin d'éviter que l'activité d'exploration ne submerge un serveur hôte, la limite de capacité est calculée en établissant le nombre maximal de connexions simultanées et parallèles que le bot peut utiliser pour explorer le site ainsi que le délai entre les retours de données.
Limite de capacité d'exploration
Cette métrique, également appelée limite de vitesse de crawl, est fluide et se rapporte aux changements de trois facteurs :
- Santé du crawl : Si le site répond sans erreur ni retard, et que la vitesse du site est bonne, la limite peut augmenter et vice-versa.
- Taux d'exploration GSC : Google Search Console (GSC) peut être utilisé pour réduire l'activité d'exploration , une fonction qui peut être utile lors de la maintenance prolongée du site ou des mises à jour. 3 Toute modification reste active pendant 90 jours . 4
Si la limite de vitesse de crawl est répertoriée comme "calculée à l'optimum", l'augmenter n'est pas une option et l'abaisser ne peut se faire que sur demande spéciale. Si un site est surexploité, ce qui entraîne des problèmes de disponibilité du site et/ou de chargement des pages, utilisez robots.txt pour bloquer l'exploration et l'indexation. Cette option peut cependant prendre 24 heures pour entrer en vigueur.
Bien que de nombreux sites n'imposent pas de sanctions de limite d'exploration, cela peut toujours être un outil utile.
Demande d'exploration
La demande de crawl est une expression de l'intérêt que Google porte à l'indexation d'un site. Elle aussi est influencée par trois facteurs :
- Inventaire perçu : Sans les conseils du propriétaire du site — que nous aborderons un peu plus tard — Google essaiera d'explorer chaque URL, y compris les doublons, les liens qui ne fonctionnent pas et les pages moins importantes. C'est là que la réduction des paramètres de recherche de Googlebot peut augmenter le budget de crawl.
- Popularité : Si un site est extrêmement populaire, ses URL seront explorées plus souvent.
- Obsolescence : Généralement, le système Googlebot vise à réexplorer les pages afin de détecter tout changement. Ce processus peut être facilité en utilisant le GSC et en demandant de nouvelles explorations, bien qu'il n'y ait aucune garantie que la demande sera immédiatement traitée.
L'activité d'exploration est, par essence, le produit d'une bonne gestion de site Web.
Préoccupations du CMS
Vahe Arabian , fondateur de State of Digital Publishing (SODP) , affirme que les éléments du système de gestion de contenu (CMS) - tels que les plug-ins - peuvent affecter les budgets de crawl. 5
Il a déclaré: "De nombreux plug-ins sont basés sur une base de données lourde et entraînent une augmentation des charges de ressources, ce qui ralentira une page ou créera des pages inutiles et affectera sa capacité d'exploration."
Le modèle de revenus basé sur la publicité d'un site Web peut créer des problèmes similaires si plusieurs fonctionnalités du site sont gourmandes en ressources.
Comment vérifier et suivre les budgets de crawl
Il existe deux manières principales de suivre les budgets de crawl : Google Search Console (GSC) et/ou les journaux de serveur. 6
Console de recherche Google
Avant de vérifier les taux d'exploration d'un site sur Google Search Console (GSC), la propriété du domaine doit être vérifiée.
La console dispose de trois outils pour vérifier les pages du site Web et confirmer quelles URL sont fonctionnelles et lesquelles n'ont pas été indexées.
La console vérifie les inexactitudes de domaine et propose des suggestions sur la façon de résoudre diverses erreurs d'exploration.
GSC regroupe les erreurs d'état dans un certain nombre de catégories dans son rapport sur la couverture de l'index, notamment :
- Erreur de serveur [5xx]
- Erreur de redirection
- URL soumise bloquée par robots.txt
- URL soumise marquée 'noindex'
- L'URL soumise semble être un soft 404
- L'URL soumise renvoie une demande non autorisée (401)
- URL soumise introuvable (404)
- L'URL soumise a renvoyé 403 :
- URL soumise bloquée en raison d'un autre problème 4xx
Le rapport indique combien de pages ont été affectées par chaque erreur ainsi que le statut de validation.
L'outil d'inspection d'URL fournit des informations d'indexation sur n'importe quelle page spécifique, tandis que le rapport de statistiques d'exploration peut être utilisé pour savoir à quelle fréquence Google explore un site, la réactivité du serveur du site et tout problème de disponibilité associé.
Il existe une approche fixe pour identifier et corriger chaque erreur, allant de la reconnaissance qu'un serveur de site peut avoir été en panne ou indisponible au moment de l'exploration à l'utilisation d'une redirection 301 pour rediriger vers une autre page, ou la suppression de pages du plan du site. .
Si le contenu de la page a changé de manière significative, le bouton "demander l'indexation" de l'outil d'inspection d'URL peut être utilisé pour lancer une exploration de la page.
Bien qu'il ne soit pas nécessaire de "réparer" chaque erreur de page individuelle, minimiser les problèmes qui ralentissent les robots d'exploration est certainement une bonne pratique.
Utiliser les journaux du serveur
Comme alternative à la console de recherche Google (GSC), la santé de l'exploration d'un site peut être inspectée via des journaux de serveur qui enregistrent non seulement chaque visite du site, mais également chaque visite de Googlebot.
Pour ceux qui ne sont pas encore au courant, les serveurs créent et stockent automatiquement une entrée de journal chaque fois que Googlebot ou un humain demande qu'une page soit servie. Ces entrées de journal sont ensuite collectées dans un fichier journal.
Une fois qu'un fichier journal a été consulté, il doit être analysé. Cependant, étant donné l'étendue des entrées de journal, cette entreprise ne doit pas être entreprise à la légère. Selon la taille du site, un fichier journal peut facilement contenir des centaines de millions voire des milliards d'entrées.
Si la décision est prise d'analyser le fichier journal, les données doivent être exportées vers une feuille de calcul ou un logiciel propriétaire, ce qui facilite plus facilement le processus d'analyse.
L'analyse de ces enregistrements montrera le type d'erreurs rencontrées par un bot, les pages les plus consultées et la fréquence à laquelle un site a été exploré.
9 façons d'optimiser le budget de crawl
L'optimisation implique de vérifier et de suivre les statistiques de santé du site, comme indiqué ci-dessus, puis de traiter directement les zones problématiques.
Ci-dessous, nous avons présenté notre boîte à outils d'optimisation du budget de crawl, que nous utilisons pour résoudre les problèmes de crawlabilité au fur et à mesure qu'ils surviennent.
1. Consolider le contenu dupliqué
Des problèmes d'exploration peuvent apparaître lorsqu'une seule page est accessible à partir de plusieurs URL différentes ou contient du contenu qui est répliqué ailleurs sur le site. Le bot verra ces exemples comme des doublons et en choisira simplement un comme version canonique.
Les URL restantes seront jugées moins importantes et seront crawlées moins souvent voire pas du tout. 10 C'est bien si Google sélectionne la page canonique souhaitée, mais c'est un sérieux problème si ce n'est pas le cas.
Cela dit, il peut y avoir des raisons valables d'avoir des pages en double, comme le désir de prendre en charge plusieurs types d'appareils, d'activer la syndication de contenu ou d'utiliser des URL dynamiques pour les paramètres de recherche ou les identifiants de session.
recommandations de SODP :
- Élaguer le contenu du site Web dans la mesure du possible
- Utilisez les 301 pour consolider les URL et fusionner le contenu
- Supprimer le contenu peu performant
- L'utilisation de 301 à la suite d'une restructuration de site Web enverra les utilisateurs, les robots et les autres robots d'exploration là où ils doivent aller.
- Utilisez noindex pour les pages minces, la pagination (pour les anciennes archives) et pour cannibaliser le contenu.
- Dans les cas où le contenu dupliqué entraîne une exploration excessive, ajustez le paramètre de vitesse d'exploration dans Google Search Console (GSC).
2. Utilisez le fichier Robots.txt
Ce fichier aide à empêcher les bots de parcourir un site entier. L'utilisation du fichier permet l'exclusion de pages individuelles ou de sections de page.
Cette option donne à l'éditeur le contrôle de ce qui est indexé, gardant certains contenus privés tout en améliorant la façon dont le budget de crawl est dépensé.
recommandations de SODP :
- Ordonnez la préférence des paramètres afin de hiérarchiser les paramètres dont l'exploration doit être bloquée.
- Spécifiez les robots, les directives et les paramètres qui provoquent une analyse supplémentaire à l'aide des fichiers journaux.
- Bloquez les chemins communs que les CMS ont généralement tels que 404, admin, pages de connexion, etc.
- Évitez d'utiliser la directive crawl-delay pour réduire le trafic de bot pour les performances du serveur. Cela n'affecte que l'indexation des nouveaux contenus.
3. Segmenter les sitemaps XML pour assurer une récupération plus rapide du contenu
Un crawl bot arrive sur un site avec une allocation générale du nombre de pages qu'il va explorer. Le sitemap XML dirige efficacement le bot pour lire les URL sélectionnées, garantissant ainsi l'utilisation efficace de ce budget.
Notez que les performances de classement d'une page dépendent de plusieurs facteurs, notamment la qualité du contenu et les liens internes/externes. Envisagez d'inclure uniquement les pages de niveau supérieur dans la carte. Les images peuvent se voir attribuer leur propre sitemap XML.
recommandations de SODP :
- Référencez le sitemap XML à partir du fichier robots.txt.
- Créez plusieurs sitemaps pour un très grand site. N'ajoutez pas plus de 50 000 URL à un seul sitemap XML.
- Gardez-le propre et n'incluez que des pages indexables.
- Maintenez à jour le sitemap XML.
- Gardez la taille du fichier à moins de 50 Mo.
4. Examinez la stratégie de liens internes
Google suit le réseau de liens au sein d'un site et toutes les pages avec plusieurs liens sont considérées comme de grande valeur et valent la peine de dépenser le budget de crawl.
Cependant, il convient de noter que même si un nombre limité de liens internes peut aller à l'encontre du budget de crawl, il peut en être de même pour parsemer l'ensemble du site de liens.
Les pages sans liens internes ne reçoivent aucune équité de lien du reste du site Web, ce qui encourage Google à les traiter comme étant de moindre valeur.
Dans le même temps, les pages de grande valeur contenant de nombreux liens internes finissent par partager leur équité de liens de manière égale entre les autres pages, quelle que soit leur valeur stratégique. En tant que tel, évitez de créer des liens vers des pages qui offrent peu de valeur aux lecteurs.
Une stratégie de liens internes nécessite une touche habile pour s'assurer que les pages à forte valeur reçoivent suffisamment de liens, tandis que les pages à faible valeur ne cannibalisent pas l'équité des liens.
5. Mettez à niveau l'hébergement si le trafic simultané est un goulot d'étranglement
Si un site Web fonctionne sur une plate-forme d'hébergement mutualisé, le budget de crawl sera partagé avec d'autres sites Web fonctionnant sur ladite plate-forme. Une grande entreprise peut trouver un hébergement indépendant comme une alternative intéressante.
Autres considérations lors de la mise à niveau de votre hébergement ou même avant la mise à niveau pour résoudre la surcharge de trafic de bot qui peut avoir un impact sur les charges du serveur :
- Traitez les images à l'aide d'un CDN distinct qui est également optimisé pour héberger des formats d'image de nouvelle génération tels que webp
- Envisagez d'héberger le processeur, l'espace disque en fonction de la fonction et des exigences de votre site Web
- Surveillez l'activité à l'aide de solutions comme New Relic pour surveiller l'utilisation excessive des plugins et des bots
6. Équilibrer l'utilisation de Javascript
Lorsque Googlebot atterrit sur une page Web, il restitue tous les actifs de ladite page, y compris Javascript. Bien que l'exploration du code HTML soit plutôt simple, Googlebot doit traiter Javascript plusieurs fois afin de pouvoir le restituer et comprendre son contenu.
Cela peut rapidement épuiser le budget de crawl de Google pour un site Web. La solution consiste à implémenter le rendu Javascript côté serveur.
En évitant d'envoyer des actifs Javascript au client pour le rendu , les crawl bots n'épuisent pas leurs ressources et peuvent travailler plus efficacement. 11
recommandations de SODP :
- Utilisez le chargement paresseux au niveau du navigateur au lieu d'être basé sur JS
- Déterminez si les éléments
- Utilisez le balisage côté serveur pour l'analyse et le balisage tiers, soit en auto-hébergé, soit à l'aide de solutions telles que https://stape.io/ . 12
7. Mettre à jour Core Web Vitals (CWV) pour améliorer l'expérience de la page
Le Core Web Vitals (CWV) de Google Search Console (GSC) utilise ce que le géant de la recherche appelle des « données d'utilisation réelles » pour afficher les performances des pages. 13
Le rapport CWV regroupe les performances des URL en trois catégories :
- Type de métrique (LCP, FID et CLS)
- Statut
- Groupes d'URL
Métrique
Le rapport CWV est basé sur la plus grande peinture (LCP), 14 le délai de première entrée (FID) 15 et le changement de mise en page cumulatif (CLS) 16 métriques.
LCP concerne le temps nécessaire pour rendre le plus grand élément de contenu visible sur la zone visible de la page Web.
Le FID concerne le temps nécessaire à une page pour répondre à l'interaction d'un utilisateur.
CLS est une mesure du degré de changement de la mise en page au cours de la session utilisateur, les scores les plus élevés représentant une expérience utilisateur moins bonne.
Statut
À la suite d'une évaluation de page, chaque métrique se voit attribuer l'un des trois classements de statut :
- Bon
- A besoin d'amélioration
- Pauvres
Groupes d'URL
Le rapport peut également attribuer des problèmes à un groupe d'URL similaires, en supposant que les problèmes de performances affectant des pages similaires peuvent être attribués à un problème partagé.
CWV et capacité d'exploration
Comme indiqué précédemment, plus Googlebot passe de temps sur une page, plus il gaspille son budget de crawl. Ainsi, les éditeurs peuvent utiliser les rapports CWV pour optimiser l'efficacité des pages et réduire le temps d'exploration.
de SODP , avec un focus sur WordPress :
Pointeurs d'amélioration de la vitesse | Mettre en œuvre via | Valider sur |
Convertir des images au format WebP | Si CDN est activé, convertissez-le via le côté CDN ou installez le plugin EWWW | https://www.cdnplanet.com/tools/cdnfinder/ |
Implémentez SRCSET et vérifiez https://pagespeed.web.dev/ si le problème de taille correcte des images est résolu | Implémenter en ajoutant du code manuellement | Vérifiez dans le code du navigateur si toutes les images ont le code SRCSET |
Activer la mise en cache du navigateur | Fusée WP | https://www.giftofspeed.com/cache-checker/ |
Images de chargement paresseux | Fusée WP | Vérifiez dans la console du navigateur si le code lazyload est ajouté à l'image. Sauf pour l'image en vedette. |
Différer les scripts externes : Seuls les scripts du peut être différé | WP rocket ou Un site web plus rapide ! (alias defer.js) plug-in | Après avoir ajouté la balise de report, vérifiez https://pagespeed.web.dev/ si le problème de réduction de JavaScript inutilisé est résolu |
Identifiez et supprimez les fichiers JS et CSS inutilisés | Manuellement | |
Activer la compression Gzip | Côté serveur, contacter l'hébergeur | https://www.giftofspeed.com/gzip-test/ |
Minifier JS et CSS | Fusée WP | https://pagespeed.web.dev/ |
Charger les polices localement ou précharger les polices Web | Plugin de police OMG ou téléchargez les fichiers de police sur le serveur et ajoutez-le via le code dans l'en-tête | |
Activer CDN | Cloudflare (tout autre service CDN) et configurez-le pour le site |
8. Utilisez un robot d'exploration tiers
Un crawler tiers tel que Semrush, Sitechecker.pro ou Screaming Frog permet aux développeurs Web d'auditer toutes les URL d'un site et d'identifier les problèmes potentiels.
Les robots d'exploration peuvent être utilisés pour identifier :
- Liens brisés
- Contenu dupliqué
- Titres de page manquants
Ces programmes proposent un rapport de statistiques d'exploration pour aider à mettre en évidence les problèmes que les propres outils de Google ne peuvent pas détecter.
L'amélioration des données structurées et la réduction des problèmes d'hygiène rationaliseront le travail de Googlebot d'exploration et d'indexation d'un site.
recommandations de SODP :
- Utilisez des requêtes SQL pour effectuer des mises à jour par lots des erreurs au lieu de résoudre manuellement chaque problème.
- Émulez Googlebot, via les paramètres d'exploration de recherche, pour éviter d'être bloqué par les hébergeurs et pour identifier et résoudre correctement tous les problèmes techniques.
- Déboguez les pages manquantes d'un crawl à l'aide de cet excellent guide de Screaming Frog . 17
9. Paramètres d'URL
Paramètres d'URL - la section de l'adresse Web qui suit le "?" — sont utilisés sur une page pour diverses raisons, notamment le filtrage, la pagination et la recherche.
Bien que cela puisse améliorer l'expérience utilisateur, cela peut également entraîner des problèmes d'exploration lorsque l'URL de base et celle avec des paramètres renvoient le même contenu. Un exemple de ceci serait "http://mysite.com" et "http://mysite.com?id=3" renvoyant exactement la même page.
Les paramètres permettent à un site d'avoir un nombre presque illimité de liens, par exemple lorsqu'un utilisateur peut sélectionner des jours, des mois et des années sur un calendrier. Si le bot est autorisé à crawler ces pages, le budget de crawl sera épuisé inutilement.
recommandations de SODP :
- Utilisez les règles robots.txt. Par exemple, spécifiez l'ordre des paramètres dans une directive allow.
- Utilisez hreflang pour spécifier les variations linguistiques du contenu.
Tour d'horizon des mythes et des faits sur Googlebot
Il existe plusieurs idées fausses concernant la puissance et la portée de Googlebot.
En voici cinq que nous avons explorées :
1. Googlebot parcourt un site par intermittence
Googlebot explore en fait les sites assez fréquemment et, dans certaines situations, même quotidiennement. Cependant, la fréquence est déterminée par la qualité perçue du site, sa nouveauté, sa pertinence et sa popularité.
Comme indiqué ci-dessus, la Google Search Console (GSC) peut être utilisée pour demander une analyse.
2. Googlebot prend des décisions concernant le classement du site
Alors que cela était correct, Google considère désormais qu'il s'agit d'une partie distincte du processus d'exploration, d'indexation et de classement, selon Martin Splitt , WebMaster Trends Analyst chez Google. 18
Cependant, il est également important de se rappeler que le contenu d'un site, le plan du site, le nombre de pages, les liens, les URL, etc. sont tous des facteurs qui déterminent son classement.
Essentiellement, les choix SEO judicieux des éditeurs peuvent conduire à un positionnement solide au sein des SERP.
3. Googlebot envahit les sections privées d'un site
Le bot n'a pas de concept de "contenu privé" et est simplement chargé d'indexer les sites, sauf indication contraire du propriétaire du site.
Certaines pages Web peuvent rester non indexées tant que les mesures nécessaires au sein du SGC sont prises pour restreindre l'accès.
4. L'activité de Googlebot peut mettre à rude épreuve la maniabilité du site
Le processus Googlebot a ses limites à la fois en raison des limitations des ressources de Google et parce que Google ne veut pas perturber un site.
Splitt a déclaré: «Nous rampons un peu, puis nous augmentons essentiellement. Et quand nous commençons à voir des erreurs, nous les réduisons un peu. 15
Le GSC peut retarder les crawls et étant donné que certains sites peuvent avoir quelques centaines de milliers de pages, Googlebot divise son crawl en plusieurs visites.
5. Googlebot est le seul bot qui mérite de s'inquiéter
Bien que Googlebot soit le premier robot d'exploration au monde, tous les bots n'appartiennent pas à Google. D'autres moteurs de recherche explorent le Web, tandis que les robots qui se concentrent sur l'analyse ainsi que sur la sécurité des données et de la marque sont également actifs.
Dans le même temps, les acteurs malveillants conçoivent des logiciels de plus en plus sophistiqués pour se livrer à la fraude publicitaire , voler du contenu, publier des spams et plus encore. 19
Dernières pensées
Il est important de se rappeler que l'optimisation du budget de crawl et des expériences utilisateur réussies peuvent être gérées sans compromettre l'autre
La vérification de la santé du budget d'exploration d'un site devrait être un élément des programmes de maintenance de tous les propriétaires de sites Web, la fréquence de ces vérifications dépendant de la taille et de la nature du site Web lui-même.
L'entretien technique - comme la réparation des liens brisés, des pages qui ne fonctionnent , du contenu dupliqué, des URL mal rédigées et des plans de site anciens et chargés d'erreurs - est également essentiel.
- Gestion du budget de crawl pour les grands sites | Centre de recherche Google | Documentation
- Que signifie le budget de crawl pour Googlebot | Blog de la centrale de recherche Google
- Réduire le taux d'exploration de Googlebot | Centre de recherche Google | Documentation
- Modifier la vitesse d'exploration de Googlebot – Aide Search Console
- Optimisation du budget de crawl pour les éditeurs | État de l'édition numérique
- Console de recherche Google
- Rapport sur la couverture de l'index – Aide Search Console
- Outil d'inspection d'URL – Aide Search Console
- Rapport sur les statistiques d'exploration – Aide Search Console
- Consolidez les URL en double avec des URL canoniques | Centre de recherche Google | Documentation
- Rendu sur le Web | Développeurs Google
- Stape.io
- Rapport Core Web Vitals – Aide Search Console
- La plus grande peinture de contenu (LCP)
- Premier délai d'entrée (FID)
- Décalage de mise en page cumulé (CLS)
- Comment déboguer les pages manquantes dans un crawl – Screaming Frog
- Googlebot : démystifier le référencement
- Fraude publicitaire : tout ce que vous devez savoir | Publift