Táticas de crescimento de editores para época eleitoral | WEBINÁRIO

Saber mais

SODP

SODP Media

  • Education
    • Articles
      • Audience Development
      • Content Strategy
      • Digital Publishing
      • Monetization
      • SEO
      • Digital Platforms & Tools
    • Opinion
    • Podcast
    • Events
      • SODP Dinner Event London 2025
      • SODP Dinner Event Dubai 2025
      • SODP Dinner Event California 2025
      • All Events
  • Top Tools & Reviews
  • Research & Resources
  • Community
    • Slack Channel
    • Newsletter
  • About
    • About Us
    • Contact Us
    • Editorial Policy
  • English
sodp logo
SODP logo
    Procurar
    Feche esta caixa de pesquisa.
    Conecte-se
    • Educação
      • Podcast
      • Artigos
        • Desenvolvimento de público
        • Estratégia de Conteúdo
        • Publicação Digital
        • Monetização
        • SEO
        • Plataformas e ferramentas digitais
        • Artigos
        • Opinião
        • Podcasts
        • Eventos
        • Desenvolvimento de público
        • Estratégia de Conteúdo
        • Publicação Digital
        • Monetização
        • SEO
        • Plataformas e ferramentas digitais
        • Jantar Evento Califórnia 2025
        • PUBTECH2025
        • Ver tudo
    • Principais ferramentas e análises
        • Plataformas CMS sem cabeça
        • Plataformas de publicação digital
        • Software de calendário editorial
        • Aplicativos de revistas
        • Plataformas de boletins informativos por e-mail
        • Mais listas de melhores ferramentas
        • Avaliações
    • Pesquisa e Recursos
    • Comunidade
      • Canal Slack
      • Horário comercial
      • Boletim informativo
        • Canal Slack
        • Boletim informativo
    • Sobre
      • Sobre nós
      • Contate-nos
      • Política Editorial
        • Sobre nós
        • Contate-nos
        • Política Editorial
    espaço reservado
    SODP logo
    Torne-se um parceiro de marca
    Home > Curso de SEO para editores > Capítulo 2: SEO técnico > Velocidade e frequência de rastreamento
    6

    Velocidade e frequência de rastreamento

    Velocidade e frequência de rastreamento
    Módulo Anterior
    Voltar ao capítulo
    Próximo Módulo

    Objetivo de aprendizagem

    Depois de passar por este módulo, você deverá entender o que é o orçamento de rastreamento, como ele é alocado para um site e como otimizá-lo.

    Duração do vídeo

    23:27

    Responder ao questionário

    Faça um teste atual do módulo

    Materiais

    Modelos prontos para usar

    Recursos

    Relatórios e recursos

    Limite de tempo: 0

    Resumo do questionário

    0 de 9 questões concluídas

    Questões:

    Informação

    Você já completou o teste antes. Portanto, você não pode iniciá-lo novamente.

    O questionário está carregando…

    Você deve entrar ou se inscrever para iniciar o quiz.

    Você deve primeiro completar o seguinte:

    Resultados

    Questionário concluído. Os resultados estão sendo registrados.

    Resultados

    0 de 9 perguntas respondidas corretamente

    Seu tempo:

    O tempo passou

    Você atingiu 0 de 0 ponto(s), ( 0 )

    Ponto(s) ganho(s): 0 de 0 , ( 0 )
    0 Ensaio(s) Pendente(s) (Possíveis Ponto(s): 0 )

    Categorias

    1. Não categorizado 0%
    1. 1
    2. 2
    3. 3
    4. 4
    5. 5
    6. 6
    7. 7
    8. 8
    9. 9
    1. Atual
    2. Análise
    3. Respondido
    4. Correto
    5. Incorreto
    1. Pergunta 1 de 9
      1. Pergunta

      O que é um orçamento de rastreamento?

      Correto
      Incorreto
    2. Pergunta 2 de 9
      2. Pergunta

      Uma medida da frequência com que o Google deseja (rastrear) uma página/site específico é chamado ____.

      Correto
      Incorreto
    3. Pergunta 3 de 9
      3. Pergunta

      Os orçamentos de rastreamento geralmente são apenas uma preocupação para os editores que têm mais do que quantas páginas em seu site?

      Correto
      Incorreto
    4. Pergunta 4 de 9
      4. Pergunta

      Onde você pode encontrar estatísticas de rastreamento?

      Correto
      Incorreto
    5. Pergunta 5 de 9
      5. Pergunta

      O que é robots.txt?

      Correto
      Incorreto
    6. Pergunta 6 de 9
      6. Pergunta

      Qual das alternativas a seguir pode reduzir seu orçamento de rastreamento?

      Correto
      Incorreto
    7. Pergunta 7 de 9
      7. Pergunta

      Qual das seguintes tarefas um rastreador de terceiros como Semrush ou Screaming Frog não pode executar?

      Correto
      Incorreto
    8. Pergunta 8 de 9
      8. Pergunta

      O que faz o seguinte Tag Comunique -se a um rastreador?

      Correto
      Incorreto
    9. Pergunta 9 de 9
      9. Pergunta

      O que significa um código de erro 503?

      Correto
      Incorreto

    2.6.1 O que é um orçamento de rastreamento?

    O orçamento de rastreamento é o número de páginas do seu site que um rastreador da web rastreará em um determinado período.

    Cada vez que você clica no botão publicar, o Google precisa rastrear e indexar o conteúdo para que ele comece a aparecer nos resultados de pesquisa. Dada a escala e o volume de conteúdo na Internet, o rastreamento torna-se um recurso valioso que precisa ser orçado e racionado para um uso mais eficiente.

    Simplificando, é difícil para o Google rastrear e indexar todas as páginas da Internet todos os dias. Assim, o Google rastreia cada site de acordo com o orçamento atribuído.

    2.6.2 Como o orçamento de rastreamento é atribuído aos sites?

    O orçamento de rastreamento é atribuído a sites com base em dois fatores: limite de rastreamento e demanda de rastreamento.

    Limite de rastreamento

    Esta é a capacidade e/ou disposição de um site de ser rastreado.

    Nem todo site foi criado para ser rastreado todos os dias. O rastreamento envolve o envio de solicitações do Googlebot ao servidor do seu site que, se feitas com muita frequência, podem sobrecarregar a capacidade do servidor.

    Além disso, nem todo editor deseja que seu site seja rastreado continuamente.

    Demanda de rastreamento

    A demanda de rastreamento é uma medida da frequência com que uma página específica deseja ser (re)rastreada. Páginas populares ou páginas que são atualizadas com frequência precisam ser rastreadas e rastreadas novamente com mais frequência.

    2.6.3 Por que os editores deveriam se preocupar com o orçamento de rastreamento?

    Se o Google não conseguir rastrear e indexar o seu conteúdo, esse conteúdo simplesmente não aparecerá nos resultados de pesquisa.

    Dito isso, os orçamentos de rastreamento geralmente são uma preocupação apenas para editores de médio a grande porte que possuem mais de 10.000 páginas em seus sites. Os editores menores não deveriam precisar se preocupar excessivamente com orçamentos de rastreamento.

    Os editores com 10.000 ou mais páginas em seu site, no entanto, desejam evitar páginas de rastejamento do Googlebot que não eram importantes. Esgotar seu orçamento de rastreamento com conteúdo irrelevante ou menos importante significa que as páginas de maior valor podem não estar rastreadas.

    Além disso, os editores de notícias vão querer ter cuidado com os orçamentos de rastreamento desperdiçados, uma vez que rastejar é uma das três maneiras pelas quais o Google News descobre um novo conteúdo em tempo hábil. Os outros dois estão usando o Sitemaps e o Google Publisher Center, que exploramos ainda mais em nossos módulos do Google News Sitemap e do Google Publisher Center

    2.6.4 Otimizando para rastreadores

    Otimizando a frequência e a velocidade com que o Googlebot rasteja seu site envolve o monitoramento de uma variedade de variáveis. Começamos listando os fatores mais importantes envolvidos na otimização do orçamento e frequência de rastreamento.

    Monitore o conteúdo rastreado

    As duas táticas mais úteis para monitorar como seu conteúdo está sendo rastreado estão analisando arquivos de log e relatório de estatísticas de rastreamento do Google Search Console (GSC).

    1. Análise de arquivo de log

    Um arquivo de log é um documento de texto que registra todas as atividades no servidor do seu site. Isso inclui todos os dados sobre solicitações de rastreamento, solicitações de página, solicitações de imagem, solicitações de arquivos JavaScript e qualquer outro recurso necessário para executar seu site.

    Para fins de SEO técnico, a análise de arquivos de log ajuda a determinar muitas informações úteis sobre o rastreamento de URL, incluindo, entre outros,:

    • Quais URLs foram rastejados.
    • Quais URLs estão sendo rastejados com mais frequência.
    • Identificando se URLs de baixo valor ou não essencial estão sendo rastreados, desperdiçando o orçamento de rastreamento.

    Como fazer isso

    A análise de arquivos de log é uma tarefa que requer algum grau de familiaridade técnica com o back -end de um site. Por esse motivo, recomendamos o uso de software de analisador de arquivos de log. Existem várias ferramentas de análise de log gratuitas e pagas disponíveis, como GrayLog , Loggly , Stack Elastic , Screaming Frog Log Analyzer e Nagios, para citar alguns.

    Se você é um desenvolvedor experiente ou administrador do sistema, também pode executar manualmente uma análise de arquivos de log.

    Para fazer isso, siga estas etapas:

    1. Faça login no cPanel do seu provedor de hospedagem
    1. Navegue para os Merics e depois o acesso bruto
    1. Baixe o arquivo de log

    Depois de baixar o arquivo de log, você pode alterar a extensão para .csv e abri -lo usando o Microsoft Excel ou o Google Sheets. Como dissemos, no entanto, essa abordagem requer um certo nível de especialização para entender o arquivo de log.

    Você também pode acessar o arquivo de log usando um cliente FTP inserindo o caminho do arquivo de log. Um caminho típico do arquivo de log se parece com o seguinte:

    Nome do servidor (por exemplo, apache) /var/log/access.log

    No entanto, é muito mais conveniente usar uma ferramenta de análise de log. Depois de enviar o arquivo de log na ferramenta, você pode classificar os dados usando vários filtros. Por exemplo, você poderá ver quais URLs foram acessados com mais frequência pelo GoogleBot.

    Você também poderá ver se o Googlebot está acessando URLs não essenciais ou de baixo valor, como URLs de navegação facetados, URLs duplicados, etc. Identificá-los é importante, pois estão desperdiçando seu orçamento de rastreamento.

    Veja a captura de tela abaixo, tirada do Screaming Frog's Log File Analyzer, para ver o que queremos dizer.

    Análise de arquivo de log

    2. Relatório de estatísticas de crawl gsc

    A GSC fornece aos proprietários de sites dados e informações abrangentes sobre como o Google rasteja seu conteúdo. Isso inclui relatórios detalhados sobre:

    • Quais arquivos/páginas foram rastejados e com que finalidade.
    • Que tipo de Googlebot (notícias, vídeos, celular, etc.) empreendeu o rastreamento.
    • Número total de solicitações de rastreamento, etc.

    O GSC também torna os gráficos e gráficos disponíveis para fornecer ainda mais informações. A captura de tela abaixo é como é um relatório típico de estatísticas de rastreamento no GSC.

    Relatório de estatísticas GSC Crawl

    Fonte

    O GSC também permite que você saiba se há algum problema com o rastreamento. Ele verifica vários erros e atribui um código A cada um. Os erros mais comuns que o GSC verifica incluem:

    • Erro do servidor [5xx]
    • Erro de redirecionamento
    • URL enviado bloqueado por robots.txt
    • URL enviado marcado como 'noindex'
    • O URL enviado parece ser um soft 404
    • URL enviado retornou 401
    • URL enviado não encontrado (404)
    • URL enviado retornou 403
    • URL enviado bloqueado devido a outro problema 4xx

    O relatório GSC também mostra quantas páginas foram afetadas por cada erro ao lado do status de validação.

    Como fazer isso

    Veja como você pode acessar o relatório de estatísticas GSC Crawl para o seu site ou página da web:

    1. Para usar o GSC, você precisa se inscrever .
    1. Em seguida, você precisará provar que você possui o site que deseja adicionar ao GSC. Isso pode ser feito adicionando o que o Google chama de "propriedade". Uma propriedade é qualquer coisa que precisa ser examinada no GSC. Pode ser uma única página ou um site inteiro.
    1. Para verificar a propriedade do site, selecione Open GSC, navegue até seletor de propriedades e clique em "Adicionar nova propriedade" no seletor da propriedade.
    1. Você verá uma lista de métodos de verificação que permitirão verificar sua propriedade do site/página.

    Estes incluem:

    • Upload de arquivo html
    • Tag html
    • Código de rastreamento do Google Analytics
    • Google Tag Manager
    • Provedor de nomes de domínio
    • Sites do Google, blogger ou conta de domínio.
    1. Selecione seu método de verificação. Depois que sua propriedade for verificada, ela aparecerá no GSC e você poderá visualizar análises detalhadas para o seu orçamento e atividade de rastreamento.

    Otimize o orçamento de rastreamento 

    Agora sabemos que o orçamento do CRAWL é um recurso valioso cujo uso deve ser otimizado para obter melhores resultados. Aqui estão algumas técnicas para fazer isso:

    1. Corrija o conteúdo duplicado

    O conteúdo duplicado pode acabar se arrastando separadamente, levando a um desperdício de orçamento de rastreamento. Para evitar que isso aconteça, consolide páginas duplicadas em seu site em um ou exclua páginas duplicadas.

    2. Use robots.txt

    Robots.txt é um arquivo que serve a vários propósitos, um dos quais é dizer ao Googlebot para não rastejar certas páginas ou seções das páginas. Essa é uma estratégia importante que pode ser usada para impedir que o Googlebot rasteja conteúdo ou conteúdo de baixo valor que não precisa de rastreamento.

    Aqui estão algumas práticas recomendadas ao usar robots.txt para otimizar o orçamento de rastreamento:

    • Atribua prioridade aos parâmetros que precisam ser bloqueados de rastejar em sua ordem de preferência.
    • Especifique robôs, diretivas e parâmetros que estão causando rastreamento adicional usando arquivos de log.
    • Bloqueie caminhos comuns que os CMS normalmente possuem, como 404, admin, páginas de login, etc.

    Como fazer isso

    Criar e executar um arquivo robots.txt para restringir o acesso do Googlebot requer algum conhecimento de codificação. Aqui estão as etapas envolvidas:

    1. Um arquivo robots.txt é criado usando um editor de texto como um bloco de notas. O arquivo precisa ser nomeado robots.txt para que o Googlebot o reconheça.
    1. Depois que um arquivo foi criado, adicionamos regras a ele, ou seja, especificamos um conjunto de instruções informando ao arquivo para bloquear o acesso a certos agentes sob condições específicas.

    Um arquivo típico robots.txt terá os seguintes elementos:

    • Um agente de usuário, como o Googlebot, para o qual o acesso deve ser negado
    • Um não permitir ou permitir a entrada, especificando um arquivo ou diretório para o qual o acesso deve ser restrito para o agente do usuário
    • Um sitemap para dizer ao Google com qual conteúdo ele deve rastejar.

    Abaixo está como é um arquivo robots.txt simples.

    Use robots.txt

    Fonte 

    Este código significa que um agente do usuário - Googlebot nesta instância - não tem permissão para rastejar nenhum URL que começa com " http://www.example.com/nogooglebot/ ".

    1. Depois que seu arquivo for criado e salvo em sua máquina local, ele precisa ser carregado no seu site. Fazer isso depende do seu servidor e do seu provedor de hospedagem. Você precisará entrar em contato com seu provedor para verificar as etapas exatas para isso.

    Sugerimos procurar ajuda especializada se você não se sentir confortável em criar e fazer upload de arquivos robots.txt.

    3. Segmento XML Sitemaps

    Um bot de rastreamento chega a um site com uma alocação geral de quantas páginas irá rastrear. O mapa do site XML direciona efetivamente o bot para ler URLs selecionados, garantindo o uso eficaz desse orçamento.

    Observe que o desempenho da classificação de uma página depende de vários fatores, incluindo qualidade do conteúdo e links internos/externos. Considere incluir apenas as páginas de nível superior no mapa. As imagens podem receber seu próprio mapa do site XML.

    Siga estas recomendações para garantir a implementação ideal do sitemap XML:

    • Faça referência ao mapa do site XML do arquivo robots.txt.
    • Crie vários sitemaps para um site muito grande. Não adicione mais de 50.000 URLs a um único sitemap XML.
    • Mantenha-o limpo e inclua apenas páginas indexáveis.
    • Mantenha o mapa do site XML atualizado.
    • Mantenha o tamanho do arquivo inferior a 50 MB.

    Para uma análise mais detalhada dos sitemaps, consulte o nosso módulo dedicado neste tópico .

    4. Implemente uma estratégia de vinculação interna eficiente

    Os links internos desempenham três funções importantes:

    • Organizando o conteúdo em torno dos temas, o que ajuda a construir a autoridade tópica.
    • Espalhar o patrimônio líquido entre páginas de alto valor para outras páginas.
    • Ajudando os usuários e os rastreadores da web a navegar mais facilmente no site.

    Assim, para rastejamento eficiente, é importante implementar uma estratégia de vinculação interna eficiente. Para saber mais sobre a ligação interna, consulte o nosso módulo de curso detalhado aqui.

    5. Hospedagem de atualização

    Se um site for executado em uma plataforma de hospedagem compartilhada, o Crawl Budget será compartilhado com outros sites em execução na plataforma referida. Um grande editor pode achar que a hospedagem independente é uma alternativa valiosa.

    Antes de atualizar sua hospedagem para resolver a sobrecarga de tráfego de bot, há alguns fatores que valem a pena considerar que podem afetar as cargas do servidor.

    • Processar imagens usando uma rede de distribuição de conteúdo separada (CDN) que também é otimizada para hospedar formatos de imagem da próxima geração, como o WebP.
    • Considere hospedar CPU, espaço em disco com base na função e nos requisitos do seu site.
    • Monitore a atividade usando soluções como a nova relíquia para monitorar o uso excessivo de plugins e bots.

    Para saber mais sobre as vantagens dos CDNs, consulte o módulo de experiência da página .

    6. Use JavaScript criteriosamente

    Quando o Googlebot acessa uma página da web, ele renderiza todos os ativos da página, incluindo Javascript. Embora o rastreamento de HTML seja bastante simples, o Googlebot deve processar o Javascript várias vezes para poder renderizá-lo e compreender seu conteúdo.

    Isso pode esgotar rapidamente o orçamento de rastreamento do Google para um site. A solução é implementar a renderização Javascript no lado do servidor.

    Como fazer isso

    Abordar o JavaScript no código -fonte do seu site requer experiência em codificação e recomendamos consultar um desenvolvedor da Web se você planeja fazer essas alterações. Dito isto, aqui estão algumas diretrizes sobre o que procurar ao tentar otimizar o uso do JavaScript.

    • Evite enviar ativos JavaScript ao cliente para renderizar, para que os rastreamentos não gastem seus recursos e possam trabalhar com mais eficiência
    • Use o carregamento preguiçoso no nível do navegador, em vez de ser baseado em JavaScript.
    • Use a marcação lateral do servidor para análise e marcação de terceiros, auto-hospedada ou usando soluções como Stape.io.

    7. Monitore CWVS

    Os CWVs são uma medida do desempenho da página que afeta diretamente o desempenho da sua página no ranking de pesquisa.

    O relatório CWV do GSC agrupa o desempenho da URL em três categorias:

    • Tipo de métrica (LCP, FID e CLS)
    • Status
    • Grupos de URLs

    Os CWVs também podem afetar seu orçamento de rastreamento. Por exemplo, as páginas de carregamento lento podem consumir seu orçamento de rastreamento, pois o Google tem um período limitado de tempo para tarefas de rastejamento. Se suas páginas carregarem rapidamente, o Google poderá rastejar mais delas dentro do tempo limitado. Da mesma forma, muitos relatórios de status de erro podem desacelerar e desperdiçar seu orçamento de rastreamento.

    Para um exame mais completo dos CWVs, consulte nosso módulo na experiência da página .

    8. Use um rastreador de terceiros

    Um rastreador de terceiros, como Semrush , Sitechecker.pro ou Screaming Frog, permite que os desenvolvedores da Web auditem todos os URLs de um site e identifiquem possíveis problemas.

    Os rastreadores de terceiros podem ser usados para identificar:

    • Links quebrados
    • Conteúdo duplicado
    • Títulos de páginas ausentes

    Esses programas oferecem um relatório de estatísticas de rastreamento para ajudar a destacar problemas que as próprias ferramentas do Google não conseguem.

    Melhorar os dados estruturados e reduzir os problemas de higiene irá agilizar o trabalho do Googlebot de rastrear e indexar um site.

    Recomendamos as seguintes práticas recomendadas ao usar rastreadores de terceiros:

    • Emule o Googlebot, por meio das configurações de rastreamento de pesquisa, para evitar o bloqueio de provedores de hospedagem e para identificar e corrigir adequadamente todos os problemas técnicos.
    • Debug ausente páginas de um rastreamento usando este ótimo guia de Screaming Frog .

    9. Monitore os parâmetros da URL

    Parâmetros de URL — a seção do endereço da web que segue o “?” — são usados ​​em uma página por vários motivos, incluindo filtragem, paginação e pesquisa.

    Embora isso possa melhorar a experiência do usuário, também pode causar problemas de rastreamento quando o URL base e outro com parâmetros retornam o mesmo conteúdo. Um exemplo disso seria “http://mysite.com” e “http://mysite.com?id=3” retornando exatamente a mesma página.

    Os parâmetros permitem que um site tenha um número quase ilimitado de links – como quando um usuário pode selecionar dias, meses e anos em um calendário. Se o bot tiver permissão para rastrear essas páginas, o orçamento de rastreamento será usado desnecessariamente.

    Isso pode ser especialmente um problema de preocupação se o seu site usar identificadores de navegação ou sessão facetados que podem gerar várias páginas duplicadas que, se rastreadas, podem levar a um desperdício de orçamento de rastreamento.

    Os URLs duplicados também podem resultar se você tiver versões localizadas da sua página da Web em diferentes idiomas, e o conteúdo dessas páginas não foi traduzido.

    Recomendamos o seguinte para abordar isso:

    • Use robots.txt para proibir o Googlebot de páginas duplicadas em rastejamento.
    • Use o<hreflang> Tag para especificar as variações do idioma do conteúdo. A guia Hreflang diz ao rastreador que a página é uma variação regional do conteúdo principal, impedindo assim o rastreador de registrá -lo como uma duplicata, caso ainda não tenha sido traduzido.

    Aqui está como um simples<hreflang> parece em seu código -fonte:

    https://examplesite.com/news/hreflang-tags "/>

    Isso diz ao rastreador que o URL especificado é uma variante espanhola (mexicana) do URL principal e não deve ser tratado como uma duplicata.

    2.6.5 É bom ter

    Discutimos os itens essenciais da gestão do orçamento de rastreamento. Os ponteiros listados nesta seção, embora não sejam críticos para o gerenciamento de orçamento de rastreamento saudável, ajudam bastante a complementar as técnicas discutidas anteriormente.

    Lidar com emergências rastejantes

    Uma emergência de rastreamento ocorre quando o Googlebot sobrecarrega seu site com mais solicitações de rastreamento do que pode lidar. É importante identificar o problema o mais rápido possível, o que pode ser feito monitorando de perto os logs do servidor e as estatísticas de rastreamento no console de pesquisa do Google.

    Se um aumento repentino no rastreamento não for gerenciado a tempo, isso pode fazer com que o servidor diminua a velocidade. A desaceleração do servidor aumentaria o tempo médio de resposta para os rastreadores e, como resultado desse alto tempo de resposta, os mecanismos de pesquisa reduzirão automaticamente sua taxa de rastreamento. Isso é problemático porque as taxas reduzidas de rastreamento levarão a uma perda de visibilidade, com novos artigos não sendo rastejados imediatamente.

    Se você perceber o rastreamento está taxando seus servidores, aqui algumas coisas que você pode fazer:

    1. Limite a taxa de rastreamento

    O Google possui algoritmos sofisticados que controlam a taxa de rastreamento. Então, idealmente, não se deve adulterar a taxa de rastreamento. No entanto, em uma situação de emergência, você pode fazer login na sua conta GSC e navegar para as configurações de taxa de rastreamento para sua propriedade.

    Se você vir a taxa de rastreamento ali calculada como ideal, não poderá alterá -la manualmente. Uma solicitação especial precisa ser apresentada ao Google para alterar a taxa de rastreamento.

    Se não for esse o caso, você pode simplesmente alterar a rastreamento de rastreamento para o valor desejado. Este valor permanecerá válido por 90 dias.

    Se você não deseja adulterar as taxas de rastreamento no GSC, também pode bloquear o acesso à página pelo GoogleBot usando robots.txt. O procedimento para fazer isso foi explicado anteriormente.

    2. Verifique a taxa de rastreamento do site

    Pode levar o Google até três dias para rastrear a maioria dos sites. As únicas exceções são sites de notícias ou outros sites que publicam conteúdo sensível ao tempo que podem ser rastreados diariamente.

    Para verificar com que frequência suas páginas estão sendo rastejadas, monitore o log do seu site. Se você ainda acha que seu conteúdo não está sendo rastreado com tanta frequência quanto deveria, siga estas etapas:

    • Envie seu sitemap de notícias atualizado para o Google. Um sitemap de notícias é um sitemap criado especificamente a partir do Google News.
    • Se você fez alguma alteração no seu sitemap de notícias, use a ferramenta de ping para informar o Google do mesmo, isso pode ser feito enviando uma solicitação GET da sua linha de comando ou do seu navegador para o seguinte endereço:

    https://www.google.com/ping?sitemap=full_url_of_sitemap

    • Use o<lastmod> Tag em sitemaps para mostrar quando um URL indexado foi atualizado ou modificado pela última vez.

    3. Retorne um código de erro 503 ou 429

    Observação: esta etapa deve ser vista como a última ação que alguém deve tomar, pois carrega um certo grau de risco. Se o Googlebot vencer os erros 503 e 429, ele começará a rastejar mais devagar e poderá interromper o rastreamento, levando a uma queda temporária no número de páginas indexadas.

    Um código de erro 503 significa que o servidor está temporariamente inativo, enquanto 429 significa que um usuário enviou muitas solicitações em um período específico de tempo. Esses códigos informam ao Googlebot que o problema é temporário e deve retornar a rastejar a página posteriormente.

    Embora um passo aparentemente menor, isso é importante porque, se o Googlebot não conhece a natureza do problema que uma página da web está enfrentando, ele pressupõe que o problema seja de natureza de longo prazo e pode marcar a página como não respondendo, o que pode afetar o SEO.

    A criação de códigos de erro 503 é feita através de um arquivo php, que é inserido no código -fonte HTML existente da sua página, juntamente com uma mensagem de erro. Você também precisará escrever algumas linhas adicionais de código HTML mencionando quando o site deverá retornar.

    É assim que o código para um redirecionamento 503 se parece:

    Retornar um código de erro 503 ou 429

    Fonte

    Fazer 503 ou 429 redirecionamentos requer habilidades avançadas de codificação HTML e sugerimos consultar o seu desenvolvedor da Web antes de tentar isso.

    2.6.6 Evite essas armadilhas comuns

    Agora temos um bom entendimento do que é um orçamento de rastreamento e como otimizá -lo. No entanto, saber o que não fazer quando se trata de rastrear orçamentos é igualmente importante.

    Aqui estão algumas armadilhas comuns a serem evitadas para garantir que você aproveite ao máximo o orçamento de rastreamento do seu site:

    Tentando aumentar a taxa de rastreamento sem um bom motivo

    A frequência com que o Google rasteja seu site é determinada por seus algoritmos, que levam em consideração vários sinais para chegar a uma frequência ideal de rastreamento.

    Aumentar a taxa de rastreamento não leva necessariamente a melhores posições nos resultados da pesquisa. A frequência de rastreamento ou mesmo rastejando em si não é um fator de classificação por si só.

    Enviando repetidamente conteúdo antigo para rastejar 

    O Google não prefere necessariamente conteúdo mais fresco ao conteúdo mais antigo. O Google classifica as páginas com base na relevância e na qualidade do conteúdo, independentemente de ser antigo ou novo. Portanto, não é necessário continuar com eles rastejados.

    Usando a diretiva CRAWL-DELAY para controlar o Googlebot

    A diretiva de crawl-deLay não ajuda a controlar o Googlebot. Se você deseja desacelerar a frequência de rastreamento em resposta a rastreamento excessivo que está sobrecarregando seu site, consulte as instruções fornecidas na seção acima.

    Tendo um site de carregamento lento

    A velocidade de carregamento do seu site pode afetar seu orçamento de rastreamento. Uma página de carregamento rápido significa que o Google pode acessar mais informações sobre o mesmo número de conexões.

    Para obter dicas sobre a otimização da velocidade de carregamento, consulte nosso módulo na experiência da página .

    Usando apenas links nofollow para bloquear os rastreadores

    Os links nofollow ainda podem acabar afetando seu orçamento de rastreamento, pois ainda podem acabar sendo rastreados. Por outro lado, links que o robots.txt não permitiu não ter efeito no orçamento de rastreamento.

    Além disso, URLs alternativos e conteúdo de JavaScript podem acabar sendo rastejados, consumindo seu orçamento de rastreamento, por isso é importante restringir o acesso a eles removendo -os ou usando robots.txt.

    2.6.7 Ações e sugestões

    O orçamento de rastreamento é um recurso valioso e é fundamental que você otimize para ele. Os problemas de rastreamento e indexação podem afetar o desempenho do seu conteúdo, especialmente se o seu site tiver um grande número de páginas.

    As duas operações mais fundamentais envolvidas na otimização do orçamento de rastreamento estão mantendo seu sitemap atualizado e monitorando regularmente os problemas de indexação do relatório de estatísticas do GSC Crawl e arquivos de log.

    É importante aprender a aplicar as melhores práticas de gerenciamento de rastreamento durante a implantação de novos recursos do site e também quando os erros pontuais acontecem.

    Módulo Anterior
    Voltar ao capítulo
    Próximo Módulo

    Ativo agora

    6

    Velocidade e frequência de rastreamento

    Ver mais

    1

    Design e Layout

    2

    Arquitetura do Site

    3

    Experiência de página

    4

    Mapa do site de notícias

    5

    Esquema

    7

    Links para conteúdo patrocinado e gerado pelo usuário

    8

    Central do Editor do Google

    9

    PubHub de Notícias do Bing

    10

    Anúncios, pop-ups e práticas recomendadas

    SODP logo

    State of Digital Publishing está criando uma nova publicação e comunidade para mídia digital e profissionais de publicação, em novas mídias e tecnologias.

    • Principais ferramentas
    • SEO para editores
    • Política de Privacidade
    • Política editorial
    • Mapa do site
    • Pesquise por empresa
    Facebook Twitter X Folga Linkedin

    ESTADO DA PUBLICAÇÃO DIGITAL – COPYRIGHT 2025