Google mostra como verificar a indexação de passagens
Perguntaram a John Mueller, do Google, quantos megabytes de HTML o Googlebot rastreia por página. A questão era se o Googlebot indexava dois megabytes (MB) ou quinze megabytes de dados. A resposta de Mueller minimizou o aspecto técnico da questão e foi direto ao cerne da questão, que é realmente sobre quanto conteúdo é indexado.
GoogleBot e outros bots
No meio de uma discussão contínua no Bluesky, alguém reviveu a questão sobre se o Googlebot rastreia e indexa 2 ou 15 megabytes de dados.
Eles postaram:
“Espero que você tenha conseguido o que o fez fugir 🙂
Seria muito útil ter mais precisões e exemplos da vida real como “Minha página tem X Mb de comprimento, é cortada depois de X Mb, também carrega o recurso A: 15Kb, o recurso B: 3Mb, o recurso B não está totalmente carregado, mas o recurso A é porque 15Kb <2Mb”.
O pânico sobre o limite de 2 megabytes é exagerado
Mueller disse que não é necessário pesar bytes e deu a entender que o que é importante não é restringir quantos bytes há em uma página, mas sim se passagens importantes são indexadas ou não.
Além disso, Mueller disse que é raro um site exceder dois megabytes de HTML, descartando a ideia de que é possível que o conteúdo de um site não seja indexado por ser muito grande.
Ele também disse que o Googlebot não é o único bot que rastreia uma página da web, aparentemente para explicar por que 2 megabytes e 15 megabytes não são fatores limitantes. O Google publica uma lista de todos os rastreadores que eles usam para diversos fins.
Como verificar se as passagens de conteúdo estão indexadas
Por último, a resposta de Mueller confirmou uma forma simples de verificar se passagens importantes estão ou não indexadas.
Muller respondeu:
“O Google tem muitos rastreadores, e é por isso que o dividimos. É extremamente raro que os sites tenham problemas nesse sentido. 2 MB de HTML (para aqueles que se concentram no Googlebot) é um pouco. A forma como costumo verificar é procurar uma citação importante mais abaixo em uma página. Geralmente, não há necessidade de pesar bytes.”
Passagens para classificação
As pessoas têm pouca capacidade de concentração, exceto quando estão lendo sobre um assunto pelo qual são apaixonadas. É aí que um artigo abrangente pode ser útil para aqueles leitores que realmente desejam se aprofundar para saber mais.
Do ponto de vista de SEO, posso entender por que alguns podem achar que um artigo abrangente pode não ser ideal para classificação se um documento fornecer uma cobertura profunda de vários tópicos, qualquer um dos quais poderia ser um artigo independente.
Um editor ou SEO precisa dar um passo atrás e avaliar se um usuário está satisfeito com a cobertura profunda de um tópico ou se os usuários precisam de um tratamento mais profundo dele. Existem também diferentes níveis de abrangência, um com detalhes granulares e outro com um nível geral de cobertura de detalhes, com links para uma cobertura mais profunda.
Em outras palavras, às vezes os usuários exigem uma visão da floresta e outras vezes, das árvores.
Há muito tempo, o Google consegue classificar passagens de documentos com seus algoritmos de classificação de passagens. Em última análise, na minha opinião, tudo se resume ao que é útil para os usuários e que provavelmente resultará em um nível mais alto de satisfação do usuário.
Se a cobertura abrangente do tópico entusiasma as pessoas e as deixa apaixonadas o suficiente para compartilhá-lo com outras pessoas, então isso é uma vitória.
Se uma cobertura abrangente não for útil para esse tópico específico, talvez seja melhor dividir o conteúdo em uma cobertura mais curta que se alinhe melhor com os motivos pelos quais as pessoas acessam aquela página para ler sobre esse tópico.
Conclusões
Embora a maioria dessas conclusões não esteja representada na resposta de Mueller, na minha opinião elas representam boas práticas para SEO.
- Os limites de tamanho do HTML desmentem a preocupação com questões mais profundas sobre o comprimento do conteúdo e a visibilidade da indexação
- Os limites de megabytes raramente são uma restrição prática para páginas do mundo real
- Contar bytes é menos útil do que verificar se o conteúdo realmente aparece na pesquisa
- Pesquisar passagens distintas é uma forma prática de confirmar a indexação
- A abrangência deve ser orientada pela intenção do usuário, não por suposições de rastreamento
- A utilidade e a clareza do conteúdo são mais importantes do que o tamanho do documento
- A satisfação do usuário continua sendo o fator decisivo no desempenho do conteúdo
A preocupação sobre quantos megabytes são um limite rígido de rastreamento para o Googlebot reflete a incerteza sobre se o conteúdo importante em um documento longo está sendo indexado e disponível para classificação na pesquisa. Focar em megabytes desvia a atenção dos problemas reais nos quais os SEOs deveriam se concentrar, que é se a profundidade da cobertura do tópico atende melhor às necessidades do usuário.
A resposta de Mueller reforça o ponto de que páginas da web grandes demais para serem indexadas são incomuns e que limites fixos de bytes não são uma restrição com a qual os SEOs devam se preocupar.
Na minha opinião, SEOs e editores provavelmente terão melhor cobertura de pesquisa, desviando seu foco da otimização para limites de rastreamento assumidos e, em vez disso, concentrando-se nos limites de consumo de conteúdo do usuário.
Mas se um editor ou SEO estiver preocupado se uma passagem próxima ao final de um documento está indexada, existe uma maneira fácil de verificar o status simplesmente pesquisando uma correspondência exata para essa passagem.
A cobertura abrangente de tópicos não é automaticamente um problema de classificação e nem sempre é a melhor (ou pior) abordagem. O tamanho do HTML não é realmente uma preocupação, a menos que comece a afetar a velocidade da página. O que importa é se o conteúdo é claro, relevante e útil para o público-alvo nos níveis precisos de granularidade que atendem aos propósitos do usuário.
Imagem em destaque por Shutterstock/Krakenimages.com
