Home / Nosso Blog
Leve seu marketing digital para o próximo nível com estratégias baseadas em dados e soluções inovadoras. Vamos criar algo incrível juntos!
Acompanhe semanalmente nosso canal no youtube com vídeos de marketing e performance e se inscreva-se

Perguntaram a John Mueller, do Google, quantos megabytes de HTML o Googlebot rastreia por página. A questão era se o Googlebot indexava dois megabytes (MB) ou quinze megabytes de dados. A resposta de Mueller minimizou o aspecto técnico da questão e foi direto ao cerne da questão, que é realmente sobre quanto conteúdo é indexado.
No meio de uma discussão contínua no Bluesky, alguém reviveu a questão sobre se o Googlebot rastreia e indexa 2 ou 15 megabytes de dados.
Eles postado:
“Espero que você tenha conseguido o que o fez fugir 🙂
Seria muito útil ter mais precisões e exemplos da vida real como “Minha página tem X Mb de comprimento, é cortada depois de X Mb, também carrega o recurso A: 15Kb, o recurso B: 3Mb, o recurso B não está totalmente carregado, mas o recurso A é porque 15Kb <2Mb”.
Mueller disse que não é necessário pesar bytes e deu a entender que o que é importante não é restringir quantos bytes há em uma página, mas sim se passagens importantes são indexadas ou não.
Além disso, Mueller disse que é raro um site exceder dois megabytes de HTML, descartando a ideia de que é possível que o conteúdo de um site não seja indexado por ser muito grande.
Ele também disse que o Googlebot não é o único bot que rastreia uma página da web, aparentemente para explicar por que 2 megabytes e 15 megabytes não são fatores limitantes. Google publica um lista de todos os rastreadores eles usam para vários fins.
Por último, a resposta de Mueller confirmou uma forma simples de verificar se passagens importantes estão ou não indexadas.
Mueller respondido:
“O Google tem muitos rastreadores, e é por isso que o dividimos. É extremamente raro que os sites tenham problemas nesse sentido. 2 MB de HTML (para aqueles que se concentram no Googlebot) é um pouco. A forma como costumo verificar é procurar uma citação importante mais abaixo em uma página. Geralmente, não há necessidade de pesar bytes.”
As pessoas têm pouca capacidade de concentração, exceto quando estão lendo sobre um assunto pelo qual são apaixonadas. É aí que um artigo abrangente pode ser útil para aqueles leitores que realmente desejam se aprofundar para saber mais.
Do ponto de vista de SEO, posso entender por que alguns podem achar que um artigo abrangente pode não ser ideal para classificação se um documento fornecer uma cobertura profunda de vários tópicos, qualquer um dos quais poderia ser um artigo independente.
Um editor ou SEO precisa dar um passo atrás e avaliar se um usuário está satisfeito com a cobertura profunda de um tópico ou se os usuários precisam de um tratamento mais profundo dele. Existem também diferentes níveis de abrangência, um com detalhes granulares e outro com um nível geral de cobertura de detalhes, com links para uma cobertura mais profunda.
Em outras palavras, às vezes os usuários exigem uma visão da floresta e outras vezes, das árvores.
Há muito tempo, o Google consegue classificar passagens de documentos com seus classificação de passagens algoritmos. Em última análise, na minha opinião, tudo se resume ao que é útil para os usuários e que provavelmente resultará em um nível mais alto de satisfação do usuário.
Se a cobertura abrangente do tópico entusiasma as pessoas e as deixa apaixonadas o suficiente para compartilhá-lo com outras pessoas, então isso é uma vitória.
Se uma cobertura abrangente não for útil para esse tópico específico, talvez seja melhor dividir o conteúdo em uma cobertura mais curta que se alinhe melhor com os motivos pelos quais as pessoas acessam aquela página para ler sobre esse tópico.
Embora a maioria dessas conclusões não esteja representada na resposta de Mueller, na minha opinião elas representam boas práticas para SEO.
A preocupação sobre quantos megabytes são um limite rígido de rastreamento para o Googlebot reflete a incerteza sobre se o conteúdo importante em um documento longo está sendo indexado e disponível para classificação na pesquisa. Focar em megabytes desvia a atenção dos problemas reais nos quais os SEOs deveriam se concentrar, que é se a profundidade da cobertura do tópico atende melhor às necessidades do usuário.
A resposta de Mueller reforça o ponto de que páginas da web grandes demais para serem indexadas são incomuns e que limites fixos de bytes não são uma restrição com a qual os SEOs devam se preocupar.
Na minha opinião, SEOs e editores provavelmente terão melhor cobertura de pesquisa, desviando seu foco da otimização para limites de rastreamento assumidos e, em vez disso, concentrando-se nos limites de consumo de conteúdo do usuário.
Mas se um editor ou SEO estiver preocupado se uma passagem próxima ao final de um documento está indexada, existe uma maneira fácil de verificar o status simplesmente pesquisando uma correspondência exata para essa passagem.
A cobertura abrangente de tópicos não é automaticamente um problema de classificação e nem sempre é a melhor (ou pior) abordagem. O tamanho do HTML não é realmente uma preocupação, a menos que comece a afetar a velocidade da página. O que importa é se o conteúdo é claro, relevante e útil para o público-alvo nos níveis precisos de granularidade que atendem aos propósitos do usuário.
Imagem em destaque por Shutterstock/Krakenimages.com
”Negócio desatualizado ele não está apenas perdendo dinheiro, mas está perdendo a chance de fazer a diferença ao mundo”
Produtor
Fale agora com um especialista da Atualizex e receba uma análise estratégica personalizada para o seu negócio.
Falar com Especialista no WhatsApp