Os dados do GSC estão 75% incompletos

Home / Nosso Blog

Transforme seu negócio com a Atualizex

Leve seu marketing digital para o próximo nível com estratégias baseadas em dados e soluções inovadoras. Vamos criar algo incrível juntos!

[home_atualizex]

Siga nosso Canal

Acompanhe semanalmente nosso canal no youtube com vídeos de marketing e performance e se inscreva-se

[wp_social_ninja id="389" platform="youtube"]

Os dados do GSC estão 75% incompletos


Aumente suas habilidades com os insights semanais de especialistas do Growth Memo. Assine gratuitamente!

Minhas descobertas desta semana mostram que os dados do Google Search Console estão cerca de 75% incompletos, tornando as decisões do GSC de fonte única perigosamente não confiáveis.

O Google filtra 3/4 das impressões de pesquisa em busca de “privacidade”, enquanto a inflação de bots e AIOs corrompem o que resta. (Crédito da imagem: Kevin Indig)

1. GSC costumava ser uma verdade fundamental

Os dados do Search Console costumavam ser a representação mais precisa do que acontece nos resultados da pesquisa. Mas a amostragem de privacidade, as impressões infladas por bots e a distorção da Visão Geral da IA ​​(AIO) sugam a confiabilidade dos dados.

Sem entender como seus dados são filtrados e distorcidos, você corre o risco de tirar conclusões erradas dos dados do GSC.

Os dados de SEO estão em um longo caminho para se tornarem menos confiáveis, começando com o Google eliminando o referenciador de palavras-chave e excluindo recursos SERP críticos dos resultados de desempenho. Mas três eventos importantes nos últimos 12 meses completaram tudo:

  • Janeiro de 2025: O Google implanta o “SearchGuard”, que exige JavaScript e CAPTCHA (sofisticado) para quem olha os resultados da pesquisa (Aconteceo Google usa muitos sinais avançados para diferenciar humanos de raspadores).
  • Março de 2025: Google significativamente aumenta o número de visões gerais de IA nas SERPs. Estamos observando um aumento significativo nas impressões e uma queda nos cliques.
  • Setembro de 2025: Google remove Parâmetro num=100, que os scrapers SERP usam para analisar os resultados da pesquisa. O pico de impressões se normaliza, os cliques permanecem baixos.

Por um lado, o Google tomou medidas para limpar os dados do GSC. Por outro lado, os dados ainda nos deixam mais perguntas abertas do que respostas.

2. Amostragem de privacidade oculta 75% das consultas

O Google filtra uma quantidade significativa de impressões (e cliques) por motivos de “privacidade”. Há um ano, Patrick Stox analisou um grande conjunto de dados e chegou à conclusão de que quase 50% são filtrados.

Repeti a análise (10 sites B2B fora dos EUA) em aproximadamente 4 milhões de cliques e aproximadamente 450 milhões de impressões.

Metodologia:

  • O Google Search Console (GSC) fornece dados por meio de dois endpoints de API que revelam seu comportamento de filtragem. A consulta agregada (sem dimensões) retorna o total de cliques e impressões, incluindo todos os dados. A consulta em nível de consulta (com dimensão “consulta”) retorna apenas consultas que atendem ao limite de privacidade do Google.
  • Comparando esses dois números, você pode calcular a taxa de filtragem.
  • Por exemplo, se os dados agregados mostrarem 4.205 cliques, mas os dados em nível de consulta mostrarem apenas 1.937 cliques visíveis, o Google filtrou 2.268 cliques (53,94%).
  • Analisei 10 sites SaaS B2B (~4 milhões de cliques, ~450 milhões de impressões), comparando períodos de 30 dias, 90 dias e 12 meses com a mesma análise dos 12 meses anteriores.

Minha conclusão:

1. O Google filtra cerca de 75% das impressões.

Crédito da imagem: Kevin Indig
  • A taxa de filtragem de impressões é incrivelmente alta, com três quartos filtrados para privacidade.
  • Há 12 meses, a taxa era apenas 2 pontos percentuais superior.
  • A faixa que observei foi de 59,3% até 93,6%.
Crédito da imagem: Kevin Indig

2. O Google filtra cerca de 38% dos cliques, mas cerca de 5% menos do que há 12 meses.

Crédito da imagem: Kevin Indig
  • A filtragem de cliques não é algo sobre o qual falamos muito, mas parece que o Google não relata até um terço de todos os cliques ocorridos.
  • Há 12 meses, o Google filtrou mais de 40% dos cliques.
  • A faixa de filtragem varia de 6,7% a 88,5%!
Crédito da imagem: Kevin Indig

A boa notícia é que a taxa de filtragem caiu ligeiramente nos últimos 12 meses, provavelmente como resultado de menos “impressões de bot”.

A má notícia: o problema central persiste. Mesmo com essas melhorias, 38% da filtragem de cliques e 75% da filtragem de impressões permanecem catastroficamente altos. Uma melhoria de 5% não torna as decisões de GSC de fonte única confiáveis ​​quando faltam três quartos dos seus dados de impressão.

3. As impressões de 2025 estão altamente inflacionadas

Crédito da imagem: Kevin Indig

Os últimos 12 meses mostram uma montanha-russa de dados do GSC:

  • Em março de 2025, o Google intensificou a implementação de AIOs e apresentou 58% a mais para os sites que analisei.
  • Em julho, as impressões cresceram 25,3% e mais 54,6% em agosto. Os scrapers SERP de alguma forma encontraram uma maneira de contornar o SearchGuard (o “bot” de proteção que o Google usa para evitar scrapers SERP) e causaram “impressões de bot” para capturar AIOs.
  • Em setembro, o Google removeu o parâmetro num=100, o que fez com que as impressões caíssem 30,6%.
Crédito da imagem: Kevin Indig

Avançando para hoje:

  • Os cliques diminuíram 56,6% desde março de 2025.
  • As impressões normalizaram (queda de -9,2%).
  • AIOs reduziram 31,3%.

Não consigo chegar a um número causal de redução de cliques de AIOs, mas a correlação é forte: 0,608. Nós sabemos AIOs reduzem cliques (faz sentido lógico), mas não sabemos exatamente quanto. Para descobrir isso, eu teria que medir a CTR das consultas antes e depois do aparecimento de um AIO.

Mas como você sabe que a queda de cliques se deve a um AIO e não apenas à baixa qualidade ou deterioração do conteúdo?

Procure correlação temporal:

  • Acompanhe quando seus cliques caíram em relação ao cronograma de implementação do AIO do Google (aumento de março de 2025). A má qualidade do conteúdo mostra declínio gradual; O impacto do AIO é nítido e específico da consulta.
  • Referência cruzada com dados de posição. Se as classificações permanecerem estáveis ​​enquanto os cliques caem, isso sinaliza a canibalização do AIO. Verifique se as consultas afetadas são informativas (propensas a AIO) ou transacionais (resistentes a AIO). Seu coeficiente de correlação de 0,608 entre a presença de AIO e a redução de cliques apoia esta abordagem de diagnóstico.

4. As impressões de bots estão aumentando

Crédito da imagem: Kevin Indig

Tenho motivos para acreditar que os scrapers SERP estão voltando. Podemos medir a quantidade de impressões provavelmente causadas por bots filtrando os dados do GSC por consultas que contêm mais de 10 palavras e duas impressões. A chance de uma consulta tão longa (prompt) ser usada duas vezes por um ser humano é próxima de zero.

A lógica das impressões do bot:

  • Hipótese: Os humanos raramente pesquisam exatamente a mesma consulta de mais de 5 palavras duas vezes em uma janela curta.
  • Filtro: Identifique consultas com mais de 10 palavras que tenham >1 impressão, mas nenhum clique.
  • Advertência: Este método pode capturar algumas consultas legítimas sem clique, mas fornece uma estimativa direcional da atividade do bot.

Comparei essas consultas nos últimos 30, 90 e 180 dias:

  • As consultas com +10 palavras e +1 impressão cresceram 25% nos últimos 180 dias.
  • A faixa de impressões de bot varia de 0,2% a 6,5% (últimos 30 dias).

Aqui está o que você pode prever como uma porcentagem “normal” de impressões de bot para um site SaaS típico:

  • Com base no conjunto de dados B2B de 10 sites, as impressões de bot variam de 0,2% a 6,5% ao longo de 30 dias, com consultas contendo mais de 10 palavras e mais de 2 impressões, mas 0 cliques.
  • Especificamente para SaaS, espere uma linha de base de 1-3% para impressões de bot. Sites com documentação extensa, guias técnicos ou páginas programáticas de SEO tendem a aumentar (4-6%).
  • O crescimento de 25% em 180 dias sugere que os scrapers estão se adaptando após o SearchGuard. Monitore sua posição percentual dentro dessa faixa mais do que o número absoluto.

As impressões do bot não afetam suas classificações reais – apenas seus relatórios, aumentando a contagem de impressões. O impacto prático? Recursos mal alocados se você otimizar consultas de impressão infladas que os humanos nunca pesquisam.

5. A camada de medição está quebrada

Decisões de fonte única baseadas apenas em dados do GSC tornam-se perigosas:

  • Três quartos das impressões são filtrados.
  • As impressões do bot geram até 6,5% dos dados.
  • AIOs reduzem os cliques em mais de 50%.
  • O comportamento do usuário está mudando estruturalmente.

Sua oportunidade está na metodologia: equipes que constroem estruturas de medição robustas (scripts de taxa de amostragem, cálculos de compartilhamento de bots, triangulação de múltiplas fontes) têm uma vantagem competitiva.


Imagem destacada: Paulo Bobita/Search Engine Journal



Fonte

Compartilhe nas Redes Sociais

Facebook
Twitter
LinkedIn
Threads
Telegram
WhatsApp
Reddit
X
Email
Print
Tumblr

”Negócio desatualizado ele não está apenas perdendo dinheiro, mas está perdendo a chance de fazer a diferença ao mundo”

Atualizex Marketing e Performance

Produtor

WeCreativez WhatsApp Support
Nossa equipe de suporte ao cliente está aqui para responder às suas perguntas. Pergunte-nos o que quiser!
👋 Olá, como posso ajudar?