Aumente suas habilidades com os insights semanais de especialistas do Growth Memo. Assine gratuitamente!
Minhas descobertas desta semana mostram que os dados do Google Search Console estão cerca de 75% incompletos, tornando as decisões do GSC de fonte única perigosamente não confiáveis.
O Google filtra 3/4 das impressões de pesquisa em busca de “privacidade”, enquanto a inflação de bots e AIOs corrompem o que resta. (Crédito da imagem: Kevin Indig)
1. GSC costumava ser uma verdade fundamental
Os dados do Search Console costumavam ser a representação mais precisa do que acontece nos resultados da pesquisa. Mas a amostragem de privacidade, as impressões infladas por bots e a distorção da Visão Geral da IA (AIO) sugam a confiabilidade dos dados.
Sem entender como seus dados são filtrados e distorcidos, você corre o risco de tirar conclusões erradas dos dados do GSC.
Os dados de SEO estão em um longo caminho para se tornarem menos confiáveis, começando com o Google eliminando o referenciador de palavras-chave e excluindo recursos SERP críticos dos resultados de desempenho. Mas três eventos importantes nos últimos 12 meses completaram tudo:
Janeiro de 2025: O Google implanta o “SearchGuard”, que exige JavaScript e CAPTCHA (sofisticado) para quem olha os resultados da pesquisa (Aconteceo Google usa muitos sinais avançados para diferenciar humanos de raspadores).
Março de 2025: Google significativamente aumenta o número de visões gerais de IA nas SERPs. Estamos observando um aumento significativo nas impressões e uma queda nos cliques.
Setembro de 2025: Google remove Parâmetro num=100, que os scrapers SERP usam para analisar os resultados da pesquisa. O pico de impressões se normaliza, os cliques permanecem baixos.
Por um lado, o Google tomou medidas para limpar os dados do GSC. Por outro lado, os dados ainda nos deixam mais perguntas abertas do que respostas.
2. Amostragem de privacidade oculta 75% das consultas
O Google filtra uma quantidade significativa de impressões (e cliques) por motivos de “privacidade”. Há um ano, Patrick Stox analisou um grande conjunto de dados e chegou à conclusão de que quase 50% são filtrados.
Repeti a análise (10 sites B2B fora dos EUA) em aproximadamente 4 milhões de cliques e aproximadamente 450 milhões de impressões.
Metodologia:
O Google Search Console (GSC) fornece dados por meio de dois endpoints de API que revelam seu comportamento de filtragem. A consulta agregada (sem dimensões) retorna o total de cliques e impressões, incluindo todos os dados. A consulta em nível de consulta (com dimensão “consulta”) retorna apenas consultas que atendem ao limite de privacidade do Google.
Comparando esses dois números, você pode calcular a taxa de filtragem.
Por exemplo, se os dados agregados mostrarem 4.205 cliques, mas os dados em nível de consulta mostrarem apenas 1.937 cliques visíveis, o Google filtrou 2.268 cliques (53,94%).
Analisei 10 sites SaaS B2B (~4 milhões de cliques, ~450 milhões de impressões), comparando períodos de 30 dias, 90 dias e 12 meses com a mesma análise dos 12 meses anteriores.
Minha conclusão:
1. O Google filtra cerca de 75% das impressões.
Crédito da imagem: Kevin Indig
A taxa de filtragem de impressões é incrivelmente alta, com três quartos filtrados para privacidade.
Há 12 meses, a taxa era apenas 2 pontos percentuais superior.
A faixa que observei foi de 59,3% até 93,6%.
Crédito da imagem: Kevin Indig
2. O Google filtra cerca de 38% dos cliques, mas cerca de 5% menos do que há 12 meses.
Crédito da imagem: Kevin Indig
A filtragem de cliques não é algo sobre o qual falamos muito, mas parece que o Google não relata até um terço de todos os cliques ocorridos.
Há 12 meses, o Google filtrou mais de 40% dos cliques.
A faixa de filtragem varia de 6,7% a 88,5%!
Crédito da imagem: Kevin Indig
A boa notícia é que a taxa de filtragem caiu ligeiramente nos últimos 12 meses, provavelmente como resultado de menos “impressões de bot”.
A má notícia: o problema central persiste. Mesmo com essas melhorias, 38% da filtragem de cliques e 75% da filtragem de impressões permanecem catastroficamente altos. Uma melhoria de 5% não torna as decisões de GSC de fonte única confiáveis quando faltam três quartos dos seus dados de impressão.
3. As impressões de 2025 estão altamente inflacionadas
Crédito da imagem: Kevin Indig
Os últimos 12 meses mostram uma montanha-russa de dados do GSC:
Em março de 2025, o Google intensificou a implementação de AIOs e apresentou 58% a mais para os sites que analisei.
Em julho, as impressões cresceram 25,3% e mais 54,6% em agosto. Os scrapers SERP de alguma forma encontraram uma maneira de contornar o SearchGuard (o “bot” de proteção que o Google usa para evitar scrapers SERP) e causaram “impressões de bot” para capturar AIOs.
Em setembro, o Google removeu o parâmetro num=100, o que fez com que as impressões caíssem 30,6%.
Crédito da imagem: Kevin Indig
Avançando para hoje:
Os cliques diminuíram 56,6% desde março de 2025.
As impressões normalizaram (queda de -9,2%).
AIOs reduziram 31,3%.
Não consigo chegar a um número causal de redução de cliques de AIOs, mas a correlação é forte: 0,608. Nós sabemos AIOs reduzem cliques (faz sentido lógico), mas não sabemos exatamente quanto. Para descobrir isso, eu teria que medir a CTR das consultas antes e depois do aparecimento de um AIO.
Mas como você sabe que a queda de cliques se deve a um AIO e não apenas à baixa qualidade ou deterioração do conteúdo?
Procure correlação temporal:
Acompanhe quando seus cliques caíram em relação ao cronograma de implementação do AIO do Google (aumento de março de 2025). A má qualidade do conteúdo mostra declínio gradual; O impacto do AIO é nítido e específico da consulta.
Referência cruzada com dados de posição. Se as classificações permanecerem estáveis enquanto os cliques caem, isso sinaliza a canibalização do AIO. Verifique se as consultas afetadas são informativas (propensas a AIO) ou transacionais (resistentes a AIO). Seu coeficiente de correlação de 0,608 entre a presença de AIO e a redução de cliques apoia esta abordagem de diagnóstico.
4. As impressões de bots estão aumentando
Crédito da imagem: Kevin Indig
Tenho motivos para acreditar que os scrapers SERP estão voltando. Podemos medir a quantidade de impressões provavelmente causadas por bots filtrando os dados do GSC por consultas que contêm mais de 10 palavras e duas impressões. A chance de uma consulta tão longa (prompt) ser usada duas vezes por um ser humano é próxima de zero.
A lógica das impressões do bot:
Hipótese: Os humanos raramente pesquisam exatamente a mesma consulta de mais de 5 palavras duas vezes em uma janela curta.
Filtro: Identifique consultas com mais de 10 palavras que tenham >1 impressão, mas nenhum clique.
Advertência: Este método pode capturar algumas consultas legítimas sem clique, mas fornece uma estimativa direcional da atividade do bot.
Comparei essas consultas nos últimos 30, 90 e 180 dias:
As consultas com +10 palavras e +1 impressão cresceram 25% nos últimos 180 dias.
A faixa de impressões de bot varia de 0,2% a 6,5% (últimos 30 dias).
Aqui está o que você pode prever como uma porcentagem “normal” de impressões de bot para um site SaaS típico:
Com base no conjunto de dados B2B de 10 sites, as impressões de bot variam de 0,2% a 6,5% ao longo de 30 dias, com consultas contendo mais de 10 palavras e mais de 2 impressões, mas 0 cliques.
Especificamente para SaaS, espere uma linha de base de 1-3% para impressões de bot. Sites com documentação extensa, guias técnicos ou páginas programáticas de SEO tendem a aumentar (4-6%).
O crescimento de 25% em 180 dias sugere que os scrapers estão se adaptando após o SearchGuard. Monitore sua posição percentual dentro dessa faixa mais do que o número absoluto.
As impressões do bot não afetam suas classificações reais – apenas seus relatórios, aumentando a contagem de impressões. O impacto prático? Recursos mal alocados se você otimizar consultas de impressão infladas que os humanos nunca pesquisam.
5. A camada de medição está quebrada
Decisões de fonte única baseadas apenas em dados do GSC tornam-se perigosas:
Três quartos das impressões são filtrados.
As impressões do bot geram até 6,5% dos dados.
AIOs reduzem os cliques em mais de 50%.
O comportamento do usuário está mudando estruturalmente.
Sua oportunidade está na metodologia: equipes que constroem estruturas de medição robustas (scripts de taxa de amostragem, cálculos de compartilhamento de bots, triangulação de múltiplas fontes) têm uma vantagem competitiva.
Imagem destacada: Paulo Bobita/Search Engine Journal