Rastreamento de citações do Bing AI, páginas iniciais HTTP ocultas e páginas abaixo do limite de rastreamento

Home / Nosso Blog

Transforme seu negócio com a Atualizex

Leve seu marketing digital para o próximo nível com estratégias baseadas em dados e soluções inovadoras. Vamos criar algo incrível juntos!

[home_atualizex]

Siga nosso Canal

Acompanhe semanalmente nosso canal no youtube com vídeos de marketing e performance e se inscreva-se

[wp_social_ninja id="389" platform="youtube"]

Rastreamento de citações do Bing AI, páginas iniciais HTTP ocultas e páginas abaixo do limite de rastreamento

Bem-vindo ao Pulse for SEO da semana: as atualizações cobrem como você rastreia a visibilidade da IA, como uma página fantasma pode quebrar o nome do seu site nos resultados de pesquisa e o que novos dados de rastreamento revelam sobre os limites de tamanho de arquivo do Googlebot.

Aqui está o que é importante para você e seu trabalho.

Ferramentas para webmasters do Bing adiciona painel de citações AI

Microsoft introduziu um painel de desempenho de IA nas Ferramentas do Google para webmasters, dando aos editores visibilidade sobre a frequência com que seu conteúdo é citado no Copilot e nas respostas geradas por IA. O recurso agora está em versão prévia pública.

Principais fatos: O painel rastreia o total de citações, a média de páginas citadas por dia, a atividade de citações no nível da página e as consultas básicas. As consultas básicas mostram as frases que a IA usou ao recuperar seu conteúdo para obter respostas.

Por que isso é importante

O Bing agora está oferecendo um painel dedicado para visibilidade de citações de IA. O Google inclui visões gerais de IA e atividades do modo AI nos relatórios de desempenho geral do Search Console, mas não divide um relatório separado nem fornece contagens de URL no estilo de citação. As visões gerais de IA também atribuem todas as páginas vinculadas a uma única posição, o que limita o que você pode aprender sobre o desempenho de páginas individuais nas respostas de IA.

O painel do Bing vai além, rastreando quais páginas são citadas, com que frequência e quais frases acionaram a citação. A peça que falta são os dados do clique. O painel mostra quando seu conteúdo é citado, mas não se essas citações geram tráfego.

Agora você pode confirmar quais páginas são referenciadas nas respostas de IA e identificar padrões nas consultas básicas, mas conectar a visibilidade da IA ​​aos resultados de negócios ainda requer a combinação desses dados com suas próprias análises.

O que os profissionais de SEO estão dizendo

Wil Reynolds, fundador da Seer Interactive, comemorou o recurso no X e focado nos novos dados de consultas básicas:

“O Bing agora está fornecendo consultas básicas nas ferramentas do Bing para webmasters! Acabei de confirmar, agora preciso entender o que estamos obtendo com elas, o que significa e como usá-lo.”

Koray Tuğberk GÜBÜR, fundador da Holistic SEO & Digital, comparou-o diretamente com as ferramentas do Google no X:

“As Ferramentas do Google para webmasters sempre foram mais úteis e eficientes do que o Google Search Console e, mais uma vez, provaram seu compromisso com a transparência.”

Fabrice Canel, principal gerente de produto do Microsoft Bing, enquadrou o lançamento no X como uma ponte entre a otimização tradicional e a baseada em IA:

“Os editores agora podem ver como seu conteúdo aparece na era da IA. GEO encontra SEO, potencialize sua estratégia com sinais reais.”

A reação nas redes sociais centrou-se numa frustração partilhada. Esses são os dados que os profissionais têm pedido, mas vêm do Bing e não do Google. Várias pessoas expressaram esperança de que o Google e a OpenAI seguiriam com relatórios comparáveis.

Leia nossa cobertura completa: Ferramentas para webmasters do Bing adicionam dados de desempenho de citações de IA

A página inicial HTTP oculta pode quebrar o nome do seu site no Google

John Mueller, do Google, compartilhou um caso de solução de problemas no Bluesky onde uma página inicial HTTP restante estava causando problemas inesperados de nome de site e favicon nos resultados de pesquisa. É fácil ignorar o problema porque o Chrome pode atualizar automaticamente as solicitações HTTP para HTTPS, ocultando a página problemática da navegação normal.

Principais fatos: O site usava HTTPS, mas uma página inicial HTTP padrão do servidor ainda estava acessível. A atualização automática do Chrome fez com que o editor nunca visse a versão HTTP, mas o Googlebot não segue o comportamento de atualização do Chrome, então o Googlebot estava puxando da página errada.

Por que isso é importante

Esse é o tipo de problema que você não encontraria em uma auditoria de site padrão porque seu navegador nunca o mostra. Se o nome do seu site ou favicon nos resultados de pesquisa não corresponder ao que você espera e sua página inicial HTTPS parecer correta, vale a pena verificar a versão HTTP do seu domínio.

Mueller sugeriu executar curl na linha de comando para ver a resposta HTTP bruta sem a atualização automática do Chrome. Se ele retornar uma página padrão do servidor em vez da sua página inicial real, essa é a origem do problema. Você também pode usar a ferramenta de inspeção de URL no Search Console com um teste ao vivo para ver o que o Google recuperou e renderizou.

A documentação do Google sobre nomes de sites menciona especificamente páginas iniciais duplicadas, incluindo versões HTTP e HTTPS, e recomenda o uso dos mesmos dados estruturados para ambas. O caso de Mueller mostra o que acontece quando uma versão HTTP contém conteúdo diferente da página inicial HTTPS que você pretendia.

O que as pessoas estão dizendo

Mueller descreveu o caso no Bluesky como “estranho”, observando que o problema central é invisível na navegação normal:

“O Chrome atualiza automaticamente o HTTP para HTTPS para que você não veja a página HTTP. No entanto, o Googlebot a vê e a usa para influenciar a seleção do nome do site e do favicon.”

O caso destaca um padrão em que os recursos do navegador muitas vezes ocultam o que os rastreadores veem. Os exemplos incluem atualização automática do Chrome, modos de leitura, renderização do lado do cliente e conteúdo JavaScript. Para depurar problemas de nome de site e favicon, verifique a resposta do servidor diretamente, não apenas os carregamentos do navegador.

Leia nossa cobertura completa: Página HTTP oculta pode causar problemas de nome de site no Google

Novos dados mostram que a maioria das páginas se enquadra bem no limite de rastreamento do Googlebot

Uma nova pesquisa baseada em páginas da web do mundo real sugere que a maioria das páginas fica bem abaixo do limite de busca de 2 MB do Googlebot. Os dados, analisados ​​por Roger Montti, do Search Engine Journal, baseiam-se em medições de arquivo HTTP para colocar a questão do limite de rastreamento em um contexto prático.

Principais fatos: Os dados do arquivo HTTP sugerem que a maioria das páginas tem bem menos de 2 MB. Google recentemente esclarecido em documentação atualizada que o limite do Googlebot para tipos de arquivo suportados é de 2 MB, enquanto os PDFs têm um limite de 64 MB.

Por que isso é importante

A questão do limite de rastreamento tem circulado em discussões técnicas de SEO, principalmente depois que o Google atualizou sua documentação do Googlebot no início deste mês.

Os novos dados respondem à questão prática que a documentação por si só não conseguiria. O limite de 2 MB é importante para suas páginas? Para a maioria dos sites, a resposta é não. As páginas da web padrão, mesmo as com muito conteúdo, raramente chegam a esse limite.

O limite pode ser importante em páginas com marcação extremamente inchada, scripts embutidos ou dados incorporados que aumentam o tamanho do HTML além dos intervalos típicos.

O padrão mais amplo aqui é o Google tornar seus sistemas de rastreamento mais transparentes. Mover a documentação para um site de rastreamento independente, esclarecer quais limites se aplicam a quais rastreadores e agora ter dados do mundo real para validar esses limites fornece uma imagem mais clara do que o Googlebot trata.

O que os profissionais técnicos de SEO estão dizendo

Dave Smart, consultor técnico de SEO da Tame the Bots e especialista em produtos Diamond Central da Pesquisa Google, colocou os números em perspectiva em um Postagem no LinkedIn:

“O Googlebot buscará apenas os primeiros 2 MB do HTML inicial (ou outro recurso como CSS, JavaScript), o que parece uma grande redução em relação aos 15 MB relatados anteriormente, mas honestamente, 2 MB ainda é enorme.”

Smart seguiu atualizando sua ferramenta de busca e renderização Tame the Bots para simular o corte. Em um Postagem azulele acrescentou uma advertência sobre o risco prático:

“Correndo o risco de exagerar o quanto isso é um problema do mundo real (realmente não é para 99,99% dos sites, imagino), adicionei funcionalidade para limitar arquivos baseados em texto a 2 MB para simular isso.”

John Mueller do Google endossou a ferramenta no céu azulescrita:

“Se você está curioso sobre o limite de busca de HTML do Googlebot de 2 MB, aqui está uma maneira de verificar.”

Mueller também compartilhou dados do Web Almanac no Reddit para colocar o limite no contexto:

“A mediana em dispositivos móveis é de 33 KB, o percentil 90 é de 151 KB. Isso significa que 90% das páginas existentes têm menos de 151 KB de HTML.”

Rogério Montti, escrevendo para o Search Engine Journalchegou a uma conclusão semelhante após revisar os dados do arquivo HTTP. Montti observou que os dados baseados em sites reais mostram que a maioria dos sites está bem abaixo do limite e chamou de “seguro dizer que não há problema em riscar o tamanho do HTML da lista de coisas de SEO com que se preocupar”.

Leia nossa cobertura completa: Novos dados mostram que o limite de rastreamento de 2 MB do Googlebot é suficiente

Tema da semana: a lacuna diagnóstica

Cada história desta semana aponta para algo que os praticantes não conseguiam ver antes ou verificaram de forma errada.

O painel de citações de IA do Bing preenche uma lacuna de medição que existe desde que as respostas de IA começaram a citar o conteúdo do site. O caso da página inicial HTTP de Mueller revela uma página invisível que as auditorias padrão do site e as verificações do navegador perderiam completamente porque o Chrome a oculta. E os dados de limite de rastreamento do Googlebot respondem a uma questão levantada pelas atualizações da documentação, mas que não conseguiram resolver por conta própria.

O fio condutor não é que estes sejam problemas novos. As citações de IA têm acontecido sem ferramentas de medição. As páginas Ghost HTTP têm confundido os sistemas de nomes de sites desde que o Google introduziu o recurso. E os limites de rastreamento foram listados nos documentos do Google durante anos, sem validação no mundo real. O que mudou esta semana é que cada lacuna recebeu um diagnóstico concreto: um painel, um comando curl e um conjunto de dados.

A conclusão é que as ferramentas e os dados para entender como os mecanismos de pesquisa interagem com o seu conteúdo estão se tornando mais específicos. O desafio é saber onde procurar.

Mais recursos:


Imagem em destaque: Accogliente Design/Shutterstock

Fonte

Compartilhe nas Redes Sociais

Facebook
Twitter
LinkedIn
Threads
Telegram
WhatsApp
Reddit
X
Email
Print
Tumblr

”Negócio desatualizado ele não está apenas perdendo dinheiro, mas está perdendo a chance de fazer a diferença ao mundo”

Atualizex Marketing e Performance

Produtor

WeCreativez WhatsApp Support
Nossa equipe de suporte ao cliente está aqui para responder às suas perguntas. Pergunte-nos o que quiser!
👋 Olá, como posso ajudar?