Home / Nosso Blog
Leve seu marketing digital para o próximo nível com estratégias baseadas em dados e soluções inovadoras. Vamos criar algo incrível juntos!
Acompanhe semanalmente nosso canal no youtube com vídeos de marketing e performance e se inscreva-se

O Web Almanac é um relatório anual que traduz o conjunto de dados do HTTP Archive em insights práticos, combinando medição em larga escala com interpretação especializada de especialistas do setor.
Para obter insights sobre o que Relatório de 2025 pode nos contar sobre o que realmente está acontecendo em SEO, falei com um dos autores da atualização do capítulo SEO, Chris Verdeum conhecido especialista do setor com mais de 15 anos de experiência.
Chris compartilhou comigo algumas surpresas sobre o adoção de arquivos llms.txt e como os sistemas CMS estão moldando o SEO muito mais do que imaginamos. Fatos pouco conhecidos que os dados vieram à tona na pesquisa e insights surpreendentes que normalmente passariam despercebidos.
Você pode assistir à entrevista completa com Chris na gravação IMHO no final ou continuar lendo o resumo do artigo.
“Acho que os dados (no Web Almanac) ajudaram a me mostrar que ainda há muita coisa quebrada. A web é realmente confusa. Muito confusa.”
Embora o gerenciamento de bots seja binário há algum tempo – permitir/proibir o Google – ele está se tornando um novo desafio. Algo que Galinha de noivado havia aprendido anteriormente e Chris descobriu em sua pesquisa.
Começamos nossa conversa falando sobre como os arquivos de robôs estão sendo usados agora para expressar intenções sobre o acesso do rastreador de IA.
Chris respondeu dizendo que, em primeiro lugar, é necessário estar consciente dos diferentes crawlers, qual é a sua intenção e, fundamentalmente, o que o bloqueio deles pode fazer, ou seja, bloquear alguns bots tem implicações maiores do que outros.
Em segundo lugar, exige que os fornecedores da plataforma realmente ouçam essas regras e tratem esses arquivos conforme apropriado. Isso nem sempre acontece, e a ética em torno de robôs e rastreadores de IA é uma área que os SEOs precisam conhecer e compreender mais.
Chris explicou que embora o relatório do Almanaque mostrasse o sintoma de Uso de robots.txtos SEOs precisam avançar e entender como controlar os bots.
“Não é apenas entender qual é o impacto de cada um (bot/crawler), mas também como comunicar isso ao negócio. Se você tem uma equipe que deseja reduzir o máximo possível o rastreamento de bots porque quer economizar dinheiro, isso pode impactar desesperadamente a visibilidade da sua IA.”
Da mesma forma, você pode ter uma equipe editorial que não deseja que todo o seu trabalho seja raspado e regurgitado. Portanto, nós, como SEOs, precisamos entender essa dinâmica, como controlá-la tecnicamente, mas também como apresentar esse argumento nos negócios.” Chris explicou.
À medida que mais plataformas e rastreadores são introduzidos, as equipes de SEO terão que considerar todas as implicações e colaborar com outras equipes para garantir que o equilíbrio certo de acesso seja aplicado ao site.
A primeira descoberta surpreendente do relatório foi que a adoção do padrão llms.txt proposto é de cerca de 2% dos sites no conjunto de dados.
Llms.txt tem sido um tema acalorado na indústria, com muitos SEOs descartando o valor do arquivo. Algumas ferramentas, como o Yoast, incluíram o padrão, mas até agora não houve demonstração de adesão real por parte dos fornecedores de IA.
Chris admitiu que 2% foi uma adoção maior do que ele esperava. Mas grande parte desse crescimento parece ser impulsionado por ferramentas de SEO que adicionaram llms.txt como recurso padrão ou opcional.
Chris está cético quanto ao seu impacto a longo prazo. Como ele explicou, o Google afirmou repetidamente que não planeja usar o llms.txt e, sem um compromisso claro dos principais fornecedores de IA, especialmente a OpenAI, corre o risco de permanecer um nicho, um gesto simbólico, em vez de um padrão funcional.
Dito isso, Chris obteve dados de arquivos de log sugerindo que alguns rastreadores de IA já estão buscando esses arquivos e, em casos limitados, eles podem até ser referenciados como fontes. Green vê isso menos como uma vantagem competitiva e mais como um potencial mecanismo de paridade, algo que pode ajudar certos sites a serem compreendidos, mas não elevá-los dramaticamente.
“O Google disse repetidamente que não planeja usar o llms.txt, o que reiterou em Zurique na Central de Pesquisa no ano passado. Acho que, fundamentalmente, o Google não precisa dele, pois eles têm rastreamento e renderização acertados. Então, acho que depende se a OpenAI diz que vai ou não usá-lo e acho que eles têm outros problemas além de tentar estabelecer um novo padrão.”
Perguntei a Chris sobre como os SEOs podem equilibrar a diferença entre a visibilidade do mecanismo de pesquisa e a visibilidade da máquina.
Ele acha que há “uma sobreposição significativa entre o que era o SEO antes de começarmos a nos preocupar com isso e onde estávamos no início de 2026”.
Apesar dessa sobreposição, Chris deixou claro que se alguém pensa que otimização para pesquisa e máquinas é a mesma coisa, então não está ciente dos dois sistemas diferentes, das ponderações diferentes, do fato de que interpretação, recuperação e geração são completamente diferentes.
Embora existam diferentes sistemas e diferentes capacidades em jogo, ele não acha que o SEO tenha mudado fundamentalmente. Sua crença é que a otimização de SEO e IA são “mais ou menos iguais, tranquilizadoramente iguais nos lugares que importam, mas você precisará abordá-la de forma diferente” porque diverge na forma como os resultados são entregues e consumidos.
Chris disse que os SEOs irão mais em direção a feeds, gerenciamento de feeds e otimização de feeds.
“O protocolo de comércio universal do Google, onde você poderia fazer transações diretamente dos resultados de pesquisa ou de uma janela do Gemini, obviamente muda muito. É apenas mais um movimento para tirar o site do circuito. Mas as informações, o que estamos realmente otimizando, ainda precisam ser otimizadas. Está apenas em um lugar diferente.”
Talvez a maior surpresa do Web Almanac 2025 tenha sido a escala de influência exercida pelas plataformas CMS e fornecedores de ferramentas.
Chris disse que não tinha percebido o quão grande é esse impacto. “Plataformas como Shopify, Wix, etc. estão moldando o estado real do SEO tecnológico, provavelmente de forma mais profunda do que acho que muitas pessoas realmente acreditam.”
Chris continuou explicando que “por mais bem-intencionados que sejam os SEOs individuais, acho que nosso impacto geral na web é mínimo fora dos provedores de plataformas CMS. Eu diria que se você está realmente determinado a ter um impacto fora de seus clientes específicos, você precisa cutucar o WordPress, o Wix, o Shopify ou alguns dos grandes fornecedores de software dentro desses ecossistemas”.
Isto cria oportunidades: os sites que implementam padrões técnicos corretamente podem alcançar uma diferenciação significativa quando a maioria dos sites fica atrás das melhores práticas.
Um dos insights mais interessantes dessa conversa foi que muitas coisas na web estão quebradas e quão pouco impacto nós (SEOs) realmente temos.
Chris explicou que “muitos SEOs acreditam que o Google nos deve porque mantemos a Internet para eles. Nós fazemos o trabalho sujo, mas também não acho que tenhamos tanto impacto no nível da indústria como alguns gostam de acreditar. Acho que os dados no Web Almanac meio que me ajudaram a me mostrar que ainda há muita coisa quebrada. A web é realmente confusa. Realmente confusa.”
Nossa conversa terminou com Agentes de IA e automação. Chris começou dizendo: “Os agentes são facilmente mal compreendidos porque usamos o termo de maneira diferente”.
Ele enfatizou que os agentes não são substitutos de expertise, mas aceleradores de processos. A maioria dos fluxos de trabalho de SEO envolve coleta repetitiva de dados e reconhecimento de padrões, áreas adequadas para automação. O valor da experiência humana reside na concepção de processos, na aplicação de julgamento e na contextualização dos resultados.
Os agentes em estágio inicial poderiam automatizar 60-80% do trabalho, semelhante a um estagiário altamente capaz. “Será necessário o seu conhecimento e experiência para tornar isso aplicável ao seu contexto específico. E não me refiro apenas ao contexto do marketing na web ou ao contexto do comércio eletrônico. Refiro-me ao contexto do negócio para o qual você está trabalhando especificamente”, disse ele.
Chris argumentaria que muitos SEOs não gastam tempo suficiente personalizando o que fazem especificamente para o cliente. Ele acredita que há uma oportunidade de construir um processo 80% automatizado e então agregar valor real quando sua intervenção humana otimizar os últimos 20% da lógica de negócios.
Os SEOs que se envolvem com os agentes, refinam os fluxos de trabalho e evoluem junto com a automação têm muito mais probabilidade de permanecer indispensáveis do que aqueles que resistem totalmente à mudança.
No entanto, ao experimentar a automação, Chris alertou que devemos evitar automatizar processos interrompidos.
“Você precisa entender o processo que está tentando otimizar. Se o processo não for muito bom, você acabou de criar uma máquina para produzir mediocridade em escala, o que francamente não ajuda ninguém.”
Chris acha que isso dará aos SEOs uma vantagem à medida que a IA for mais amplamente adotada. “Sugiro que as pessoas que se envolvam com isso e melhorem esses processos e mostrem como eles podem evoluir continuamente, serão elas que terão maior longevidade.”
O Web Almanac 2025 não sugere que o SEO esteja sendo substituído, mas mostra que seu papel está se expandindo de maneiras às quais muitas equipes ainda não se adaptaram totalmente. Princípios básicos como rastreabilidade e higiene técnica ainda são importantes, mas agora existem dentro de um ecossistema mais complexo moldado por rastreadores de IA, feeds, sistemas fechados e decisões em nível de plataforma.
Nos casos em que as normas técnicas são mal implementadas em grande escala, aqueles que compreendem os sistemas que as moldam ainda podem obter uma vantagem significativa.
A automação funciona melhor quando acelera processos bem projetados e falha quando simplesmente dimensiona a ineficiência. Os SEOs que se concentram no design de processos, no julgamento e no contexto de negócios permanecerão essenciais à medida que a automação se tornar mais comum.
Em uma web cada vez mais confusa e controlada por máquinas, os SEOs bem-sucedidos serão aqueles dispostos a se envolver com essa complexidade em vez de ignorá-la.
SEO em 2026 não se trata de escolher entre pesquisa e IA; trata-se de entender como vários sistemas consomem conteúdo e onde a otimização acontece agora.
Assista ao vídeo completo da entrevista com Chris Green aqui:
Obrigado a Chris Green por oferecer seus insights e sendo meu convidado no IMHO.
Mais recursos:
Imagem em destaque: Shelley Walsh/Search Engine Journal
”Negócio desatualizado ele não está apenas perdendo dinheiro, mas está perdendo a chance de fazer a diferença ao mundo”
Produtor
Fale agora com um especialista da Atualizex e receba uma análise estratégica personalizada para o seu negócio.
Falar com Especialista no WhatsApp