Edit Content
Click on the Edit Content button to edit/add the content.

Growth Strategies for Digital Businesses

Você pode usar IA para escrever para sites YMYL? (Leia as evidências antes de fazer)

Home / Nosso Blog

Transforme seu negócio com a Atualizex

Leve seu marketing digital para o próximo nível com estratégias baseadas em dados e soluções inovadoras. Vamos criar algo incrível juntos!

Siga nosso Canal

Acompanhe semanalmente nosso canal no youtube com vídeos de marketing e performance e se inscreva-se

Can You Use AI To Write For YMYL Sites? (Read The Evidence Before You Do)

Você pode usar IA para escrever para sites YMYL? (Leia as evidências antes de fazer)

Your Money or Your Life (YMYL) cobre tópicos que afetam a saúde, a estabilidade financeira, a segurança ou o bem-estar geral das pessoas e, com razão, o Google aplica padrões algorítmicos mensuravelmente mais rígidos a esses tópicos.

As ferramentas de escrita de IA podem prometer escalar a produção de conteúdo, mas como escrever para YMYL requer mais consideração e credibilidade do autor do que outros conteúdos, um LLM pode escrever conteúdo que seja aceitável para este nicho?

O resultado final é que os sistemas de IA falham no conteúdo YMYL, oferecendo mesmice insípida onde a experiência e a autoridade únicas são mais importantes. A IA produz reclamações médicas não comprovadas 50% das vezes e alucina ações judiciais em 75% das vezes.

Este artigo examina como o Google aplica os padrões YMYL, mostra evidências de onde a IA falha e por que os editores que contam com experiência genuína estão se posicionando para o sucesso a longo prazo.

Google trata conteúdo YMYL com análise algorítmica

Diretrizes do avaliador de qualidade de pesquisa do Google afirmam que “para páginas sobre tópicos claros do YMYL, temos padrões de classificação de qualidade de página muito altos” e essas páginas “exigem o maior escrutínio”. As diretrizes definem YMYL como tópicos que “poderiam impactar significativamente a saúde, a estabilidade financeira ou a segurança das pessoas”.

A diferença de peso algorítmica está documentada. Orientação do Google afirma que, para consultas YMYL, o mecanismo de pesquisa dá “mais peso em nossos sistemas de classificação a fatores como nossa compreensão da autoridade, experiência ou confiabilidade das páginas”.

O Atualização principal de março de 2024 demonstraram esse tratamento diferenciado. O Google anunciou expectativas de uma redução de 40% no conteúdo de baixa qualidade. Os sites YMYL de finanças e saúde estavam entre os mais atingidos.

As Diretrizes do Avaliador de Qualidade criam um sistema de dois níveis. O conteúdo regular pode atingir “qualidade média” com experiência cotidiana. O conteúdo YMYL requer níveis EEAT “extremamente altos”. Conteúdo com EEAT inadequado recebe a designação “Mais baixo”, o julgamento de qualidade mais severo do Google.

Dados esses padrões elevados, o conteúdo gerado por IA enfrenta um desafio para atendê-los.

Pode ser uma piada da indústria que as primeiras alucinações do ChatGPT aconselhou as pessoas a comerem pedrasmas destaca um problema muito sério. Os usuários dependem da qualidade dos resultados que leem online, e nem todos são capazes de decifrar fatos da ficção.

As taxas de erro de IA o tornam inadequado para tópicos YMYL

UM Estudo Stanford HAI de fevereiro de 2024 testou GPT-4 com geração aumentada de recuperação (RAG).

Resultados: 30% das afirmações individuais não foram sustentadas. Quase 50% das respostas continham pelo menos uma afirmação não apoiada. O Gemini Pro do Google alcançou 10% de respostas totalmente apoiadas.

Estas não são discrepâncias menores. O GPT-4 RAG deu instruções de tratamento para o tipo errado de equipamento médico. Esse tipo de erro pode prejudicar os pacientes durante emergências.

Money.com testou a pesquisa ChatGPT em 100 questões financeiras em novembro de 2024. Apenas 65% corretos, 29% incompletos ou enganosos e 6% errados.

O sistema obteve respostas de blogs pessoais menos confiáveis, não mencionou mudanças nas regras e não desencorajou o “timing the market”.

Estudo RegLab de Stanford testando mais de 200.000 consultas jurídicas encontraram taxas de alucinação variando de 69% a 88% para modelos de última geração.

As modelos têm alucinações pelo menos 75% das vezes em audiências judiciais. O Banco de dados de casos de alucinações de IA rastreia 439 decisões legais em que a IA produziu conteúdo alucinado em processos judiciais.

Men’s Journal publicou seu primeiro artigo sobre saúde gerado por IA em fevereiro de 2023. O Dr. Bradley Anawalt, do Centro Médico da Universidade de Washington, identificou 18 erros específicos.

Ele descreveu “erros factuais persistentes e descaracterizações da ciência médica”, incluindo igualar diferentes termos médicos, alegar ligações não comprovadas entre dieta e sintomas e fornecer advertências de saúde infundadas.

O artigo estava “flagrantemente errado sobre tópicos médicos básicos”, embora tivesse “proximidade suficiente com evidências científicas para soar verdadeiro”. Essa combinação é perigosa. As pessoas não conseguem identificar os erros porque parecem plausíveis.

Mas mesmo quando a IA esclarece os factos, ela falha de uma forma diferente.

Google prioriza o que a IA não pode fornecer

Em dezembro de 2022, Google adicionou “Experiência” como o primeiro pilar do seu quadro de avaliação, expandindo EAT para EEAT.

A orientação do Google agora pergunta se o conteúdo “demonstra claramente experiência em primeira mão e profundidade de conhecimento (por exemplo, experiência que vem do uso de um produto ou serviço ou da visita a um lugar)”.

Esta questão visa diretamente as limitações da IA. A IA pode produzir conteúdo tecnicamente preciso que parece um livro médico ou referência jurídica. O que ela não pode produzir é o insight do praticante. Do tipo que resulta do tratamento diário de pacientes ou da representação de réus em tribunal.

A diferença aparece no conteúdo. A IA pode fornecer uma definição de distúrbio da articulação temporomandibular (ATM). Um especialista que trata pacientes com ATM pode demonstrar experiência respondendo a perguntas reais que as pessoas fazem.

Como é a recuperação? Que erros os pacientes geralmente cometem? Quando você deve consultar um especialista em vez de seu dentista geral? Essa é a “experiência” no EEAT, uma compreensão demonstrada dos cenários do mundo real e das necessidades dos pacientes.

As questões de qualidade de conteúdo do Google recompensam isso explicitamente. A empresa incentiva você a perguntar “O conteúdo fornece informações, relatórios, pesquisas ou análises originais?” e “O conteúdo fornece análises criteriosas ou informações interessantes que vão além do óbvio?”

A empresa de busca alerta contra “resumir principalmente o que os outros têm a dizer sem agregar muito valor”. É exatamente assim que funcionam os grandes modelos de linguagem.

Essa falta de originalidade cria outro problema. Quando todos usam as mesmas ferramentas, o conteúdo se torna indistinguível.

O design da IA ​​garante homogeneização de conteúdo

Pesquisa da UCLA documenta o que os pesquisadores chamam de “espiral mortal de homogeneização”. Os sistemas de IA adotam preferências médias em escala populacional porque os LLMs prevêem a próxima palavra estatisticamente mais provável.

Pesquisadores de Oxford e Cambridge demonstraram isso na natureza. Quando treinaram um modelo de IA em diferentes raças de cães, o sistema produziu cada vez mais apenas raças comuns, resultando eventualmente no “colapso do modelo”.

UM Estudo de avanços científicos descobriram que “a IA generativa aumenta a criatividade individual, mas reduz a diversidade coletiva de novos conteúdos”. Os escritores estão individualmente em melhor situação, mas coletivamente produzem um escopo de conteúdo mais restrito.

Para tópicos YMYL onde a diferenciação e a experiência única proporcionam vantagem competitiva, esta convergência é prejudicial. Se três consultores financeiros usarem o ChatGPT para gerar orientações de investimento sobre o mesmo tema, seu conteúdo será notavelmente semelhante. Isso não oferece razão para o Google ou os usuários preferirem um em vez de outro.

A atualização de março de 2024 do Google focou em “abuso de conteúdo em escala” e “conteúdo genérico/indiferenciado” que repete informações amplamente disponíveis sem novos insights.

Então, como o Google determina se o conteúdo realmente vem do especialista cujo nome aparece nele?

Como o Google verifica a experiência do autor

O Google não analisa o conteúdo apenas isoladamente. O mecanismo de busca constrói conexões em seu gráfico de conhecimento para verificar se os autores têm o conhecimento que afirmam.

Para especialistas estabelecidos, esta verificação é robusta. Profissionais médicos com publicações no Google Scholar, advogados com registros na Ordem dos Advogados, consultores financeiros com registros FINRA, todos têm pegadas digitais verificáveis. O Google pode vincular o nome de um autor às suas credenciais, publicações, palestras e afiliações profissionais.

Isso cria padrões que o Google pode reconhecer. Seu estilo de escrita, escolhas terminológicas, estrutura de frase e foco no tópico formam uma assinatura. Quando o conteúdo publicado em seu nome se desvia desse padrão, levanta questões sobre autenticidade.

Construir autoridade genuína requer consistência, por isso ajuda fazer referência a trabalhos anteriores e demonstrar envolvimento contínuo com sua área. Vincule as assinaturas do autor a páginas biográficas detalhadas. Inclua credenciais, jurisdições, áreas de especialização e links para perfis profissionais verificáveis ​​(conselhos médicos estaduais, ordens de advogados, instituições acadêmicas).

Mais importante ainda, peça a especialistas que escrevam ou revisem minuciosamente o conteúdo publicado em seus nomes. Não apenas verificar os fatos, mas garantir que a voz, a perspectiva e os insights reflitam sua experiência.

A razão pela qual esses sistemas de verificação são importantes vai além das classificações.

Os riscos do mundo real da desinformação YMYL

UM Estudo da Universidade de Baltimore de 2019 calculou que a desinformação custa anualmente à economia global 78 mil milhões de dólares. Fraude financeira falsa afetou 50% das empresas em 2024, com uma perda média de US$ 450.000 por incidente.

As apostas diferem de outros tipos de conteúdo. Erros não YMYL causam transtornos ao usuário. Os erros YMYL causam lesões, erros financeiros e erosão da confiança institucional.

Lei federal dos EUA prescreve até 5 anos de prisão por divulgar informações falsas que causem danos, 20 anos se alguém sofrer lesões corporais graves e prisão perpétua se alguém morrer como resultado. Entre 2011 e 2022, 78 países aprovaram leis contra a desinformação.

A validação é mais importante para YMYL porque as consequências se acumulam e se acumulam.

As decisões médicas adiadas pela desinformação podem piorar as condições sem recuperação. Escolhas de investimento inadequadas criam dificuldades económicas duradouras. Aconselhamento jurídico errado pode resultar na perda de direitos. Esses resultados são irreversíveis.

Compreender esses riscos ajuda a explicar o que os leitores procuram quando pesquisam tópicos YMYL.

O que os leitores desejam do conteúdo YMYL

As pessoas não abrem o conteúdo YMYL para ler as definições dos livros didáticos que poderiam encontrar na Wikipedia. Eles querem se conectar com profissionais que entendam sua situação.

Eles querem saber quais perguntas outros pacientes fazem. O que normalmente funciona. O que esperar durante o tratamento. Quais sinais de alerta devem ser observados. Esses insights vêm de anos de prática, não de dados de treinamento.

Os leitores podem dizer quando o conteúdo vem de uma experiência genuína e quando foi compilado a partir de outros artigos. Quando um médico diz “o erro mais comum que vejo os pacientes cometerem é…” isso carrega um peso que os conselhos gerados pela IA não conseguem igualar.

A autenticidade é importante para a confiança. Nos tópicos YMYL, onde as pessoas tomam decisões que afetam a sua saúde, finanças ou situação jurídica, elas precisam ter a confiança de que a orientação vem de alguém que já passou por essas situações antes.

Essa compreensão do que os leitores desejam deve informar sua estratégia.

A escolha estratégica

As organizações que produzem conteúdo YMYL enfrentam uma decisão. Invista em experiência genuína e perspectivas únicas ou arrisque penalidades algorítmicas e danos à reputação.

A adição de “Experiência” ao EAT em 2022 visou a incapacidade da IA ​​de ter experiência em primeira mão. A atualização de conteúdo útil penalizou “resumir o que os outros têm a dizer sem agregar muito valor”, uma descrição exata da funcionalidade do LLM.

Quando o Google impõe padrões YMYL mais rígidos e as taxas de erro de IA são de 18 a 88%, os riscos superam os benefícios.

Os especialistas não precisam de IA para escrever seu conteúdo. Eles precisam de ajuda para organizar seu conhecimento, estruturar seus insights e tornar seu conhecimento acessível. Essa é uma função diferente da geração de conteúdo em si.

Olhando para o futuro

O valor do conteúdo YMYL vem do conhecimento que não pode ser extraído de fontes existentes.

Vem do cirurgião que sabe quais perguntas os pacientes fazem antes de cada procedimento. O consultor financeiro que orientou clientes durante recessões. O advogado que viu quais argumentos funcionam diante de quais juízes.

Os editores que tratam o conteúdo YMYL como um jogo de volume, seja por meio de IA ou de fazendas de conteúdo humano, estão enfrentando um caminho difícil. Quem trata isso como um sinal de credibilidade possui um modelo sustentável.

Você pode usar IA como ferramenta em seu processo. Você não pode usá-lo como um substituto para a experiência humana.

Mais recursos:


Imagem em destaque: Roman Samborskyi/Shutterstock

”Negócio desatualizado ele não está apenas perdendo dinheiro, mas está perdendo a chance de fazer a diferença ao mundo”

Atualizex Marketing e Performance

Produtor