Home / Nosso Blog
Leve seu marketing digital para o próximo nível com estratégias baseadas em dados e soluções inovadoras. Vamos criar algo incrível juntos!
Acompanhe semanalmente nosso canal no youtube com vídeos de marketing e performance e se inscreva-se

Os principais assistentes de IA deturparam ou manipularam mal o conteúdo de notícias em quase metade das respostas avaliadas, de acordo com um estudo Estudo da União Europeia de Radiodifusão (EBU) e da BBC.
A pesquisa avaliou versões gratuitas/para consumidores de ChatGPT, Copilot, Gemini e Perplexity, respondendo a perguntas de notícias em 14 idiomas em 22 organizações de mídia de serviço público em 18 países.
A EBU disse ao anunciar as conclusões:
“A distorção sistêmica das notícias pela IA é consistente em todos os idiomas e territórios.”
No total, foram avaliadas 2.709 respostas principais, com exemplos qualitativos também extraídos de perguntas personalizadas.
Geral, 45% das respostas continham pelo menos um problema significativo, e 81% teve algum problema. O abastecimento foi a área problemática mais comum, afetando 31% de respostas a um nível significativo.
O desempenho variou de acordo com a plataforma. O Google Gemini mostrou o maior número de problemas: 76% das suas respostas continham problemas significativos, motivados por 72% com problemas de abastecimento.
Os outros assistentes estavam no mesmo nível ou abaixo 37% para questões importantes em geral e abaixo 25% para questões de fornecimento.
Problemas de precisão incluíam informações desatualizadas ou incorretas.
Por exemplo, vários assistentes identificaram o Papa Francisco como o actual Papa no final de Maio, apesar da sua morte em Abril, e Gemini caracterizou incorrectamente as mudanças nas leis sobre vapores descartáveis.
Os participantes geraram respostas entre 24 de maio e 10 de junho, usando um conjunto compartilhado de 30 perguntas principais, além de perguntas locais opcionais.
O estudo se concentrou nas versões gratuitas/para consumidor de cada assistente para refletir o uso típico.
Muitas organizações tinham bloqueios técnicos que normalmente restringem o acesso dos assistentes ao seu conteúdo. Esses blocos foram removidos durante o período de geração de resposta e reinstaurados posteriormente.
Ao usar assistentes de IA para pesquisa ou planejamento de conteúdo, essas descobertas reforçam a necessidade de verificar as afirmações em relação às fontes originais.
Como publicação, isso pode afetar a forma como o seu conteúdo é representado nas respostas de IA. A alta taxa de erros aumenta o risco de declarações mal atribuídas ou sem suporte aparecerem em resumos que citam seu conteúdo.
A EBU e a BBC publicaram um Kit de ferramentas de integridade de notícias no AI Assistants juntamente com o relatório, oferecendo orientação para empresas de tecnologia, organizações de mídia e pesquisadores.
A Reuters relata a opinião da UER de que a crescente dependência de assistentes para notícias poderia minar a confiança do público.
Como disse o diretor de mídia da EBU, Jean Philip De Tender:
“Quando as pessoas não sabem em que confiar, acabam por não confiar em nada, e isso pode impedir a participação democrática.”
Imagem em destaque: Naumova Marina/Shutterstock
”Negócio desatualizado ele não está apenas perdendo dinheiro, mas está perdendo a chance de fazer a diferença ao mundo”
Produtor