Home / Nosso Blog
Leve seu marketing digital para o próximo nível com estratégias baseadas em dados e soluções inovadoras. Vamos criar algo incrível juntos!
Acompanhe semanalmente nosso canal no youtube com vídeos de marketing e performance e se inscreva-se

Os principais assistentes de IA deturparam ou manipularam mal o conteúdo de notícias em quase metade das respostas avaliadas, de acordo com um estudo Estudo da União Europeia de Radiodifusão (EBU) e da BBC.
A pesquisa avaliou versões gratuitas/para consumidores de ChatGPT, Copilot, Gemini e Perplexity, respondendo a perguntas de notícias em 14 idiomas em 22 organizações de mídia de serviço público em 18 países.
A EBU disse ao anunciar as conclusões:
“A distorção sistêmica das notícias pela IA é consistente em todos os idiomas e territórios.”
No total, foram avaliadas 2.709 respostas principais, com exemplos qualitativos também extraídos de perguntas personalizadas.
Geral, 45% das respostas continham pelo menos um problema significativo, e 81% teve algum problema. O abastecimento foi a área problemática mais comum, afetando 31% de respostas a um nível significativo.
O desempenho variou de acordo com a plataforma. O Google Gemini mostrou o maior número de problemas: 76% das suas respostas continham problemas significativos, motivados por 72% com problemas de abastecimento.
Os outros assistentes estavam no mesmo nível ou abaixo 37% para questões importantes em geral e abaixo 25% para questões de fornecimento.
Problemas de precisão incluíam informações desatualizadas ou incorretas.
Por exemplo, vários assistentes identificaram o Papa Francisco como o actual Papa no final de Maio, apesar da sua morte em Abril, e Gemini caracterizou incorrectamente as mudanças nas leis sobre vapores descartáveis.
Os participantes geraram respostas entre 24 de maio e 10 de junho, usando um conjunto compartilhado de 30 perguntas principais, além de perguntas locais opcionais.
O estudo se concentrou nas versões gratuitas/para consumidor de cada assistente para refletir o uso típico.
Muitas organizações tinham bloqueios técnicos que normalmente restringem o acesso dos assistentes ao seu conteúdo. Esses blocos foram removidos durante o período de geração de resposta e reinstaurados posteriormente.
Ao usar assistentes de IA para pesquisa ou planejamento de conteúdo, essas descobertas reforçam a necessidade de verificar as afirmações em relação às fontes originais.
Como publicação, isso pode afetar a forma como o seu conteúdo é representado nas respostas de IA. A alta taxa de erros aumenta o risco de declarações mal atribuídas ou sem suporte aparecerem em resumos que citam seu conteúdo.
A EBU e a BBC publicaram um Kit de ferramentas de integridade de notícias no AI Assistants juntamente com o relatório, oferecendo orientação para empresas de tecnologia, organizações de mídia e pesquisadores.
A Reuters relata a opinião da UER de que a crescente dependência de assistentes para notícias poderia minar a confiança do público.
Como disse o diretor de mídia da EBU, Jean Philip De Tender:
“Quando as pessoas não sabem em que confiar, acabam por não confiar em nada, e isso pode impedir a participação democrática.”
Imagem em destaque: Naumova Marina/Shutterstock
”Negócio desatualizado ele não está apenas perdendo dinheiro, mas está perdendo a chance de fazer a diferença ao mundo”
Produtor
We use cookies to improve your experience on our site. By using our site, you consent to cookies.
Manage your cookie preferences below:
Essential cookies enable basic functions and are necessary for the proper function of the website.
These cookies are needed for adding comments on this website.
Statistics cookies collect information anonymously. This information helps us understand how visitors use our website.
Google Analytics is a powerful tool that tracks and analyzes website traffic for informed marketing decisions.
Service URL: policies.google.com
You can find more information in our Cookie Policy and .