
Um estudo recente conduzido pela European Broadcasting Union (EBU) em parceria com a BBC revelou que assistentes de inteligência artificial ainda apresentam sérios problemas ao lidar com notícias. Entre os modelos analisados, o Google Gemini foi apontado como o pior desempenho geral, com 76% das respostas contendo erros graves de fato ou de fonte. Para efeito de comparação, outros assistentes como Microsoft Copilot, ChatGPT e Perplexity apresentaram taxas de erro de 37%, 36% e 30%, respectivamente.
- Uso da IA já é massivo, mas ler notícias não está no comportamento do usuário
- IAs que geram imagens estão sendo usadas para falsificar recibos e notas fiscais
Os erros mais comuns incluem confundir fontes, apresentar informações desatualizadas ou transformar opiniões em fatos. Esse cenário preocupa especialmente considerando que a IA tem sido cada vez mais utilizada como alternativa a motores de busca e resumos de notícias.
Impacto sobre a confiança do público
A pesquisa mostrou que 45% das respostas de IA continham pelo menos um erro significativo, e a confusão entre opinião e fato afetou a percepção de confiabilidade dos usuários. Embora muitos adultos ainda considerem essas ferramentas úteis, os erros reduzem drasticamente a confiança.
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–
Por exemplo: 84% afirmaram que erros factuais impactariam sua confiança, enquanto 76% destacaram a importância da correta atribuição das fontes.

O estudo também indicou que usuários jovens, principalmente com menos de 25 anos, são os que mais recorrem a assistentes de IA para notícias, aumentando o risco de exposição a informações imprecisas.
Responsabilidade e regulamentação
Quando confrontados com falhas, os usuários não culpam apenas a IA. Cerca de 36% dos adultos no Reino Unido acreditam que os desenvolvedores de IA devem garantir a precisão, enquanto 31% consideram que governos ou reguladores devem estabelecer normas. Em paralelo, 35% defendem que o veículo de imprensa citado também deve ser responsabilizado, mesmo que o erro tenha surgido no resumo gerado pela IA.
Embora assistentes de IA como ChatGPT, Copilot e Gemini ofereçam conveniência na hora de buscar informações, eles não substituem fontes jornalísticas confiáveis. O estudo da EBU e da BBC evidencia que, diante de falhas frequentes, usuários devem adotar uma postura crítica e verificar múltiplas fontes antes de confiar em qualquer resumo gerado por IA.
Leia também:
- OpenAI | Centenas de milhares no ChatGPT apresentam sinais de crise toda semana
- Todos os chatbots de IA são bajuladores e dizem aos usuários o que querem ouvir
VÍDEO | IA do Google contrata próprio advogado
Leia a matéria no Canaltech.

