IA comete erros graves ao responder sobre notícias e confunde fato com opinião

Tecnologia

Um estudo recente conduzido pela European Broadcasting Union (EBU) em parceria com a BBC revelou que assistentes de inteligência artificial ainda apresentam sérios problemas ao lidar com notícias. Entre os modelos analisados, o Google Gemini foi apontado como o pior desempenho geral, com 76% das respostas contendo erros graves de fato ou de fonte. Para efeito de comparação, outros assistentes como Microsoft Copilot, ChatGPT e Perplexity apresentaram taxas de erro de 37%, 36% e 30%, respectivamente.

Os erros mais comuns incluem confundir fontes, apresentar informações desatualizadas ou transformar opiniões em fatos. Esse cenário preocupa especialmente considerando que a IA tem sido cada vez mais utilizada como alternativa a motores de busca e resumos de notícias.

Impacto sobre a confiança do público

A pesquisa mostrou que 45% das respostas de IA continham pelo menos um erro significativo, e a confusão entre opinião e fato afetou a percepção de confiabilidade dos usuários. Embora muitos adultos ainda considerem essas ferramentas úteis, os erros reduzem drasticamente a confiança.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Por exemplo: 84% afirmaram que erros factuais impactariam sua confiança, enquanto 76% destacaram a importância da correta atribuição das fontes.

IA comete erros graves ao responder sobre notícias e confunde fato com opinião (Imagem: Freepik)

O estudo também indicou que usuários jovens, principalmente com menos de 25 anos, são os que mais recorrem a assistentes de IA para notícias, aumentando o risco de exposição a informações imprecisas.

Responsabilidade e regulamentação

Quando confrontados com falhas, os usuários não culpam apenas a IA. Cerca de 36% dos adultos no Reino Unido acreditam que os desenvolvedores de IA devem garantir a precisão, enquanto 31% consideram que governos ou reguladores devem estabelecer normas. Em paralelo, 35% defendem que o veículo de imprensa citado também deve ser responsabilizado, mesmo que o erro tenha surgido no resumo gerado pela IA.

Embora assistentes de IA como ChatGPT, Copilot e Gemini ofereçam conveniência na hora de buscar informações, eles não substituem fontes jornalísticas confiáveis. O estudo da EBU e da BBC evidencia que, diante de falhas frequentes, usuários devem adotar uma postura crítica e verificar múltiplas fontes antes de confiar em qualquer resumo gerado por IA.

Leia também:

VÍDEO | IA do Google contrata próprio advogado

Leia a matéria no Canaltech.