A Deloitte anunciou que devolverá parte do pagamento recebido do governo australiano após admitir o uso de inteligência artificial (IA) generativa na elaboração de um relatório de US$ 440 mil (cerca de R$ 2,4 milhões) que continha diversos erros e citações inexistentes.
- Google perde na Suprema Corte e terá que abrir Play Store a rivais
- Hollywood pressiona OpenAI por infrações no Sora 2
O documento, encomendado pelo Departamento de Emprego e Relações de Trabalho (DEWR) em dezembro de 2024, tinha como objetivo revisar o sistema de conformidade do órgão e sua infraestrutura de TI — responsável por automatizar penalidades aplicadas a beneficiários de programas sociais.
Publicada originalmente em julho, a análise foi revisada e republicada após o jornal Australian Financial Review revelar a presença de “referências fantasmas” e citações imprecisas. A Deloitte reconheceu que o relatório havia sido parcialmente produzido com apoio de um modelo de linguagem baseado no Azure OpenAI GPT-4o, ferramenta licenciada pelo próprio departamento.
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–
Apesar disso, a consultoria manteve suas conclusões, afirmando que os ajustes “não impactam o conteúdo nem as recomendações do relatório”. A devolução, segundo o DEWR, corresponde à última parcela do contrato e será divulgada após a conclusão do processo.
O caso ganhou repercussão após o pesquisador Christopher Rudge, da Universidade de Sydney, identificar “alucinações” típicas de sistemas de IA — situações em que o modelo inventa dados ou fontes. “As novas versões substituíram referências falsas por várias outras igualmente incorretas”, afirmou.
A senadora trabalhista Deborah O’Neill criticou duramente o episódio, afirmando que a Deloitte “tem um problema de inteligência humana”. Para ela, o caso evidencia a falta de transparência sobre o uso de IA em serviços de consultoria. “Talvez os contratantes estivessem melhor assinando uma conta do ChatGPT”, ironizou.
Mesmo com a polêmica, o governo afirmou que as recomendações do relatório permanecem válidas e que as correções foram limitadas a notas de rodapé e referências.
O episódio reacende o debate sobre o uso de ferramentas de IA em relatórios técnicos e consultorias públicas — especialmente quando há risco de comprometer a precisão de informações que embasam políticas governamentais.
Leia mais:
- Magalu e DIO oferecem 10 mil bolsas para formação em back-end com Python e IA
- Google perde na Suprema Corte e terá que abrir Play Store a rivais
- Atos abre 85 vagas de emprego de tecnologia com trabalho remoto e híbrido
Leia a matéria no Canaltech.