
Resumo
- A polícia de West Midlands, no Reino Unido, usou dados falsos gerados pelo Microsoft Copilot para banir torcedores do Maccabi Tel Aviv em um jogo.
- O chefe de polícia, Craig Guildford, admitiu o erro após inicialmente negar o uso de IA, atribuindo-o a uma “raspagem de dados de redes sociais”.
- A investigação revelou viés de confirmação e informações exageradas, levando a críticas políticas e questionamentos sobre a liderança de Guildford.
A polícia do condado de West Midlands, no Reino Unido, admitiu ter utilizado informações falsas geradas por inteligência artificial para embasar decisões de segurança pública. A corporação confirmou que incluiu, em um relatório oficial, uma partida de futebol que nunca correu, mas que levou ao banimento da torcida do Maccabi Tel Aviv no jogo contra o Aston Villa pela Liga Europa.
Os dados do jogo inexistente, segundo a instituição, foram alucinações do Microsoft Copilot. O reconhecimento do erro veio por meio de uma carta enviada ao Comitê de Assuntos Internos do Parlamento britânico, na qual a polícia admite não ter havido a devida checagem dos fatos.
No documento, o chefe da força policial, Craig Guildford, reverteu declarações anteriores e confirmou que a ferramenta da Microsoft foi a fonte da desinformação utilizada para justificar restrições a um grupo de torcedores.
Em dezembro, quando questionado inicialmente sobre a inconsistência no relatório, Guildford havia negado o uso de IA. Na ocasião, ele atribuiu o erro a uma “raspagem de dados de redes sociais”.
Jogo que nunca existiu

O relatório defeituoso tinha como objetivo avaliar os riscos de uma partida real pela Liga Europa, realizada em novembro do ano passado, entre o time inglês Aston Villa e o israelense Maccabi Tel Aviv. O documento classificou o evento como de “alto risco”, recomendando o banimento de torcedores visitantes.
Para sustentar a decisão, o texto citava supostos “confrontos violentos e crimes de ódio” ocorridos em um jogo anterior entre o Maccabi e o West Ham. O problema é que essa partida jamais aconteceu: a IA inventou o confronto e o histórico de violência, e os oficiais responsáveis pelo relatório incluíram a informação no documento final sem verificar a veracidade.
Erro deve custar cargos na corporação
O caso escalou para a esfera política nacional. Após a revelação do uso da IA, a secretária do Interior do Reino Unido, Shabana Mahmood, declarou ter “perdido a confiança” na liderança de Craig Guildford.
Segundo o jornal The Guardian, uma investigação independente conduzida pelo inspetorado de polícia (HMICFRS) concluiu que o relatório não continha apenas o erro da partida inventada. De acordo com a apuração, outras informações sobre a torcida israelense foram “exageradas ou simplesmente falsas”.

O inspetor Andy Cooke apontou que a força policial sofreu de “viés de confirmação”, buscando dados (reais ou alucinados) que apenas confirmassem a decisão prévia de banir os torcedores, em vez de avaliar o cenário objetivamente.
Mahmood afirmou que o episódio representa uma “falha de liderança” que prejudicou a reputação da polícia britânica como um todo. Embora a secretária não tenha poder direto para demitir o chefe de polícia (uma prerrogativa do comissário local), ela indicou que buscará “garantias urgentes” de que mudanças serão feitas na corporação.
Vale lembrar que o Copilot, como tantas outras IAs, exibe avisos na interface alertando que “pode cometer erros”. Mesmo assim, a ferramenta foi utilizada para gerar dados sensíveis de inteligência policial sem a validação necessária. A Microsoft não comentou o caso.
Polícia britânica baseou estratégia de segurança em dado falso gerado por IA

