Golpistas envenenam buscas de IA com falsos números de suporte

Tecnologia

As técnicas de envenenamento de IA e injeção de prompt, acompanhando a evolução dos próprios large language models (LLMs), também estão ficando mais avançadas. Agora, cibercriminosos estão promovendo números falsos de call center e suporte ao cliente nas fontes públicas usadas pelos chatbots.

A análise, publicada na última segunda-feira (8) pela Aurascape e realizada pela equipe Aura Labs, revelou uma manipulação sistemática das fontes públicas de dados, o que foi chamado pelos pesquisadores de “envenenamento de números de telefone de LLM”. IAs afetadas incluem a Visão Geral da Google e o navegador Comet, da Perplexity.

Envenenamento de telefones na LLM

A diferença nesse tipo de ataque, de acordo com o estudo, é que a técnica não mira diretamente nos modelos de linguagem, mas sim em afetar o conteúdo que os chatbots pesquisam para dar suas respostas. Pense na Search Engine Optimization (SEO), ou otimização de motor de busca, em tradução livre, que consiste em modelar o conteúdo para que buscadores como o Google recomendem mais a sua página web.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Páginas e vídeos do YouTube inserindo números falsos de suporte enganam os chatbots de IA e os fazem recomendar golpistas aos usuários (Imagem: Aurascape)
Páginas e vídeos do YouTube inserindo números falsos de suporte enganam os chatbots de IA e os fazem recomendar golpistas aos usuários (Imagem: Aurascape)

O que ocorre nesse caso é a otimização de motor generativo (Generative Engine Optimization, GEO), que procura garantir que um site ou serviço online vire uma fonte usada para resumos de IA e pesquisas em chatbots. Isso é feito pelos golpistas ao subir conteúdo de spam em sites legítimos e confiáveis que foram comprometidos, como governamentais e de universidades.

Serviços públicos que permitem conteúdo gerado por usuários também são abusados, como YouTube e Yelp, recebendo respostas e números de telefone falsos. Casos notados pelos pesquisadores incluem resultados de busca pelo número oficial de reservas para Emirate Airlines e British Airlines, que retornam call centers fraudulentos como se fossem respostas legítimas.

O problema principal, de acordo com a Aurascape, é que as LLMs puxam tanto conteúdo legítimo quanto fraudulento, dificultando a detecção de golpes. Isso tem o potencial de afetar não só Google e Perplexity, mas chatbots de IA como um todo.

A recomendação aos usuários é de sempre checar, na fonte e em outros sites, a veracidade da informação oferecida, especialmente no que tange a números de contato. Também é preciso evitar oferecer qualquer informação sensível a assistentes de IA, especialmente se lembrarmos o quão pouco eles foram testados até hoje: a conveniência da IA não quer dizer, de forma alguma, que ela é segura.

Leia também:

VÍDEO | Chat GPT, Perplexity, Claude, Gemini: QUAL escolher?

Leia a matéria no Canaltech.