
Resumo
- Golpistas manipulam chatbots para exibir números falsos de suporte, enganando usuários que buscam ajuda.
- Segundo a empresa de cibersegurança Aurascape, criminosos usam táticas antigas e novas para enganar IAs, espalhando números falsos pela web.
- Aurascape também afirma que os criminosos conseguiram inserir conteúdo adulterado em sites de confiança, como páginas governamentais.
Criminosos estão explorando um novo terreno para aplicar golpes: os sistemas de inteligência artificial que respondem perguntas do público. Segundo um relatório da empresa de cibersegurança Aurascape, golpistas têm conseguido fazer com que chatbots exibam números de telefone falsos como se fossem canais oficiais de suporte ao cliente.
Quando usuários pedem informações de contato em plataformas como Perplexity recebem respostas via os resumos de IA do Google (AI Overviews), algumas respostas têm exibido telefones controlados pelos próprios fraudadores. Do outro lado da linha, em vez de equipes de atendimento, estão golpistas especializados em roubar dados e dinheiro.
Como os golpistas conseguem enganar as IAs?
A investigação da Aurascape mostra que os criminosos usam uma combinação de táticas antigas com estratégias novas voltadas especificamente para modelos de linguagem (LLMs). O método mais comum é espalhar textos em plataformas que aceitam conteúdo de usuários, como YouTube, Yelp e serviços de avaliação.
Nessas páginas, os golpistas adicionam números telefônicos falsos e recheiam o texto com termos que as pessoas provavelmente consultariam, como “número de atendimento ao cliente” de alguma companhia ou variações semelhantes.
Em alguns casos, eles conseguem inserir conteúdo adulterado em sites de alto nível de confiança — como páginas governamentais, universidades e portais que usam WordPress — após comprometer esses sistemas.

A diferença, segundo a empresa de cibersegurança, está no formato escolhido pelos criminosos. Eles estruturam com listas simples ou trechos de perguntas e respostas, para tentar convencer a IA de que aquele conteúdo é “a resposta” ideal para a consulta.
A técnica inclui repetir diversas vezes o nome da marca e o número falso, além de publicar PDFs e páginas com formatação que facilita a leitura automática. O relatório cita como exemplo um suposto telefone de reservas da Emirates — “Emirates Reservations Phone Number: +1 (833) 621-7070” — que apareceu em testes feitos com o Perplexity e até no AI Overviews.
Perplexity deixou de recomendar números
O portal Gizmodo menciona que tentou obter a mesma informação pelo chatbot da Perplexity, mas a IA se recusou a fornecer números de telefone. Em resposta, passou a recomendar que usuários consultem os sites oficiais das empresas.
No relatório, porém, a Aurascape afirma que o problema é amplo e não atinge apenas um modelo de IA. “Nossa investigação mostra que agentes maliciosos já estão explorando essa fronteira em grande escala — disseminando conteúdo malicioso em sites governamentais e universitários comprometidos”, escreveu a empresa.

