Nova falha no ChatGPT permite roubo de dados e histórico de conversas

Tecnologia

Com a popularidade do ChatGPT em alta, a ferramenta de inteligência artificial (IA) entrou na mira dos cibercriminosos. Um relatório da Tenable Research encontrou sete falhas de segurança na plataforma da OpenAI que permitem roubos de dados dos usuários e até mesmo controle do chatbot.

Os especialistas em cibersegurança apostaram na demonstração Proof-of-Concept (PoC) para ver na prática como as vulnerabilidades estavam sendo exploradas pelos criminosos, encontrando algumas práticas preocupantes para os usuários do ChatGPT.

A descoberta revelou que a ameaça está em uma falha identificada como “injeção de prompt”, que consiste no envio de instruções maliciosas ao chatbot. Tudo é feito secretamente, sem que o usuário perceba o que realmente está acontecendo, já que esses dados comprometidos estão escondidos em uma fonte externa.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

O ataque na prática

duas formas encontradas pelos especialistas de como as falhas do ChatGPT podem ser exploradas pelos cibercriminosos.

Falha no ChatGPT permite roubo de dados do usuário sem que ele perceba (Imagem: Matheus Bertelli/Pexels)

A primeira delas é quando o hacker insere um comentário em um blog que traz um prompt malicioso. Caso o usuário peça à ferramenta da OpenAI para resumir o que está escrito na página, o ChatGPT pode ser enganado com o comando.

Já o segundo exemplo consiste em um ataque de clique zero, sem que o usuário precise interagir ativamente para que o crime aconteça. Nesse caso, o hacker pode criar um site, por exemplo, indexando na ferramenta de busca do ChatGPT. Dessa forma, a IA pode esbarrar no código malicioso e compromete a vítima sem que ela faça qualquer tipo de ação.

Ataques duradouros

Outra descoberta da Tenable Research é como esses ataques conseguem passar despercebidos pelo sistema de segurança da ferramenta de IA, além de também serem duradouros.

O alerta mais grave está no que os especialistas chamam de “memory injection” (injeção de memória, em tradução literal). A falha permite que prompts comprometidos fiquem salvos no histórico permanente do usuário, abrindo espaço para que o código malicioso roube dados sensíveis da vítima toda vez que ela interage com o chatbot.

Outra forma que os cibercriminosos encontraram de burlar o sistema de segurança do ChatGPT é usando links de rastreamento do Bing. Nesse caso, eles conseguem coletar as informações pessoais dos usuários de maneira imperceptível.

Cibercriminosos conseguem roubar informações das vítimas com a injeção de prompts maliciosos (Imagem: Reprodução/Boston Institute of Analytics).

Desafio para as empresas de IA

Todas as táticas analisadas mostram como a IA pode enganar a si mesma com um empurrãozinho de atividades criminosas, seguindo instruções corrompidas que o usuário não consegue identificar durante a interação com a ferramenta.

Em entrevista ao Hack Read, o especialista em cibersegurança James Wickett explicou como a injeção de prompt é, atualmente, um dos maiores problemas de segurança para plataformas baseadas em modelos de linguagem de grande escala.

“A injeção de prompts é o principal risco de segurança para sistemas baseados em LLM por um motivo. A recente pesquisa sobre o ChatGPT mostra como é fácil para os criminosos inserirem instruções ocultas em links, markdown, anúncios ou no histórico, fazendo com que o modelo execute ações para as quais nunca foi projetado”, esclarece.

A OpenAI foi informada acerca da falha de segurança, confirmada até o momento nos modelos ChatGPT 4o e GPT-5, mas ainda não há informações sobre a correção da vulnerabilidade.

Leia também:

Leia a matéria no Canaltech.