Chats vazados do ChatGPT mostram usuários tratando IA como terapeuta e advogada

Tecnologia

No último mês de julho, discussões e polêmicas envolvendo o ChatGPT surgiram por conta do cancelamento da ferramenta de tornar as conversas buscáveis, o que divulgava conversas privadas não só com quem o usuário compartilhou, mas com a internet inteira. A OpenAI emitia mensagens avisando sobre o compartilhamento, mas os usuários aparentemente não entenderam o escopo da decisão — e milhares de dados sensíveis e informações muito pessoais “vazaram”.

Agora, pesquisadores da SafetyDetective analisaram os dados de 1.000 conversas que chegaram à internet, revelando as tendências de comportamento dos usuários e pensando nas melhores formas de lidar com chatbots de inteligência artificial. São mais de 43 milhões de palavras que mostram pessoas usando o ChatGPT como terapeuta, consultor e confidente, falando coisas que não contariam nem para amigos.

O que usuários falam com o ChatGPT

Segundo a pesquisa, as conversas vão muito além dos prompts comuns. Alguns usuários deram informações muito pessoais, desde nome completo e telefone a endereço e currículo completo, mas outros abordaram tópicos mais sensíveis. Eles incluem ideações suicidas, planejamento familiar, discriminação, uso de drogas e muito mais. Poucas conversas representaram o maior volume de dados: de 1.000 chats, 100 continham mais da metade do total de palavras analisadas.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Conversas com o ChatGPT podem ficar muito pessoais, como análise de chats vazados mostra — quais os perigos de confiar demais na tecnologia? (Imagem: Reprodução/Canva / Arte/Canaltech)
Conversas com o ChatGPT podem ficar muito pessoais, como análise de chats vazados mostra — quais os perigos de confiar demais na tecnologia? (Imagem: Reprodução/Canva / Arte/Canaltech)

Uma conversa em particular chegou a 116.024 palavras, o que levaria dois dias para escrever em uma velocidade média. Quase 60% dos chats caíam na categoria “consulta profissional”, onde o usuário pede à IA ajuda em questões legais, educação e até saúde mental ao invés de buscar um profissional da área. Isso, segundo os pesquisadores, mostra o nível de confiança dos internautas no serviço da OpenAI, destacando os riscos de quando a resposta é imprecisa ou chats são vazados.

A análise mostrou que os usuários não entenderam totalmente o que significava tornar o chat buscável, além do design da ferramenta tornar fácil a chegada de conversas privadas à internet. A IA também mostrou alucinar com frequência, dizendo, por exemplo, ter salvo um documento quando isso não aconteceu. Em uma conversa casual, isso não é particularmente preocupante, mas quando o chatbot é tratado como uma ferramenta profissional, os problemas começam.

O que fazer?

Informações pessoais, para piorar, podem acabar sendo usadas para golpes de phishing, roubo de identidade e doxxing. Segundo a SafetyDetective, a OpenAI nunca fez garantias de privacidade fortes sobre as conversas compartilhadas. A recomendação dos especialistas é que companhias de IA façam seus avisos serem mais claros e as ferramentas de compartilhamento mais intuitivas, além de ocultar informações pessoais antes de jogar a conversa na internet.

Aos usuários, a recomendação é não confiar demais na privacidade dos chatbots e não compartilhar informações pessoais que possam ser comprometedoras ou usadas em golpes (Imagem: Reprodução/Freepik)
Aos usuários, a recomendação é não confiar demais na privacidade dos chatbots e não compartilhar informações pessoais que possam ser comprometedoras ou usadas em golpes (Imagem: Reprodução/Freepik)

Também recomenda-se pesquisar mais sobre o comportamento dos usuários, buscando entender porque alguns deles conversam tanto com a IA e porque tratam a tecnologia como terapeuta ou especialista em temas complexos. Quais as consequências de confiar num sistema que imita o tom da nossa conversa, espalha desinformação e falha em proteger dados pessoais? Não sabemos ainda.

Visto que, apesar da ferramenta de compartilhamento ter sido removida, os usuários continuam confidenciando coisas pessoais à IA, é recomendado evitar inserir informações sensíveis nos chatbots, não importa o quão privada pareça a tecnologia. O problema, segundo os especialistas, é menos sobre o vazamento do ChatGPT e mais sobre a confiança dos usuários em compartilhar coisas que hesitariam em falar com outro humano.

Veja também no Canaltech:

VÍDEO | Chat GPT, Perplexity, Claude, Gemini: QUAL escolher?

Leia a matéria no Canaltech.