No último mês de julho, discussões e polêmicas envolvendo o ChatGPT surgiram por conta do cancelamento da ferramenta de tornar as conversas buscáveis, o que divulgava conversas privadas não só com quem o usuário compartilhou, mas com a internet inteira. A OpenAI emitia mensagens avisando sobre o compartilhamento, mas os usuários aparentemente não entenderam o escopo da decisão — e milhares de dados sensíveis e informações muito pessoais “vazaram”.
- Entenda os perigos de compartilhar suas informações com o ChatGPT
- Especialista explica por que não revelar dados pessoais a uma IA
Agora, pesquisadores da SafetyDetective analisaram os dados de 1.000 conversas que chegaram à internet, revelando as tendências de comportamento dos usuários e pensando nas melhores formas de lidar com chatbots de inteligência artificial. São mais de 43 milhões de palavras que mostram pessoas usando o ChatGPT como terapeuta, consultor e confidente, falando coisas que não contariam nem para amigos.
O que usuários falam com o ChatGPT
Segundo a pesquisa, as conversas vão muito além dos prompts comuns. Alguns usuários deram informações muito pessoais, desde nome completo e telefone a endereço e currículo completo, mas outros abordaram tópicos mais sensíveis. Eles incluem ideações suicidas, planejamento familiar, discriminação, uso de drogas e muito mais. Poucas conversas representaram o maior volume de dados: de 1.000 chats, 100 continham mais da metade do total de palavras analisadas.
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–

Uma conversa em particular chegou a 116.024 palavras, o que levaria dois dias para escrever em uma velocidade média. Quase 60% dos chats caíam na categoria “consulta profissional”, onde o usuário pede à IA ajuda em questões legais, educação e até saúde mental ao invés de buscar um profissional da área. Isso, segundo os pesquisadores, mostra o nível de confiança dos internautas no serviço da OpenAI, destacando os riscos de quando a resposta é imprecisa ou chats são vazados.
A análise mostrou que os usuários não entenderam totalmente o que significava tornar o chat buscável, além do design da ferramenta tornar fácil a chegada de conversas privadas à internet. A IA também mostrou alucinar com frequência, dizendo, por exemplo, ter salvo um documento quando isso não aconteceu. Em uma conversa casual, isso não é particularmente preocupante, mas quando o chatbot é tratado como uma ferramenta profissional, os problemas começam.
O que fazer?
Informações pessoais, para piorar, podem acabar sendo usadas para golpes de phishing, roubo de identidade e doxxing. Segundo a SafetyDetective, a OpenAI nunca fez garantias de privacidade fortes sobre as conversas compartilhadas. A recomendação dos especialistas é que companhias de IA façam seus avisos serem mais claros e as ferramentas de compartilhamento mais intuitivas, além de ocultar informações pessoais antes de jogar a conversa na internet.

Também recomenda-se pesquisar mais sobre o comportamento dos usuários, buscando entender porque alguns deles conversam tanto com a IA e porque tratam a tecnologia como terapeuta ou especialista em temas complexos. Quais as consequências de confiar num sistema que imita o tom da nossa conversa, espalha desinformação e falha em proteger dados pessoais? Não sabemos ainda.
Visto que, apesar da ferramenta de compartilhamento ter sido removida, os usuários continuam confidenciando coisas pessoais à IA, é recomendado evitar inserir informações sensíveis nos chatbots, não importa o quão privada pareça a tecnologia. O problema, segundo os especialistas, é menos sobre o vazamento do ChatGPT e mais sobre a confiança dos usuários em compartilhar coisas que hesitariam em falar com outro humano.
Veja também no Canaltech:
- 7 alternativas ao ChatGPT gratuitas
- Como vai funcionar o controle parental do ChatGPT? Conheça a nova função da IA
- ChatGPT ganha nova IA para gerar imagens com textos legíveis
VÍDEO | Chat GPT, Perplexity, Claude, Gemini: QUAL escolher?
Leia a matéria no Canaltech.