
Resumo
- OpenAI atualizou o ChatGPT para exibir avisos sugerindo pausas em sessões longas e evitar respostas definitivas em temas pessoais delicados.
- O sistema agora vai tentar identificar melhor sinais de sofrimento emocional e recomendar recursos de ajuda baseados em evidências.
- Recentemente, o CEO Sam Altman reforçou que a IA não substitui um terapeuta e que não há garantias de confidencialidade nas conversas.
A OpenAI anunciou nesta segunda-feira (04/08) uma série de atualizações no ChatGPT para incentivar o “uso saudável” da inteligência artificial. A partir desta semana, a plataforma começará a mostrar lembretes aos usuários que passarem muito tempo em uma mesma sessão.
A ferramenta deve funcionar de forma semelhante ao que já acontece em serviços de streaming, com o “Você ainda está assistindo?”.
O ChatGPT exibirá um pop-up após conversas muito longas com a seguinte mensagem: “Dando uma olhada. Você está conversando há um tempo — é uma boa hora para uma pausa?”, como se vê na imagem abaixo.

A novidade se soma a outras atualizações com foco em bem-estar digital. “Muitas vezes, menos tempo no produto é um sinal de que ele funcionou”, afirma a companhia em seu comunicado oficial. A OpenAI explica que a frequência e o formato desses lembretes serão ajustados com o tempo para que pareçam “naturais e úteis”.
Mais atenção às questões pessoais
Junto aos lembretes para pausas, o ChatGPT passará a evitar respostas diretas e definitivas em perguntas pessoais complexas. Por exemplo, em questões como “devo terminar meu relacionamento?”, a IA não deverá emitir juízo de valor. Em vez disso, o chatbot deverá estimular a reflexão e ajudar o usuário a pesar prós e contras por conta própria.
A OpenAI também está aprimorando o modelo para detectar melhor sinais de sofrimento mental ou emocional. Com isso, a IA deve responder de forma apropriada e indicar, quando necessário, recursos de ajuda baseados em evidências. Essas mudanças devem ser implementadas em breve.
A empresa afirma que trabalhou com mais de 90 médicos — psiquiatras, pediatras e clínicos gerais — de mais de 30 países, desenvolvendo critérios que orientam a IA a responder com honestidade e de maneira mais responsável.
Além disso, um grupo consultivo está sendo formado com especialistas em saúde mental, desenvolvimento juvenil e interação humano-computador. A ideia é que esse comitê contribua para aperfeiçoar as diretrizes da IA, com base nas melhores práticas e em pesquisas científicas recentes.
CEO alerta que IA não é terapeuta

As mudanças chegam em boa hora, já que milhões de usuários recorrem às ferramentas de IA para lidar com questões pessoais. Conforme noticiado pelo Tecnoblog, o próprio Sam Altman, CEO da OpenAI, reconheceu recentemente que esse tipo de uso traz riscos: ele alertou publicamente que não há garantias legais de confidencialidade nas conversas com o ChatGPT.
Em outras palavras, as interações com a IA não são protegidas por sigilo profissional, como as conversas com médicos, psicólogos ou advogados — e podem, inclusive, ser requisitadas pela Justiça.
Somando a questão da privacidade, há também preocupações sobre o impacto emocional dessa relação com a IA. A mesma OpenAI já reconheceu que os usuários podem desenvolver apego emocional ao chatbot.
De acordo com a empresa, isso forçou a revisão dos mecanismos de feedback e à adoção de novas métricas para avaliar a utilidade prática das respostas, indo além de apenas agradar o usuário momentaneamente.