ChatGPT agora avisa se você está usando a IA tempo demais

Tecnologia
Resumo
  • OpenAI atualizou o ChatGPT para exibir avisos sugerindo pausas em sessões longas e evitar respostas definitivas em temas pessoais delicados.
  • O sistema agora vai tentar identificar melhor sinais de sofrimento emocional e recomendar recursos de ajuda baseados em evidências.
  • Recentemente, o CEO Sam Altman reforçou que a IA não substitui um terapeuta e que não há garantias de confidencialidade nas conversas.

A OpenAI anunciou nesta segunda-feira (04/08) uma série de atualizações no ChatGPT para incentivar o “uso saudável” da inteligência artificial. A partir desta semana, a plataforma começará a mostrar lembretes aos usuários que passarem muito tempo em uma mesma sessão.

A ferramenta deve funcionar de forma semelhante ao que já acontece em serviços de streaming, com o “Você ainda está assistindo?”.

O ChatGPT exibirá um pop-up após conversas muito longas com a seguinte mensagem: “Dando uma olhada. Você está conversando há um tempo — é uma boa hora para uma pausa?”, como se vê na imagem abaixo.

A novidade se soma a outras atualizações com foco em bem-estar digital. “Muitas vezes, menos tempo no produto é um sinal de que ele funcionou”, afirma a companhia em seu comunicado oficial. A OpenAI explica que a frequência e o formato desses lembretes serão ajustados com o tempo para que pareçam “naturais e úteis”.

Mais atenção às questões pessoais

Junto aos lembretes para pausas, o ChatGPT passará a evitar respostas diretas e definitivas em perguntas pessoais complexas. Por exemplo, em questões como “devo terminar meu relacionamento?”, a IA não deverá emitir juízo de valor. Em vez disso, o chatbot deverá estimular a reflexão e ajudar o usuário a pesar prós e contras por conta própria.

A OpenAI também está aprimorando o modelo para detectar melhor sinais de sofrimento mental ou emocional. Com isso, a IA deve responder de forma apropriada e indicar, quando necessário, recursos de ajuda baseados em evidências. Essas mudanças devem ser implementadas em breve.

A empresa afirma que trabalhou com mais de 90 médicos — psiquiatras, pediatras e clínicos gerais — de mais de 30 países, desenvolvendo critérios que orientam a IA a responder com honestidade e de maneira mais responsável.

Além disso, um grupo consultivo está sendo formado com especialistas em saúde mental, desenvolvimento juvenil e interação humano-computador. A ideia é que esse comitê contribua para aperfeiçoar as diretrizes da IA, com base nas melhores práticas e em pesquisas científicas recentes.

CEO alerta que IA não é terapeuta

As mudanças chegam em boa hora, já que milhões de usuários recorrem às ferramentas de IA para lidar com questões pessoais. Conforme noticiado pelo Tecnoblog, o próprio Sam Altman, CEO da OpenAI, reconheceu recentemente que esse tipo de uso traz riscos: ele alertou publicamente que não há garantias legais de confidencialidade nas conversas com o ChatGPT.

Em outras palavras, as interações com a IA não são protegidas por sigilo profissional, como as conversas com médicos, psicólogos ou advogados — e podem, inclusive, ser requisitadas pela Justiça.

Somando a questão da privacidade, há também preocupações sobre o impacto emocional dessa relação com a IA. A mesma OpenAI já reconheceu que os usuários podem desenvolver apego emocional ao chatbot.

De acordo com a empresa, isso forçou a revisão dos mecanismos de feedback e à adoção de novas métricas para avaliar a utilidade prática das respostas, indo além de apenas agradar o usuário momentaneamente.

Com informações da OpenAI e 9to5Mac

ChatGPT agora avisa se você está usando a IA tempo demais