OpenAI adota controles parentais no ChatGPT após crises de saúde mental

Tecnologia
Resumo
  • OpenAI vai lançar controles parentais no ChatGPT, permitindo que responsáveis configurem respostas e recebam alertas de risco.
  • A medida ocorre após relatos de crises de saúde mental e processo de pais que acusam a empresa de negligência em caso de suicídio.
  • Chatbot também passará a usar modelo de raciocínio mais avançado em conversas sensíveis, buscando aplicar salvaguardas com mais consistência.

A OpenAI anunciou nesta terça-feira (02/09) que o ChatGPT terá recursos de controle parental, como configurações adicionais e alertas em momentos de estresse emocional intenso. Além disso, o modelo de “raciocínio” da empresa será encarregado de lidar com situações mais delicadas.

As medidas chegam após diversos relatos de crises de saúde mental envolvendo chatbots de inteligência artificial generativa. No fim de agosto, os pais de um jovem de 16 anos processaram a OpenAI por morte por negligência — seu filho cometeu suicídio, e a ação apresenta indícios de que o ChatGPT pode ter agravado a situação ao longo de meses.

Quais são os controles parentais do ChatGPT?

Segundo a OpenAI, contas de adolescentes poderão ser vinculadas a de pais ou responsáveis, que poderão definir a maneira como o chatbot responde ou desativar a memória e o histórico de chats.

O ChatGPT também poderá notificar os adultos quando o adolescente vinculado estiver passando por um “momento de sofrimento agudo” com base nas conversas.

A OpenAI diz que os controles parentais devem ser lançados ao longo do próximo mês, sem especificar uma data. Vale lembrar que apenas maiores de 13 anos podem usar o ChatGPT, de acordo com os termos da empresa.

Modelo mais avançado vai entrar em cena durante crises

A OpenAI também anunciou que, ao detectar conversas sensíveis, o ChatGPT passará a usar modelos de “raciocínio”, como o GPT-5-thinking, que usam seu processamento de linguagem de forma mais detalhada para tentar lidar melhor com problemas complexos.

Segundo a empresa, esses modelos aplicam proteções de forma mais consistente. Em um comunicado anterior, a companhia admitiu que as salvaguardas desenvolvidas para o ChatGPT são menos efetivas depois de algum tempo de conversa. Quando o robô passa a considerar uma quantidade maior de dados, ele deixa de respeitar regras de segurança.

IA surge como risco à saúde mental

Nos últimos meses, circularam diversos relatos de crises de delírio e paranoia ligadas ao uso de chatbots de IA generativa. A situação ganhou até um termo específico: “psicose induzida por IA”.

O problema vem sendo discutido de maneira mais frequente por pesquisadores e críticos. Mustafa Suleyman, CEO de IA da Microsoft, defendeu que a IA não deve ser uma “pessoa digital”.

Dave Winer, veterano do setor de tecnologia e pioneiro da web, foi além e sugeriu que a IA não deveria conversar como se fosse um humano, e sim funcionar da mesma forma que um programa de computador qualquer.

Reverter essa tendência, porém, pode não ser tão simples. O pesquisador Leif Weatherby argumenta que as pessoas estão usando o ChatGPT e outras ferramentas do tipo como forma de entretenimento, para além de fins práticos.

Uma onda de reclamações após o lançamento do GPT-5 sugere que Weatherby tem razão: os usuários disseram que o robô estava menos próximo e mais impessoal. A OpenAI trouxe de volta o modelo anterior.

Com informações do Axios e da CNN

OpenAI adota controles parentais no ChatGPT após crises de saúde mental