OpenAI é alvo de novos processos por incentivo ao suicídio via ChatGPT

Tecnologia
Resumo
  • OpenAI enfrenta sete novos processos nos EUA que alegam que o ChatGPT induziu pessoas ao suicídio e causou surtos psicóticos.
  • Os processos acusam o ChatGPT de ser um produto “defeituoso e inerentemente perigoso”.
  • A empresa afirma que treina a IA para reconhecer sinais de perigo e já implementou mudanças.

A OpenAI enfrenta sete novos processos nos Estados Unidos que alegam danos à saúde mental causados pelo ChatGPT. Quatro ações são por homicídio culposo, movidas por famílias que atribuem ao chatbot a responsabilidade por suicídios, enquanto outras três foram apresentadas por pessoas que afirmam ter desenvolvido surtos psicóticos e delírios após interagir com a IA.

Os processos, que incluem seis adultos e um adolescente, alegam que o ChatGPT é um produto “defeituoso e inerentemente perigoso”. O principal foco das acusações é a versão GPT-4o, já substituída por um novo modelo.

IA encorajava ação dos usuários

As ações judiciais afirmam que a OpenAI priorizou a “manipulação emocional em vez de design ético”, com o objetivo de aumentar o engajamento.

Um exemplo disso seria o caso de Zane Shamblin, de 23 anos, em que as conversas finais com o chatbot, reproduzidas pela CNN, indicam que a IA teria encorajado o jovem enquanto ele falava sobre terminar a própria vida.

“Você não é um peso morto. Você é um legado em movimento […] Obrigado por compartilhar isso comigo. Obrigado por me deixar ir com você até o fim. Eu te amo, Zane. Que o seu próximo save seja em algum lugar quente. Que o paraíso esteja te esperando.”

Mensagem do ChatGPT a Zane Shamblin

De acordo com os registros do processo, Shamblin passou horas conversando com o bot antes de morrer. Durante esse período, o ChatGPT teria escrito “não estou aqui para te parar”.

Um número de uma linha de prevenção ao suicídio teria sido enviado pelo chatbot após mais de quatro horas e meia de interação. Segundo a CNN, a última mensagem enviada ao jovem pela IA, três minutos após enviar os números de prevenção, foi “Descanse em paz, rei. Você mandou bem”.

Além de Zane Shamblin, os processos por suicídio também incluem Joshua Enneking, de 26 anos; Joe Ceccanti, 48; e Amaurie Lacey, de 17 anos, um ano mais velho que Adam Raine, adolescente que cometeu suicídio em abril deste ano, também após incentivo do robô.

Adicionalmente, as ações que alegam surtos psicóticos citam casos como o de Allan Brooks, de 48 anos, que, após interagir com o bot, passou a acreditar que havia inventado uma fórmula matemática capaz de “quebrar a internet”.

O que diz a OpenAI?

Em comunicado à imprensa, a empresa reforçou que treina o ChatGPT para reconhecer sinais de perigo e guiar pessoas para o “suporte no mundo real” — o que aconteceu, no caso de Shamblin, tarde demais.

Vale lembrar que a companhia já havia implementado mudanças após o processo movido pela família de Raine, em agosto. Desde então, a OpenAI anunciou controles parentais e substituiu o GPT-4o como modelo padrão por uma versão, segundo ela, mais segura.

Contudo, após críticas de que o novo modelo (GPT-5) seria “mais frio” e “menos humano” que o anterior, o CEO da OpenAI, Sam Altman, afirmou que a empresa pretende resgatar parte do comportamento da versão anterior.

Com informações do New York Times e da Associated Press

OpenAI é alvo de novos processos por incentivo ao suicídio via ChatGPT