China propõe regulamentação para impedir que IAs manipulem emoções

Tecnologia
Resumo
  • A China propôs regulamentação para impedir que IAs manipulem emoções e incentivem suicídio ou jogos de azar.
  • As regras exigem que chatbots de IA não encorajem automutilação e transfiram conversas para humanos se houver risco de suicídio.
  • Chatbots com mais de 1 milhão de usuários ou 100 mil usuários mensais ativos passarão por avaliações de segurança.

A China apresentou uma proposta de regulamentação de serviços interativos de inteligência artificial. As regras visam combater incentivos ao suicídio, manipulação emocional e conteúdo relacionado a jogos de azar, entre outros assuntos.

A Administração do Ciberespaço receberá comentários sobre seus planos ao longo de um mês. A legislação valerá para produtos ou serviços de IA que simulam a personalidade humana e engajem com os usuários por texto, imagens, áudio ou vídeo.

O que dizem as novas regras da China para IA?

De acordo com a CNBC, que traduziu o comunicado divulgado pela Administração do Ciberespaço da China, estas são as principais normas propostas.

  • Chatbots de IA não podem encorajar suicídio ou automutilação.
  • Chatbots de IA não podem engajar em violência verbal ou manipulação emocional que prejudique a saúde mental dos usuários.
  • Se um usuário demonstrar intenção de cometer suicídio, as empresas devem transferir a conversa para um operador humano e entrar imediatamente em contato com o responsável ou alguém próximo ao usuário.
  • Chatbots de IA não devem gerar conteúdos relacionados a jogos de azar, obscenos ou violentos.
  • Menores de idade devem ter autorização de um responsável para usar IA como companhia emocional, com limites de acesso.
  • As plataformas devem ser capazes de identificar se um usuário é menor, mesmo se ele não revelar sua idade. Em caso de dúvida, as configurações para menores devem ser aplicadas, e o usuário pode recorrer da decisão.
  • Serviços de IA precisarão enviar lembretes caso o usuário use a ferramenta por mais de duas horas seguidas.
  • Chatbots com mais de 1 milhão de usuários registrados ou mais de 100 mil usuários mensais ativos precisarão passar por avaliações de segurança.

Qual o impacto da regulamentação proposta?

Entrevistado pela CNBC, Winston Ma, professor da Escola de Direito da Universidade de Nova York, disse que as leis marcariam a primeira tentativa no mundo de regular modelos de IA com características humanas ou antropomórficas.

O acadêmico avalia que a nova proposta é um salto em relação à regulamentação de IA generativa de 2023, passando de segurança de conteúdo para segurança emocional.

A CNBC também nota que duas das principais startups de IA da China, Z.ai e Minimax, iniciaram, em dezembro de 2025, os procedimentos necessários para abrir capital na bolsa de valores de Hong Kong. Elas podem ser afetadas pelas novas regras.

Enquanto isso, nos Estados Unidos, a OpenAI está em busca de um novo chefe para seu setor de prevenção, que deverá lidar com riscos de saúde mental. Ao longo de 2025, a companhia teve que lidar com casos em que o ChatGPT teria encorajado suicídios.

Com informações da CNBC

China propõe regulamentação para impedir que IAs manipulem emoções