Califórnia é o 1º estado a regulamentar chatbots de IA — o que diz a lei SB 243

Tecnologia

A Califórnia se tornou o primeiro estado dos Estados Unidos a regulamentar chatbots de inteligência artificial (IA). A Lei SB nº 243 foi sancionada nesta segunda-feira (13) pelo governador Gavin Newsom, e entrará em vigor em 1º de janeiro de 2026.

A lei prevê o fortalecimento de mecanismos de segurança para crianças e a criação de novas salvaguardas para essa tecnologia emergente. A legislação estabelece que as plataformas de IA devem adicionar recursos obrigatórios, como:

  • Verificação de idade
  • Protocolos para lidar com suicídio e automutilação
  • Alertas sobre chatbots complementares
  • Penalidades severas para quem lucrar com deepfakes ilegais
  • Responsabilização pelos danos causados por ferramentas de IA

“Tecnologias emergentes como chatbots e mídias sociais podem inspirar, educar e conectar — mas, sem proteções reais, também podem explorar, enganar e colocar nossas crianças em perigo”, escreveu o governador da Califórnia em comunicado.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Newsom citou ainda exemplos “horríveis e trágicos” de jovens que interagiram com sistemas de IA que, até então, não eram regulamentados, e afirmou que as empresas precisam de limites e responsabilização diante das interações dos usuários com as ferramentas.

ChatGPT
Lei prevê a criação de novas salvaguardas em chatbots de IA e maior responsabilização das empresas  (Pexels/Matheus Bertelli)

Projeto de lei ganhou força após morte de adolescente

O Projeto de Lei nº 243 foi apresentado em janeiro de 2025 pelos senadores estaduais Steve Padilla e Josh Becker. Contudo, o texto ganhou força após a morte de Adam Raine, jovem de 16 anos que conversou durante meses sobre suicídio com o ChatGPT, ferramenta da OpenAI.

Um dos pontos da nova lei refere-se exatamente a esse tipo de interação. As salvaguardas para chatbots de IA devem incluir protocolos para identificar e abordar ideações suicidas dos usuários.

Além disso, as ferramentas deverão informar aos usuários que as respostas são geradas artificialmente e impedir que menores de idade visualizem imagens sexualmente explícitas criadas por chatbots.

As plataformas também serão obrigadas a divulgar protocolos para lidar com conversas relacionadas à automutilação, além de estatísticas sobre a frequência com que fornecem notificações de prevenção de crises aos usuários.

“Podemos continuar a liderar em IA e tecnologia, mas devemos fazê-lo com responsabilidade — protegendo nossas crianças em cada etapa do caminho. A segurança das nossas crianças não está à venda”, ressaltou Gavin Newsom.

Leia mais: 

VÍDEO | Cuidado com o que você pede para o ChatGPT

Leia a matéria no Canaltech.