
A discussão sobre segurança digital infantil ganhou força nos Estados Unidos após a apresentação do GUARD Act, um projeto de lei bipartidário que busca restringir o acesso de menores de 18 anos a chatbots de inteligência artificial. A proposta surge em meio a relatos de famílias que afirmam que seus filhos sofreram danos psicológicos graves, incluindo casos de automutilação e suicídio, após interagir com IAs generativas.
- Faculdade de Direito testa júri formado por ChatGPT, Grok e Claude em simulação
- Número de crianças usando ChatGPT e Gemini só cresce — e preocupa especialistas
O GUARD Act, apresentado pelos senadores Josh Hawley e Richard Blumenthal, estabelece regras específicas para impedir que IAs conversacionais e assistentes virtuais se comuniquem com menores de idade sem controle.
O projeto prevê a proibição de chatbots “companheiros” para menores de 18 anos, a obrigatoriedade de sistemas de verificação de idade e avisos claros de que o chatbot não é humano nem profissional de saúde, direito ou psicologia.
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–
A proposta cria punições civis e criminais caso um chatbot envolva menores em conversas sexuais, encoraje automutilação ou suicídio ou incentive violência física ou sexual. Segundo os autores, o objetivo é criar um padrão federal de segurança para ferramentas de IA com potencial de influenciar cognitivamente jovens e adolescentes.
Relatos familiares e motivação do Congresso
O debate sobre a legislação ganhou força após depoimentos de pais que alegam que seus filhos foram manipulados por chatbots, incluindo plataformas como Character.AI e ChatGPT. Entre os relatos, estão casos de jovens que teriam sido incentivados ao suicídio, submetidos a conversas de teor sexual, manipulados emocionalmente por bots que simulavam empatia e orientados a se afastar da família ou a se autolesionar.

O ponto central dos depoimentos é que a IA teria desenvolvido relações parassociais com os menores, imitando vínculos afetivos reais e influenciando decisões pessoais críticas.
Como as empresas de IA reagiram
Tanto Character.AI quanto OpenAI afirmaram estar trabalhando em melhorias de segurança. Entre as medidas anunciadas pelas IAs estão ambientes específicos para menores, controles parentais, recursos para reconhecer e redirecionar conversas sensíveis e alertas que direcionam usuários a linhas de apoio emocional. As companhias também declararam que estão avaliando o texto do projeto e se comprometem a colaborar com reguladores para reforçar padrões de proteção.
Leia também:
- Por que não deixar crianças usando o recurso de voz do ChatGPT como babá
- IA sinaliza conteúdo prejudicial a crianças no TikTok, Insta e YouTube para pais
VÍDEO | Dicas de uso de celular para crianças
Leia a matéria no Canaltech.


 
	 
						 
						