
A inteligência artificial agora está sendo usada para algo muito mais sombrio: criar ameaças de morte assustadoramente realistas. Imagens, vídeos e áudios produzidos por IA estão transformando mensagens de ódio online em ataques pessoais que parecem reais, e as vítimas relatam níveis inéditos de medo e trauma.
- Casos de morte relacionados ao uso de chatbots de IA já somam três em todo mundo
- OpenAI teria relaxado proteções do ChatGPT pouco antes de morte de adolescente
Nos últimos anos, a inteligência artificial passou a imitar vozes, rostos e gestos com precisão impressionante. Com apenas uma foto ou poucos segundos de áudio, já é possível gerar vídeos e sons que simulam situações violentas, colocando pessoas reais em cenários de execução, tortura ou perseguição.
Essa capacidade elevou o nível das ameaças online: o que antes era um texto agressivo ou comentário ofensivo agora pode se transformar em um vídeo da vítima sendo atacada ou assassinada, algo que, visualmente, parece real o suficiente para causar pânico.
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–
Especialistas alertam que, com o avanço dessa tecnologia, qualquer pessoa com má intenção e sem habilidade técnica pode criar esse tipo de conteúdo. A violência digital, portanto, está deixando de ser um fenômeno restrito a hackers e especialistas.
Como as vítimas estão sendo afetadas

Além de causar medo imediato, esse tipo de ameaça gera insegurança constante e a sensação de que a fantasia pode se tornar real a qualquer momento. Em alguns casos, os ataques vêm acompanhados de tentativas de descobrir endereços, rotinas e locais frequentados pelas vítimas, criando um clima de terror que vai além das telas.
Um caso emblemático citado pelo The New York Times envolve a ativista australiana Caitlin Roper, que recebeu imagens geradas por IA mostrando seu próprio corpo enforcado, queimado e até sendo passado em um triturador. Detalhes como um vestido real que ela possuía tornaram o ataque ainda mais perturbador.
Outros episódios mostram até onde essa tecnologia já chegou:
- Uma juíza da Flórida recebeu um vídeo realista mostrando um avatar idêntico a ela sendo assassinada a tiros.
- Em uma escola nos Estados Unidos, um vídeo falso de um estudante com uma arma provocou lockdown e resposta policial imediata.
- Um advogado de Minneapolis relatou que um chatbot deu instruções a um usuário anônimo explicando como invadir sua casa, agredi-lo e ocultar o corpo.
Esses exemplos mostram que o ataque não é apenas psicológico: ele mobiliza autoridades, provoca pânico coletivo e coloca vidas em risco, mesmo quando a ameaça é falsa.
Plataformas e modelos de IA sob pressão
Empresas de tecnologia dizem ter sistemas de moderação e barreiras para impedir abusos, mas especialistas em segurança afirmam que essas defesas ainda falham com frequência. Há relatos de plataformas recusando pedidos de ajuda das vítimas ao mesmo tempo em que recomendam contas de agressores para seguir.
Novos modelos avançados de IA, especialmente aqueles capazes de gerar vídeo, ampliam o problema. Em testes, foi possível criar cenas violentas com uso de armas, perseguições e ferimentos graves envolvendo pessoas reais. Isso transforma ameaças virtuais em simulacros convincentes de crime.
A era das ameaças digitais personalizadas chegou, e não é ficção científica. De ataques individuais a episódios de pânico coletivo, como falsas invasões e alertas que mobilizam polícia e escolas, a inteligência artificial está ampliando tanto o alcance quanto o impacto emocional e social desses crimes. A pergunta agora não é mais “se” veremos mais casos, mas como instituições, plataformas e autoridades vão reagir.
Leia também:
- 1º processo por homicídio culposo envolvendo IA acusa OpenAI em caso de suicídio
- Chatbot sedutor | Idoso que “namorava com IA da Meta” morre em viagem para vê-la
VÍDEO | Todo mundo ODEIA a Inteligência Artificial
Leia a matéria no Canaltech.

