Agentes de IA ainda não realizam ciberataques sozinhos, mas estão quase lá

Tecnologia

O segundo Relatório Internacional de Segurança da IA foi publicado, concluindo que agentes de inteligência artificial e outros sistemas que utilizam a tecnologia ainda não são capazes de conduzir ataques cibernéticos por conta própria. Essas ferramentas, no entanto, auxiliam os cibercriminosos em diversos estágios de seus ataques.

O estudo anual é comandado pelo cientista da computação canadense Yoshua Bengio e inclui análises de mais de 100 especialistas de 30 países diferentes. Em suas conclusões, eles mostraram que os sistemas de IA evoluíram muito em relação ao ano anterior, aumentando a capacidade de automatizar e conduzir ataques virtuais mais rapidamente.

Agentes de IA, cibercrime e hackers

Um dos exemplos mais marcantes do uso de IA nos ciberataques foi descrito no relatório de novembro da Anthropic, onde revelou-se que espiões chineses abusaram da ferramenta Claude Code AI para automatizar ataques em cerca de 30 companhias de alto perfil, bem como organizações governamentais, com alguns sucessos.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Agentes de IA são ferramentas de inteligência artificial capazes de tomar suas próprias decisões: quanto tempo teremos até que consigam realizar ciberataques por conta própria? (Imagem: Reprodução/Inside Telecom)
Agentes de IA são ferramentas de inteligência artificial capazes de tomar suas próprias decisões: quanto tempo teremos até que consigam realizar ciberataques por conta própria? (Imagem: Reprodução/Inside Telecom)

Os cibercriminosos usam a tecnologia principalmente para escanear softwares em busca de vulnerabilidades e na escrita de código malicioso. Outra amostra dessas capacidades foi vista no Desafio Cibernético de IA DARPA (AIxCC), que dura dois anos e envolve duas equipes montando modelos de IA para buscar vulnerabilidades em softwares de código aberto. Os sistemas finalistas identificaram, de maneira autônoma, 77% das vulnerabilidades sintéticas usadas na rodada final, segundo a organização.

Embora a competição seja de hackers white hat usando a AI para consertar vulnerabilidades, os cibercriminosos empregam métodos semelhantes. Em fóruns clandestinos, atacantes têm relatado o uso da HexStrike AI, uma ferramenta de código aberto, para infectar dispositivos Citrix NetScaler em poucas horas após a empresa divulgar os problemas encontrados nas máquinas.

Com a melhoria dos sistemas de IA na escrita de códigos maliciosos, hackers têm vendido ransomware-as-a-service por R$ 260 por mês, por baixo. Segundo o relatório, no entanto, os agentes de IA ainda não conseguem realizar ataques com vários estágios por conta própria, já que travam facilmente em erros simples caso não tenham intervenção humana. Comandos irrelevantes e perda do estado operacional são algumas das falhas vistas.

Mesmo assim, o próprio relatório foi escrito antes do incidente da OpenClaw, o agente de IA antes conhecido como MoltBot e Clawdbot, e o Moltbook, que é basicamente uma plataforma de mídia social para agentes de IA feitos com vibe-coding. É uma questão de tempo até que a inteligência artificial, por si só, consiga realizar ataques do começo ao fim. A verdadeira preocupação é se estaremos preparados para isso.

Leia também:

VÍDEO | O Gemini é muito bom (e isso é um problema)

Leia a matéria no Canaltech.