Google descobre malware que usa IA para gerar novos códigos após invasão

Tecnologia
Resumo
  • O Google identificou malwares que usam IA generativa, como o PromptFlux e o PromptSteal, para criar novos códigos e evitar detecção.
  • Especialistas consideram que os malwares com IA ainda são limitados e ineficazes, com prompts fracos e falhas frequentes.
  • O Google ajustou configurações do Gemini após descobrir falhas que permitiam gerar códigos maliciosos sob disfarce de hacker ético.

O Google publicou um relatório em que revela ter encontrado famílias de malware que usam inteligência artificial generativa durante a execução, criando novos códigos para roubar dados ou driblar sistemas de detecção.

Um exemplo é o PromptFlux. Ele usa a API do Gemini para reescrever seu código-fonte e evitar a detecção por sistemas de defesa. Outra amostra encontrada, o PromptSteal acessa um LLM hospedado no Hugging Face para gerar linhas de comando a serem executadas na máquina infectada, com o objetivo de roubar dados da vítima.

Já o PromptLock foi criado como parte de um estudo acadêmico que visava justamente analisar se os modelos de linguagem de larga escala (LLMs) são capazes de “planejar, adaptar e executar um ataque de ransomware”.

“Embora algumas implementações sejam experimentais, elas fornecem um indicador inicial de como as ameaças estão evoluindo e como podem integrar recursos de IA em futuras atividades de invasão”, diz o documento. “Os agentes estão indo além do ‘vibe coding’ e do patamar observado em 2024, de usar ferramentas de IA como suporte técnico.”

Ameaça existe, mas impacto real ainda é limitado

Apesar das descobertas, especialistas em cibersegurança consideram que não há nada de muito perigoso nos malwares criados com ajuda de inteligência artificial. O pesquisador Marcus Hutchins, famoso por sua atuação contra o ransomware WannaCry, aponta que os prompts presentes nas amostras analisadas pelo Google ainda são fracos ou inúteis.

“[O prompt] não especifica o que o bloco de código deve fazer ou como deve escapar de um antivírus. Ele parte da premissa de que o Gemini vai saber instintivamente como driblar as proteções (ele não sabe)”, escreveu Hutchins em sua página no LinkedIn.

Kevin Beaumont, também especialista no setor, tem uma avaliação semelhante. “Eu olhei as amostras. Muitas nem funcionam, falham imediatamente. Não tem nenhum perigo, se você tiver controles básicos de segurança”, comentou no post do colega.

O site Ars Technica conversou com profissionais de segurança. Um deles, que não quis se identificar, também minimizou o uso da tecnologia. “[A IA está] apenas ajudando autores de malware a fazer o que já faziam. Nada novo. A IA vai melhorar, mas não sabemos quando nem quanto”, pondera.

O próprio Google diz, no relatório, que o PromptFlux ainda é experimental, sem ser capaz de invadir o dispositivo ou a rede de uma vítima. E os pesquisadores responsáveis pelo PromptLock afirmaram que sua prova de conceito tinha claras limitações em técnicas como persistência, movimentação lateral e táticas de evasão avançadas.

No mesmo relatório, o Google revela ter encontrado uma falha nas proteções do Gemini. Um agente mal-intencionado conseguiu levar a IA a gerar códigos maliciosos se passando por um hacker ético, que estaria participando de uma competição de cibersegurança. A companhia diz ter ajustado as configurações para impedir ataques desse tipo.

Com informações do Ars Technica e da PCMag

Google descobre malware que usa IA para gerar novos códigos após invasão