IA e Regulamentação: Fórum da ESET mostra tendências na cibergurança para 2026

Tecnologia

No último Fórum Latinoamericano de Segurança da ESET, realizado no Uruguai, pesquisadores da empresa eslovaca de cibersegurança relataram as tendências para o campo, de ameaças a usos da tecnologia pelos usuários. O Canaltech esteve presente no evento e traz as impressões e insights dos especialistas LATAM.

De acordo com Martina López e Mario Micucci, pesquisadores do departamento argentino da ESET, tem sido percebido um uso massivo da inteligência artificial para os crimes virtuais, o que só deverá aumentar em 2026.

A tecnologia é empregada, principalmente, em esforços de phishing e spear-phishing, mas há mais aspectos envolvidos, que vamos destrinchar logo abaixo.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Inteligência Artificial no cibercrime

Uma novidade crescente é o uso de Agentic AI (ou IA agêntica), as inteligências artificiais mais autônomas que possuem capacidade de estabelecer metas e agir com intervenção humana mínima: uma versão evoluída dos chatbots como o ChatGPT. Esses avanços ajudam na evasão dinâmica da detecção dos malwares.

O uso de inteligência artificial na criação de agentes maliciosos, como ransomware, já foi identificada por especialistas em cibersegurança (Imagem: Reprodução/ESET)
O uso de inteligência artificial na criação de agentes maliciosos, como ransomware, já foi identificada por especialistas em cibersegurança (Imagem: Reprodução/ESET)

Apesar de ajudar em diversos aspectos do desenvolvimento de softwares e avanço da cibersegurança, as próprias IAs possuem suas brechas, sendo vulneráveis, por exemplo, ao envenenamento de IA, iniciativa que alimenta o banco de dados da tecnologia com informações falsas ou compromete seu próprio aprendizado de máquina no desenvolvimento.

A dupla também destacou a evolução dos ransomwares, especialmente a popularização do oferecimento desses agentes maliciosos como serviço, (ransomware-as-a-service, RaaS). Em agosto deste ano, pesquisadores da ESET identificaram o primeiro ransomware feito com a ajuda de IA: apesar de ainda não estar em estado funcional, foi prova dos avanços do hackers no campo.

Notou-se o uso de modelos estatísticos para buscar as vítimas mais propícias para ataques por ransomwares como o LunaLock, que foi atualizado com a ferramenta recentemente: os cibercriminosos, nas iniciativas de ransomware, ameaçam liberar obras de artistas com direitos autorais no treinamento de ferramentas de IA.

As expectativas para o ano que vem são de que a IA permita facetas mais diversificadas de extorsão de usuários, e que a inteligência artificial integra aspectos do cibercrime que vão além do desenvolvimento de agentes maliciosos.

Regulamentação da IA

Com o avanço das tecnologias, também são aguardadas atualizações das regulamentações governamentais acerca de inteligência artificial e ferramentas afins.

Diella, Ministra das Contratações Públicas da Albânia, foi criada totalmente por inteligência artificial: é preciso estabelecer regulamentação sobre uso da tecnologia, apontam especialistas (Imagem: Reprodução/Instagram @diella4you)
Diella, Ministra das Contas Públicas da Albânia, foi criada totalmente por inteligência artificial: é preciso estabelecer regulamentação sobre uso da tecnologia, apontam especialistas (Imagem: Reprodução/Instagram @diella4you)

Com a dependência tecnológica das empresas e usuários, se faz importante estudar e regulamentar o uso de IA, especialmente seu uso para fazer deepfakes e outras imitações convincentes de figuras públicas e celebridades.

Já há alguns pioneiros na área, destacando-se o Ato de Inteligência Artificial da União Europeia, que exige transparência por parte de empresas e agências sobre o uso de IA em suas produções, bem como define obrigações adicionais sobre a utilização da tecnologia para biometria e manipulação emocional dos usuários.

A transição dessa etapa normativa deverá trazer um uso mais aprofundado da IA em setores públicos: um exemplo chave é uma ministra da Albânia, feita totalmente com inteligência artificial, tomando decisões que impactam diretamente a população do país do leste europeu.

Espera-se que as leis acerca de ferramentas generativas como essa exijam a identificação obrigatória, para fins de transparência governamental e tecnológica.

Para a área, ficam desafios como o desenvolvimento de auditorias eficazes na identificação e controle de IA, incluindo a exigência do uso de metadados verificáveis. No campo da cibersegurança, deverão aumentar os riscos envolvendo a integridade de dispositivos tecnológicos, segundo a conclusão dos especialistas da ESET.

Veja mais:

VÍDEO: Por que tudo agora tem inteligência artificial gratuita? É boa mesmo? E a paga?

Leia a matéria no Canaltech.