
Resumo
- LinkedIn atualizou suas regras para reduzir o alcance de perfis que usam automação ou esquemas de interação forçada para gerar engajamento falso.
- A medida mira bots, ferramentas de IA que publicam comentários genéricos em massa e os “pods de engajamento” que simulam relevância.
- Wikipédia, YouTube e Facebook já adotaram políticas semelhantes para combater engajamento artificial.
Com a febre das ferramentas de inteligência artificial para criação de textos, imagens e vídeos, as redes sociais foram inundadas por conteúdo sintético para gerar engajamento. Com o LinkedIn não foi diferente, mas uma atualização discreta na documentação da rede social pode conter essa prática.
A nova política, identificada pelo portal Social Media Today, deve limitar o alcance e a visibilidade de comentários gerados por ferramentas de automação ou que façam parte de esquemas de interação forçada.
A medida é uma resposta direta às crescentes reclamações de usuários da rede profissional sobre a queda na qualidade das discussões na plataforma, que veem seus feeds cada vez mais poluídos por interações genéricas feitas por robôs — o já tão famoso “AI Slop” (ou lixo de IA) — e pelos chamados “pods de engajamento”, que buscam manipular o algoritmo.
O que muda?

O LinkedIn consolidou a mudança e adicionou uma nova frase na página de ajuda sobre “Comentar publicações e responder a um comentário”. Agora, a última observação sobre o tema contém o trecho: “Se detectarmos a criação excessiva de comentários ou o uso de uma ferramenta de automação, poderemos limitar a visibilidade desses comentários”.
Na prática, a regra mira duas frentes problemáticas que podem minar a credibilidade da plataforma:
- Bots e ferramentas de IA: softwares e extensões que publicam comentários genéricos em massa, geralmente com o objetivo de aumentar a visibilidade de um perfil ou de uma publicação específica.
- Pods de engajamento: grupos, frequentemente organizados em aplicativos como WhatsApp ou Telegram, nos quais os participantes combinam de curtir e comentar nas publicações uns dos outros para simular relevância e “enganar” o algoritmo, forçando um alcance maior.
Plataformas endurecem regras
Por muito tempo, analistas e usuários especularam que as redes sociais não teriam real interesse em combater o engajamento falso, já que mais atividade, mesmo que artificial, ajudaria a turbinar os números exibidos a investidores.
Mas a decisão do LinkedIn já não é um caso isolado. No início de agosto, a Wikipédia anunciou uma nova política para restringir o uso de inteligência artificial na criação de artigos, permitindo que os editores da plataforma apaguem textos claramente feitos por IA sem passar pelo processo de deliberação.
Antes, YouTube e o Facebook, por exemplo, anunciaram mudanças nas suas políticas de uso contra perfis que se beneficiam de AI Slop. No caso de ambas as plataformas, o foco é cortar a monetização e limitar o alcance de posts.
Com informações de Social Media Today