LinkedIn fecha o cerco contra engajamento falso

Tecnologia
Resumo
  • LinkedIn atualizou suas regras para reduzir o alcance de perfis que usam automação ou esquemas de interação forçada para gerar engajamento falso.
  • A medida mira bots, ferramentas de IA que publicam comentários genéricos em massa e os “pods de engajamento” que simulam relevância.
  • Wikipédia, YouTube e Facebook já adotaram políticas semelhantes para combater engajamento artificial.

Com a febre das ferramentas de inteligência artificial para criação de textos, imagens e vídeos, as redes sociais foram inundadas por conteúdo sintético para gerar engajamento. Com o LinkedIn não foi diferente, mas uma atualização discreta na documentação da rede social pode conter essa prática.

A nova política, identificada pelo portal Social Media Today, deve limitar o alcance e a visibilidade de comentários gerados por ferramentas de automação ou que façam parte de esquemas de interação forçada.

A medida é uma resposta direta às crescentes reclamações de usuários da rede profissional sobre a queda na qualidade das discussões na plataforma, que veem seus feeds cada vez mais poluídos por interações genéricas feitas por robôs — o já tão famoso “AI Slop” (ou lixo de IA) — e pelos chamados “pods de engajamento”, que buscam manipular o algoritmo.

O que muda?

O LinkedIn consolidou a mudança e adicionou uma nova frase na página de ajuda sobre “Comentar publicações e responder a um comentário”. Agora, a última observação sobre o tema contém o trecho: “Se detectarmos a criação excessiva de comentários ou o uso de uma ferramenta de automação, poderemos limitar a visibilidade desses comentários”.

Na prática, a regra mira duas frentes problemáticas que podem minar a credibilidade da plataforma:

  • Bots e ferramentas de IA: softwares e extensões que publicam comentários genéricos em massa, geralmente com o objetivo de aumentar a visibilidade de um perfil ou de uma publicação específica.
  • Pods de engajamento: grupos, frequentemente organizados em aplicativos como WhatsApp ou Telegram, nos quais os participantes combinam de curtir e comentar nas publicações uns dos outros para simular relevância e “enganar” o algoritmo, forçando um alcance maior.

Plataformas endurecem regras

Por muito tempo, analistas e usuários especularam que as redes sociais não teriam real interesse em combater o engajamento falso, já que mais atividade, mesmo que artificial, ajudaria a turbinar os números exibidos a investidores.

Mas a decisão do LinkedIn já não é um caso isolado. No início de agosto, a Wikipédia anunciou uma nova política para restringir o uso de inteligência artificial na criação de artigos, permitindo que os editores da plataforma apaguem textos claramente feitos por IA sem passar pelo processo de deliberação.

Antes, YouTube e o Facebook, por exemplo, anunciaram mudanças nas suas políticas de uso contra perfis que se beneficiam de AI Slop. No caso de ambas as plataformas, o foco é cortar a monetização e limitar o alcance de posts.

Com informações de Social Media Today

LinkedIn fecha o cerco contra engajamento falso