
Resumo
- O Sora, aplicativo da OpenAI, gera vídeos realistas a partir de textos ou imagens, mas enfrenta críticas por facilitar deepfakes e uso indevido de imagens.
- Usuários relataram perda de controle sobre suas representações digitais, levando a preocupações éticas e sobre a autenticidade dos vídeos.
- A OpenAI implementou novas medidas de segurança, incluindo restrições de uso de “cameos” e melhorias na visibilidade da marca d’água.
A mais recente criação da OpenAI, o aplicativo Sora, vem chamando atenção tanto pelo realismo dos vídeos quanto pelas preocupações éticas que desperta. Lançado inicialmente nos Estados Unidos e no Canadá, ele chegou ao topo das lojas de aplicativos, permitindo que qualquer pessoa transforme textos ou imagens em vídeos altamente realistas – com movimento, som e estilos variados, do cinematográfico ao animado.
Apesar do sucesso, a ferramenta tem sido apontada por críticos como um gerador facilitado de deepfakes, já que possibilita o uso do rosto e da voz de outras pessoas em vídeos criados por inteligência artificial. Usuários que disponibilizaram sua imagem como “cameo” – termo usado para participações digitais – descobriram que, uma vez concedida a permissão, tinham pouco ou nenhum controle sobre o que era feito com suas representações.
O que motivou a polêmica em torno do Sora?
A proposta inicial do aplicativo era simples: permitir que qualquer um transforme ideias em vídeos com realismo sem precedentes. No entanto, rapidamente surgiram casos em que rostos autorizados foram usados em contextos controversos, incluindo declarações políticas opostas às convicções daquelas pessoas.
Embora os vídeos criados pelo Sora tragam uma marca d’água móvel identificando a origem do conteúdo, alguns usuários encontraram maneiras de removê-la, levantando preocupações adicionais sobre autenticidade e manipulação digital. A ausência de mecanismos eficazes de controle e transparência acendeu um alerta sobre o uso indevido de imagens e a propagação de conteúdo enganoso.
Como funcionam as novas medidas de segurança?
Diante das críticas, a OpenAI anunciou a implementação de ferramentas adicionais de controle. Bill Peebles, líder do projeto Sora, explicou que agora é possível definir restrições específicas sobre o uso de um “cameo”.
A empresa promete tornar o sistema ainda mais robusto, permitindo ajustes detalhados sobre como e onde a imagem de uma pessoa pode ser utilizada. Além disso, a OpenAI declarou que pretende tornar a marca d’água mais visível e difícil de remover, embora não tenha revelado quais medidas técnicas serão adotadas para isso.
Sora: novo recurso da OpenAI tenta conter polêmica com vídeos gerados por IA