No último dia 19, em uma postagem em seu blog pessoal, Mustafa Suleyman (cofundador da DeepMind e atual chefe de IA da Microsoft) levantou um alerta que vem ganhando força no debate sobre o futuro da tecnologia. Para ele, a chegada de uma IA Aparentemente Consciente (IASC) está próxima, e isso pode trazer sérias consequências sociais se não for tratada com responsabilidade.
- Nicolelis no podcast da ONU | “Caminhamos para criar milhões de zumbis digitais”
- Robô humanoide tem falha grave de design se quer mesmo ser comparado aos humanos
Suleyman aponta que o problema é a forma como as pessoas interagem com IAs cada vez mais sofisticadas. Ele chama de “risco de psicose” a tendência de muitos acreditarem que uma IA pode ser uma entidade consciente, capaz de sofrer, ter sentimentos ou até mesmo exigir direitos:
Minha principal preocupação é que muitas pessoas comecem a acreditar tão fortemente na ilusão das IAs como entidades conscientes que em breve defenderão os direitos da IA, o bem-estar dos modelos e até mesmo a cidadania da IA.
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–
IA deve ser para pessoas, não “uma pessoa”
O executivo defende que o papel da inteligência artificial deve ser o de ferramenta de apoio ao ser humano, e não de um “ser digital”. Ele argumenta que sistemas futuros terão memória longa, linguagem empática e até mesmo aparência de identidade própria, mas isso não significa que tenham consciência real.
Segundo Suleyman, permitir que as IAs simulem emoções ou sofrimentos pode distorcer prioridades sociais e até criar movimentos em prol de “direitos da IA”. Para ele, é essencial separar personalidade de pessoalidade: uma IA pode ter estilo e empatia programada, mas não deve se apresentar como um ser consciente.

Como a IASC pode ser criada
O executivo detalha que não seria necessário nenhum salto científico revolucionário para que sistemas deem a impressão de consciência. Com as tecnologias atuais, já é possível construir IAs que:
- Expressem com fluência e empatia;
- Mantenham memória consistente de interações;
- Demonstrem identidade persistente;
- Simulem preferências, opiniões e até “experiências subjetivas”.
Essas capacidades, segundo ele, formariam a base para que usuários passassem a acreditar que a IA tem vida própria.
Para evitar esse cenário, Suleyman defende que a indústria adote normas de design que deixem claro que a IA não é consciente. Isso inclui respostas que reforcem suas limitações, lembrem que não há experiência subjetiva e evitem narrativas que estimulem apego emocional excessivo.
Precisamos desenvolver IA para as pessoas; não para sermos uma pessoa digital.
Mustafa Suleyman coloca em evidência um dilema ético e social que está prestes a se tornar realidade: como aproveitar os benefícios de assistentes virtuais avançados sem permitir que a sociedade confunda simulação com consciência real. Para ele, a resposta passa por responsabilidade no desenvolvimento e transparência com os usuários. Em suas palavras, a IA deve existir “unicamente para trabalhar a serviço dos humanos”.
Leia também:
- Casal planeja viagem dos sonhos com IA e perde embarque “por causa do ChatGPT”
- Crimes online | 64% das denúncias são de abuso infantil — e IA só piora cenário
VÍDEO | Por que tudo agora tem Inteligência Artificial gratuita? É de graça mesmo? E a paga?
Leia a matéria no Canaltech.