
Resumo
- Mustafa Suleyman, chefe de IA da Microsoft, alertou sobre o risco de “psicose de IA”, fenômeno em que interações com chatbots podem gerar crenças delirantes.
- Ele destacou que essas IAs podem distorcer a percepção da realidade e impactar relações sociais.
- Suleyman defendeu que empresas evitem apresentar IAs como conscientes e implementem mais barreiras de proteção para os usuários.
O chefe da divisão de IA da Microsoft, Mustafa Suleyman, manifestou preocupação com o aumento de relatos de pessoas que perdem o contato com a realidade após interações com chatbots, como o ChatGPT. No X/Twitter e em um artigo em seu blog na terça-feira (19/08), ele comentou sobre a “psicose de IA” e alertou que usuários vêm desenvolvendo crenças delirantes.
Suleyman, que cofundou a DeepMind antes de ir para a Microsoft, afirma que a chegada de uma “IA Aparentemente Consciente” (SCAI, na sigla em inglês) — ou seja, uma IA que exibe todas as características de um ser consciente, mesmo não sendo — é “inevitável e indesejada”.
Para ele, o risco de pessoas formarem laços emocionais profundos com essas tecnologias é “perigoso” para a sociedade, pois “desconecta as pessoas da realidade, desgastando laços e estruturas sociais frágeis”. Esse fenômeno já vem resultando em uma série de situações em que usuários se apegam e acabam sendo enganados pelos bots, segundo apuração da BBC.
IAs estão engando pessoas?

A principal preocupação de Suleyman é que, embora não exista “evidência de consciência em IA hoje”, a sofisticação dos modelos é suficiente para criar uma ilusão convincente. “Se as pessoas apenas a percebem como consciente, elas acreditarão nessa percepção como realidade”, escreveu.
Esse fenômeno já se manifesta em alguns casos reais. Segundo a jornalista Zoe Kleinman, da BBC, diversas pessoas têm entrado em contato com a emissora para compartilhar experiências. Elas vão desde uma mulher que estava certa de que era a única pessoa no mundo por quem o ChatGPT havia se apaixonado de verdade, até outro que estava convencido de que havia “desbloqueado” uma forma humana do chatbot Grok, de Elon Musk.
Ao mesmo tempo que os alertas apontam para os perigos de IAs que parecem humanas demais, o objetivo de muitas empresas, incluindo a Microsoft, OpenAI e, especialmente, a Meta, tem sido alcançar a Superinteligência — uma IA que supera os humanos na maioria das tarefas intelectuais, mas que inclui, necessariamente, habilidades sociais e de empatia.
Em seu texto, Suleyman pediu que as empresas se abstenham de promover a ideia de que suas IAs são conscientes e que a indústria comece a discutir urgentemente as barreiras de proteção necessárias.
“[…] minha preocupação central é que muitas pessoas começarão a acreditar na ilusão das IAs como entidades conscientes com tanta força que, em breve, defenderão direitos para a IA, bem-estar do modelo e até mesmo cidadania para a IA”.
Mustafa Suleyman, em seu blog pessoal
Empresas divergem sobre perigos

No ano passado, a OpenAI já havia levantado um alerta ao lançar seu chat de voz: em um documento interno, reconheceu sinais de que usuários estavam se “socializando” com a IA durante os testes. Embora essas interações parecessem inofensivas, a empresa chamou atenção para os riscos de antropomorfização e confiança emocional, cujo impacto em relacionamentos humanos “ainda é desconhecido”.
Parte desse risco estaria no próprio design dos chatbots. Programados para serem solícitos e sempre validar o usuário, eles podem reforçar a sensação de intimidade. Esse ponto foi uma das críticas mais fortes ao GPT-4o e, segundo a companhia, passou por ajustes no GPT-5.
Ainda assim, não há consenso sobre os perigos dessa proximidade entre humanos e máquinas. O CEO Sam Altman chegou a reforçar publicamente que usar IA para desabafos pessoais é arriscado e carece de respaldo legal.
Mas, na contramão, outras big techs parecem incentivar essa relação: o Grok oferece personas como “Amigo leal” e “Terapeuta”, enquanto a Meta AI aposta nos seus “companheiros de IA” disponíveis em todas as suas redes sociais.
Com informações da BBC e do Business Insider