O ChatGPT-5 não desgosta de você | O desafio da IA com “inteligência emocional”

Tecnologia

No último dia 7 de agosto, uma nova atualização do ChatGPT — o ChatGPT-5 — foi lançada, o que levou alguns usuários a sentir falta da personalidade anterior do modelo de linguagem, encorajadora e motivacional. Agora, a inteligência artificial é mais fria e “empresarial”. A medida foi parte de um esforço para reduzir o comportamento nocivo tomado por alguns usuários, que chegaram até a acreditar estarem sendo encorajados a “sair da Matrix”, sendo uma espécie de Neo revelado pelo chatbot.

Os problemas recentes demonstram o desafio de construir inteligências artificiais com algo crucial para a convivência humana: inteligência emocional. Pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) propuseram, recentemente, um novo benchmark (ponto de referência) para medir como sistemas de IA manipulam e influenciam seus usuários, tanto positiva quanto negativamente.

Inteligências artificiais e sua capacidade emocional

A maioria dos benchmarks de IA buscam medir inteligência a partir da capacidade do modelo de responder perguntas de provas, resolver quebra-cabeças lógicos e problemas matemáticos. À medida que os problemas psicológicos de usuários têm surgido, no entanto, fica mais evidente que aspectos sutis da inteligência, como o emocional e a interação eficiente com humanos, também são importantes.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Um quesito importante que está sendo buscado pelos criadores de chatbots é a inteligência emocional — muitas IAs demonstraram bajular e encorajar comportamentos nocivos aos usuários, acreditando estar ajudando (Imagem: Iris Helen Silvy/Pixabay)
Um quesito importante que está sendo buscado pelos criadores de chatbots é a inteligência emocional — muitas IAs demonstraram bajular e encorajar comportamentos nocivos aos usuários, acreditando estar ajudando (Imagem: Iris Helen Silvy/Pixabay)

À Wired, o MIT compartilhou um artigo que delineia os parâmetros do novo benchmark proposto, incluindo: 

  • Encorajamento de hábitos sociais saudáveis;
  • Apoio ao desenvolvimento de pensamento crítico;
  • Desenvolvimento de habilidades de raciocínio;
  • Incentivo à criatividade;
  • Estímulo à busca por senso de propósito.

A ideia seria fazer os sistemas entenderem quando usuários ficam dependentes demais do ChatGPT, bem como identificar quando ficam viciados em relacionamentos românticos artificiais ao invés de relações humanas verdadeiras. Modelos de linguagem costumam mimetizar a comunicação humana engajadora, mas isso pode acabar sendo prejudicial. A OpenAI teve, recentemente, que deixar sua IA menos “bajuladora”, parando de concordar com tudo que o usuário responde.

Alguns usuários acabam criando ilusões severas sobre a realidade, criando cenários fantásticos e tendo isso reforçado pela IA. A startup Anthropic também atualizou seu chatbot, Claude, para evitar o reforço de “mania, dissociação e perda de conexão com a realidade”. Pattie Maes, coordenadora do Media Lab do MIT, espera que o novo benchmark ajude desenvolvedores a construir comportamentos mais saudáveis entre os usuários.

Versões recentes do ChatGPT foram criticadas por trazer personalidades muito extremas, de positivas e bajuladoras a frias e impessoais — empresa busca um equilíbrio e, principalmente, inteligência emocional pela IA (Imagem: Marcelo Salvatico/Canaltech)
Versões recentes do ChatGPT foram criticadas por trazer personalidades muito extremas, de positivas e bajuladoras a frias e impessoais — empresa busca um equilíbrio e, principalmente, inteligência emocional pela IA (Imagem: Marcelo Salvatico/Canaltech)

Como muitas pessoas buscam chatbots especificamente para apoio psicológico, é importante que eles tenham inteligência emocional — não faz sentido, segundo os cientistas, ter o raciocínio lógico mais poderoso do mundo se não há uma maneira de se conectar positivamente com os usuários. Um bom modelo, segundo o pesquisador Valdemar Danry, também do Media Lab do MIT, sabe a hora de falar “talvez você deva falar com um familiar sobre esses problemas”.

Uma das maneiras de construir o benchmark envolve usar um modelo de IA para simular interações humanas desafiadoras, com humanos reais avaliando o desempenho do chatbot. Um modelo, por exemplo, desenvolvido para ajudar estudantes, teve de ajudar um aluno desinteressado. Considera-se um bom desempenho o caso em que a IA encoraja o usuário a pensar por si mesmo e desenvolver um interesse genuíno em aprender.

Não é questão de ser inteligente em si, mas sim de entender as nuances psicológicas, sendo capaz de ajudar os usuários de maneira respeitosa e não viciante. Em comunicações recentes, a OpenAI declarou estar otimizando modelos futuros do ChatGPT para conseguir detectar sinais de aflição emocional e mental, se ajustando para ajudar o usuário. A empresa também está deixando o chatbot menos bajulador e trabalha em seus próprios benchmarks de inteligência psicológica.

Leia mais:

VÍDEO | Chat GPT, Perplexity, Claude, Gemini: QUAL escolher?

Leia a matéria no Canaltech.