Não há confidencialidade quando se usa ChatGPT como terapeuta, diz Sam Altman

Tecnologia

Na última quarta-feira (23), o CEO da OpenAI, Sam Altman, alertou que não há garantia de confidencialidade legal ao utilizar o ChatGPT como uma espécie de terapeuta virtual. A declaração foi feita durante sua participação no podcast This Past Weekend w/ Theo Von, onde Altman abordou os desafios legais enfrentados pela inteligência artificial no contexto de interações sensíveis com os usuários.

Altman destacou que muitas pessoas, especialmente jovens, têm recorrido ao ChatGPT para desabafar sobre problemas emocionais, relacionamentos e questões pessoais profundas. No entanto, diferentemente de conversas com psicólogos, médicos ou advogados, que são protegidas por sigilos profissionais como o médico-paciente ou o cliente-advogado, os diálogos com o chatbot da OpenAI não possuem essa mesma proteção legal.

“É muito doido que hoje, se alguém entra com um processo, somos obrigados legalmente a entregar essas conversas”, afirmou o executivo. Segundo ele, a ausência de uma estrutura jurídica clara sobre o uso de IA em contextos íntimos pode gerar riscos de privacidade significativos para os usuários. Você confere o discurso completo (em inglês) aqui:


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Altman também comentou que a OpenAI está atualmente lutando contra uma ordem judicial no processo movido pelo The New York Times, que exige o armazenamento das conversas de milhões de usuários do ChatGPT, excetuando-se os clientes corporativos do ChatGPT Enterprise.

A discussão acende um alerta sobre os limites da privacidade digital em tempos de inteligência artificial avançada. Com o aumento da coleta e uso de dados para treinar modelos de IA, a demanda por regulamentações claras e éticas torna-se cada vez mais urgente.

Para Altman, o ideal seria que as conversas com IA tivessem o mesmo nível de confidencialidade que as mantidas com um terapeuta humano. Enquanto isso não acontece, ele aconselha cautela: “Faz sentido querer clareza jurídica antes de usar bastante o ChatGPT.”

ChatGPT preocupa o Conselho Federal de Psicologia

Para se ter noção, usar o ChatGPT como terapeuta pessoal preocupa o Conselho Federal de Psicologia, que chegou a conduzir um grupo de trabalho para discutir o uso da inteligência artificial (IA) com esses fins. O argumento é que as IAs respondem baseadas em padrões, e não em raciocínios, e apesar de simular humanos, estão longe de serem um.

Leia também:

VÍDEO | Cuidado com o que você pede para o ChatGPT

Leia a matéria no Canaltech.