Na última quarta-feira (23), o CEO da OpenAI, Sam Altman, alertou que não há garantia de confidencialidade legal ao utilizar o ChatGPT como uma espécie de terapeuta virtual. A declaração foi feita durante sua participação no podcast This Past Weekend w/ Theo Von, onde Altman abordou os desafios legais enfrentados pela inteligência artificial no contexto de interações sensíveis com os usuários.
- Chatbots de IA são facilmente enganados e dão respostas perigosas, diz estudo
- MIT diz que escrever texto com ChatGPT faz mal ao cérebro: “desempenho inferior”
Altman destacou que muitas pessoas, especialmente jovens, têm recorrido ao ChatGPT para desabafar sobre problemas emocionais, relacionamentos e questões pessoais profundas. No entanto, diferentemente de conversas com psicólogos, médicos ou advogados, que são protegidas por sigilos profissionais como o médico-paciente ou o cliente-advogado, os diálogos com o chatbot da OpenAI não possuem essa mesma proteção legal.
“É muito doido que hoje, se alguém entra com um processo, somos obrigados legalmente a entregar essas conversas”, afirmou o executivo. Segundo ele, a ausência de uma estrutura jurídica clara sobre o uso de IA em contextos íntimos pode gerar riscos de privacidade significativos para os usuários. Você confere o discurso completo (em inglês) aqui:
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–
Altman também comentou que a OpenAI está atualmente lutando contra uma ordem judicial no processo movido pelo The New York Times, que exige o armazenamento das conversas de milhões de usuários do ChatGPT, excetuando-se os clientes corporativos do ChatGPT Enterprise.
A discussão acende um alerta sobre os limites da privacidade digital em tempos de inteligência artificial avançada. Com o aumento da coleta e uso de dados para treinar modelos de IA, a demanda por regulamentações claras e éticas torna-se cada vez mais urgente.
Para Altman, o ideal seria que as conversas com IA tivessem o mesmo nível de confidencialidade que as mantidas com um terapeuta humano. Enquanto isso não acontece, ele aconselha cautela: “Faz sentido querer clareza jurídica antes de usar bastante o ChatGPT.”
ChatGPT preocupa o Conselho Federal de Psicologia
Para se ter noção, usar o ChatGPT como terapeuta pessoal preocupa o Conselho Federal de Psicologia, que chegou a conduzir um grupo de trabalho para discutir o uso da inteligência artificial (IA) com esses fins. O argumento é que as IAs respondem baseadas em padrões, e não em raciocínios, e apesar de simular humanos, estão longe de serem um.
Leia também:
- OMS alerta para os riscos e os benefícios da IA generativa na saúde
- Como o chatGPT trata assuntos pesados? Nós testamos e essas foram as respostas
VÍDEO | Cuidado com o que você pede para o ChatGPT
Leia a matéria no Canaltech.