Os usuários do ChatGPT podem querer pensar duas vezes antes de recorrer ao seu aplicativo de IA para terapia ou outros tipos de apoio emocional. De acordo com o CEO da Openai, Sam Altman, o setor de IA ainda não descobriu como proteger a privacidade do usuário quando se trata dessas conversas mais sensíveis, porque não há confidencialidade médica-paciente quando seu médico é uma IA.
O executivo fez esses comentários em um Episódio recente do podcast de Theo von, no fim de semana passado com Theo von.
Em resposta a uma pergunta sobre como a IA funciona com o sistema jurídico de hoje, Altman disse que um dos problemas de ainda não ter uma estrutura legal ou política para a IA é que não há confidencialidade legal para as conversas dos usuários.
“As pessoas falam sobre a merda mais pessoal em suas vidas para conversar”, disse Altman. “As pessoas o usam – os jovens, especialmente, usam – como terapeuta, um treinador de vida; tendo esses problemas de relacionamento e (perguntando) ‘o que devo fazer?’ E agora, se você fala com um terapeuta ou um advogado ou um médico sobre esses problemas, há um privilégio legal para isso.
Isso poderia criar uma preocupação de privacidade para os usuários no caso de uma ação judicial, acrescentou Altman, porque o OpenAI seria legalmente obrigado a produzir essas conversas hoje.
“Acho que isso está muito estragado. Acho que devemos ter o mesmo conceito de privacidade para suas conversas com a IA que fazemos com um terapeuta ou o que quer que seja – e ninguém teve que pensar nisso até um ano atrás”, disse Altman.
A empresa entende que a falta de privacidade pode ser um bloqueador para a adoção mais ampla do usuário. Além da demanda da IA por tantos dados on -line durante o período de treinamento, está sendo solicitado a produzir dados dos bate -papos dos usuários em alguns contextos legais. Já, Openai tem lutado contra uma ordem judicial Em seu processo com o New York Times, o que exigiria que ele salve as bate -papos de centenas de milhões de usuários de chatgpt em todo o mundo, excluindo os de clientes da ChatGPT Enterprise.
Evento do TechCrunch
São Francisco
|
27-29 de outubro de 2025
Em um comunicado em seu site, o OpenAI disse que está atraindo essa ordem, que chamou de “um tapurre alacão”. Se o Tribunal puder substituir as próprias decisões da OpenAI em torno da privacidade de dados, poderá abrir a empresa para uma demanda adicional por fins de descoberta legal ou aplicação da lei. As empresas de tecnologia atuais são regularmente intimadas para dados do usuário, a fim de ajudar em processos criminais. Mas nos anos mais recentes, houve preocupações adicionais sobre dados digitais, pois as leis começaram a limitar o acesso a liberdades estabelecidas anteriormente, como o direito de uma mulher de escolher.
Quando a Suprema Corte anulou Roe v. Wade, por exemplo, os clientes começaram a mudar para aplicativos de rastreamento de períodos mais privados ou para a Apple Health, que criptografou seus registros.
Altman perguntou ao apresentador do podcast sobre seu próprio uso de chatgpt também, já que Von disse que não falou muito com o AI Chatbot devido a suas próprias preocupações de privacidade.
“Acho que faz sentido … realmente querer muito a clareza da privacidade antes de usar (chatgpt) – como a clareza legal”, disse Altman.