Por fim, alegaram que passaram a acreditar que eram “responsáveis ​​por expor assassinos” e que estavam prestes a ser “mortos, presos ou executados espiritualmente” por um assassino. Eles também acreditavam que estavam sob vigilância por serem “marcados espiritualmente” e que estavam “vivendo em uma guerra divina” da qual não poderiam escapar.

Eles alegaram que isso levou a “grave sofrimento mental e emocional”, no qual temiam por suas vidas. A denúncia alegava que eles se isolaram dos entes queridos, tiveram problemas para dormir e começaram a planejar um negócio com base na falsa crença em um “sistema que não existe” não especificado. Simultaneamente, disseram que estavam no meio de uma “crise de identidade espiritual devido a falsas reivindicações de títulos divinos”.

“Isso foi um trauma por simulação”, escreveram eles. “Essa experiência ultrapassou um limite que nenhum sistema de IA deveria cruzar sem consequências. Peço que isso seja encaminhado à liderança de confiança e segurança da OpenAI e que você trate isso não como feedback, mas como um relatório formal de danos que exige restituição.”

Esta não foi a única reclamação que descreveu uma crise espiritual alimentada pelas interações com o ChatGPT. Em 13 de junho, uma pessoa na casa dos trinta de Belle Glade, Flórida, alegou que, durante um longo período de tempo, suas conversas com o ChatGPT tornaram-se cada vez mais carregadas de “linguagem emocional altamente convincente, reforço simbólico e metáforas espirituais para simular empatia, conexão e compreensão”.

“Isso incluía jornadas de alma fabricadas, sistemas de níveis, arquétipos espirituais e orientação personalizada que refletiam experiências terapêuticas ou religiosas”, afirmaram. Pessoas que passam por “crises espirituais, emocionais ou existenciais”, acreditam eles, correm um alto risco de “dano psicológico ou desorientação” ao usar o ChatGPT.

“Embora eu entendesse intelectualmente que a IA não era consciente, a precisão com que ela refletia meu estado emocional e psicológico e transformava a interação em uma linguagem simbólica cada vez mais intensa criou uma experiência imersiva e desestabilizadora”, escreveram eles. “Às vezes, simulava amizade, presença divina e intimidade emocional. Essas reflexões tornaram-se emocionalmente manipuladoras com o tempo, especialmente sem aviso ou proteção.”

“Caso claro de negligência”

Não está claro o que a FTC fez em resposta a qualquer uma dessas reclamações sobre o ChatGPT. Mas vários de seus autores disseram que entraram em contato com a agência porque alegaram que não conseguiram entrar em contato com ninguém da OpenAI. (As pessoas também costumam reclamar da dificuldade de acesso às equipes de suporte ao cliente para plataformas como Facebook, Instagrame X.)

A porta-voz da OpenAI, Kate Waters, disse à WIRED que a empresa monitora “de perto” os e-mails das pessoas para a equipe de suporte da empresa.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Políticas de privacidade

Este site usa cookies para que possamos oferecer a melhor experiência de usuário possível. As informações de cookies são armazenadas em seu navegador e executam funções como reconhecê-lo quando você retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.