Os especialistas em ética da IA apelaram a salvaguardas urgentes contra uma indústria emergente de “vida após a morte digital”.
As preocupações centram-se nos chatbots que imitam a aparência, a fala e a personalidade de pessoas mortas.
Conhecidos como “deadbots” ou “griefbots”, esses clones de IA são treinados com base em dados sobre os falecidos. Eles então fornecem interações simuladas com recriações virtuais dos que partiram.
Esta “presença post-mortem” pode causar danos sociais e psicológicos, segundo investigadores da Universidade de Cambridge.
Seu novo estudo destaca vários riscos. Um envolve o uso de deadbots para publicidade. Imitando um ente querido perdido unsos deadbots poderiam manipular seus vulneráveis sobreviventes em comprar produtos.
Outra preocupação aborda aplicações terapêuticas. Os pesquisadores temem que isso crie um “peso emocional avassalador.” Isso poderia intensificar o processo de luto em intermináveis interações virtuais.
Deadbots ganhando vida
O estudo também prevê que deadbots enviem spam aos usuários com notificações indesejadas. Os pesquisadores comparam isso a ser “perseguido digitalmente pelos mortos”.
É uma perspectiva que está rapidamente se tornando realidade. Serviços como “Project December” e “HereAfter” já oferecem aos clientes a oportunidade de ressuscitar digitalmente os mortos.
Para mitigar os seus riscos, os investigadores apelaram aos designers de deadbots que procurassem o consentimento dos “doadores de dados” antes de morrerem. Eles também desejam que os produtos alertem regularmente os usuários sobre os riscos, forneçam protocolos fáceis de exclusão e proíbam o uso desrespeitoso de deadbots.
Outra salvaguarda sugerida são métodos de rescisão fáceis de usar. Isso poderia até envolver um “funeral digital” para o deadbot.
Todas estas medidas devem considerar tanto os mortos como aqueles que deixam para trás.
“É vital que os serviços digitais de vida após a morte considerem os direitos e o consentimento não apenas daqueles que recriam, mas daqueles que terão de interagir com as simulações”, disse o Dr. Tomasz Hollanek, um dos co-autores do estudo.
“Esses serviços correm o risco de causar enorme sofrimento às pessoas se elas forem submetidas a assombrações digitais indesejadas provenientes de recriações de IA alarmantemente precisas daqueles que perderam. O potencial efeito psicológico, especialmente num momento já difícil, pode ser devastador.”