Assim como o sol nasce e se põe, algumas coisas são inevitáveis. Considere a tecnologia. Assim que algo novo surge, as pessoas invariavelmente encontram uma maneira de abusar disso. Nos últimos anos, esse manto caiu sobre a inteligência artificial (IA) e um de seus efeitos colaterais mais preocupantes — o aumento da pornografia deepfake não consensual.

A ideia é tão simples quanto horrenda: usar tecnologia digital para criar imagens ou vídeos falsos e explícitos de alguém. Embora isso esteja borbulhando no submundo da internet há vários anos, melhorias recentes em ferramentas de IA significam que esse tipo de conteúdo está ficando mais fácil de fazer — e substancialmente pior para as vítimas.

Felizmente, as autoridades estão tomando nota. O Reino Unido anunciou a primeira lei do gênero para combater diretamente a pornografia deepfake não consensual através da uma emenda ao Projeto de Lei da Justiça Criminal. Enquanto isso, a UE tem uma série de leis e diretivas que pode usar para combater a prática maléfica. Ou assim é a esperança.

A questão é se a regulamentação é uma ferramenta eficaz para combater a pornografia deepfake não consensual e se há alguma maneira de erradicá-la completamente.

Uma palavra sobre terminologia

O

Os últimos rumores da cena tecnológica da UE, uma história do nosso sábio e velho fundador Boris e alguma arte de IA questionável. É grátis, toda semana, na sua caixa de entrada. Inscreva-se agora!

Neste ponto, você pode estar se perguntando por que estamos usando a frase “pornografia deepfake não consensual” em vez da mais comumente vista “pornografia deepfake”?

Bem, a Professora Victoria Baines — uma Membro do BCS e uma autoridade líder em segurança cibernética — explica que encurtar o termo para “pornografia deepfake” é visto pelos defensores da segurança online como “minimizar um comportamento prejudicial por meio da abreviação”.

Como Baines aponta, “o ponto principal é que é abuso online, não pornografia”. Quanto mais claros formos ao falar sobre o problema, maior será a chance de combatê-lo. E, com isso em mente, vamos dar uma olhada em como os governos estão lidando atualmente com pornografia deepfake não consensual.

Quais são as leis no Reino Unido?

Bains diz que, apesar da próxima alteração ao Projeto de Lei da Justiça Criminal, no Reino Unido, “já é uma infração criminal nos termos da Seção 188 do Código Penal”. Lei de Segurança Online para compartilhar imagens íntimas não consensuais.”

O formulação direta na legislação afirma que é ilegal compartilhar mídia que “mostre ou pareça mostrar” outra pessoa em um estado íntimo. Embora isso cubra amplamente a pornografia deepfake não consensual, o problema é que esse não é seu foco principal.

Isso, de acordo com Baines, é o que a nova emenda proposta ao Projeto de Lei de Justiça Criminal visa consertar. Isso “busca criminalizar a criação usando tecnologia digital de imagens íntimas sem consentimento, independentemente de o criador pretender compartilhá-las.”

Em outras palavras, a próxima emenda tem como alvo direto a questão da pornografia deepfake não consensual. Embora as leis existentes pudessem ser aplicadas para processar criminosos que a fazem, esta nova emenda a confronta de frente.

Como a UE lida com pornografia deepfake não consensual

“A UE não tem regulamentações específicas sobre pornografia deepfake (não consensual)”, disse a professora Cristina Vanberghen à TNW.

Vanberghen é um especialista sênior em A Comissão Europeiaonde ela se concentra em IA, DMA, DSAe política de segurança cibernética. Ela diz que a pornografia deepfake não consensual é tornada ilegal por meio de regulamentações existentes, especificamente “uma interpretação corroborativa de regras sobre GDPR, DSA, leis nacionais e medidas propostas como aquelas existentes em IA”.

Efetivamente, “usar imagens e vídeos de alguém em um deepfake sem seu consentimento pode ser considerado uma violação do GDPR” e o DSA “impõe obrigações mais rigorosas às plataformas online para remover rapidamente conteúdo ilegal e desinformação, o que pode se estender à pornografia deepfake”.

Segundo Asha Allen, diretora e secretária geral da CDT Europaa UE abriu outra via para combater o conteúdo ilegal. Especificamente, a sua adopção da directiva sobre violência de género.

Allen diz que isso “faz com que a criação e a subsequente disseminação de imagens deepfake que fazem parecer que uma pessoa está envolvida em atividades sexualmente explícitas, sem o consentimento dessa pessoa, seja uma infração criminal”.

No papel, esta é uma ótima medida, mas há uma diferença importante entre uma diretiva como esta e um regulamento. Nas palavras da UEum regulamento — como aqueles discutidos por Vanberghen — é um ato legislativo vinculativo que deve ser aplicado em sua totalidade em toda a UE.

Uma diretiva, por outro lado, estabelece uma meta. Cabe então a “países individuais elaborar suas próprias leis sobre como alcançá-la”. Quando se trata da diretiva sobre violência de gênero, os estados-membros têm até 14 de junho de 2027 para realmente adotá-la em sua lei ou política nacional. Isso, compreensivelmente, tem uma gama de problemas.

A necessidade de clareza contra a pornografia deepfake não consensual

“Regras comuns sobre pornografia deepfake são cruciais”, diz Vanberghen. Elas devem estabelecer “limites e repercussões inequívocos para dissuadir conduta maliciosa” e garantir que as vítimas tenham vias legais para proteção e recurso.

A questão em torno da adoção da diretiva sobre violência de gênero é que ela pode levar a regulamentações inconsistentes entre jurisdições. Isso, por sua vez, pode criar fraquezas para os perpetradores de pornografia deepfake não consensual explorarem, deixando as vítimas vulneráveis.

Um exemplo disso é a emenda do Reino Unido ao Projeto de Lei de Justiça Criminal. A Coalizão para Acabar com a Violência Contra as Mulheres (EVAW) aponta que “o limite para esta nova lei depende das intenções do perpetrador”, em vez de se a vítima de pornografia deepfake não consensual consente com a sua criação.

Andrea Simon, diretora da EVAW, diz que isso levará a “uma enorme brecha na lei” que dará “aos perpetradores um cartão de ‘saída livre da prisão’”, pois há uma enorme dificuldade em evidenciar a intenção em um tribunal. Neste estado, a promotoria teria que provar que o objetivo do criador era especificamente causar alarme, humilhação ou angústia. Isso, acredita Simon, “acabará por impedir que as vítimas acessem a justiça”.

E esse é o problema — mesmo em locais onde há regulamentação contra pornografia deepfake não consensual, ainda é preciso haver mais clareza para proteger adequadamente as vítimas.

A aprovação de leis na UE

Duas coisas parecem claras. A necessidade de regulamentação específica e bem pensada contra pornografia deepfake não consensual na UE — e o fato de que isso eventualmente acontecerá. A questão, explica Allen, é que “o processo legislativo da UE é inerentemente longo”, pois precisa passar por 27 países, sete grupos políticos e o Conselho Europeu. As coisas não acontecem rapidamente na UE por um motivo.

Mas mesmo quando (ou se) houver regulamentação direta contra pornografia deepfake não consensual, isso não significa que ela resolverá tudo imediatamente.

Falando com Bill Eichner do Centro de Análise de Política Europeia, CEPAele diz que a Europa “tende a regulamentar e depois tem dificuldade em aplicá-la devido à natureza fragmentada da União Europeia”. Como exemplo, ele aponta para o RGPD e como deu “a palavra final sobre o Google e o Meta à Irlanda, e sobre a Amazon ao Luxemburgo”, nenhum dos quais tinha a intenção de reprimir.

Com regulamentações mais recentes como a DSA, Eichner diz que “eles aumentaram a aplicação de Bruxelas” e tornaram a administração mais centralizada. Ele acredita que a questão, no entanto, é baseada em recursos, já que a parte da Comissão Europeia que cuida de regulamentações como a DSA geralmente consiste em “apenas um punhado de funcionários”.

Isso, quando combinado com a estrutura da UE, pode tornar a aplicação da lei um pesadelo — e não há razão para acreditar que reprimir a pornografia deepfake não consensual seria diferente.

Usando tecnologia para combater pornografia deepfake não consensual

“Acredito que interromper a pornografia deepfake apresenta desafios significativos, semelhantes à segurança cibernética”, diz Vanberghen. No entanto, isso não significa que não podemos combatê-la.

Uma coisa que Vanberghen destaca é o desenvolvimento de ferramentas baseadas em IA que são capazes de detectar conteúdo deepfake, para que os operadores possam removê-lo de forma rápida e eficiente.

Allen tem uma visão semelhante, mas ressalta que a criação dessas ferramentas precisa ser bastante pesquisada, para que as técnicas usadas sejam “eficazes, proporcionais e resultem em resultados equitativos”.

Infelizmente, porém, é improvável que a pornografia deepfake não consensual desapareça completamente da sociedade. Como Vanberghen diz, “embora a erradicação completa possa ser inatingível, uma redução significativa é alcançável por meio de medidas proativas e esforços colaborativos em vários setores”.

Baines, do BCS, apoia esse pensamento. Ela ressalta que, além de apenas “medidas técnicas e impedimentos legais, precisaremos tentar reduzir o estigma de ser deepfaked, aumentando a conscientização de que essas não são imagens reais”.

Esforço concertado para combater o abuso de deepfake

A ideia é que, junto com medidas técnicas, seja necessário um empurrão social e educacional contra o conteúdo ilegal. Isso, se combinado com mais financiamento para aqueles que buscam processar os perpetradores, poderia reduzir severamente o dano que ele causa.

No final das contas, a pornografia deepfake não consensual não vai desaparecer sozinha. Ela requer um esforço concentrado em todos os aspectos do governo e da sociedade para destacar o que ela é: abuso.

São necessárias regulamentações em toda a Europa contra a criação de pornografia deepfake não consensual, mas isso por si só não será suficiente. Em vez disso, deve haver uma estrutura para fazer cumprir essas leis. A tecnologia pode desempenhar um papel vital nisso, mas um imperativo cultural também é necessário — muito parecido com dirigir embriagado.

Sim, conforme a tecnologia evolui, ela será inevitavelmente usada para propósitos malignos. No entanto, as coisas não são tão simples assim. As mesmas ferramentas que permitem atividades maliciosas também podem preveni-las. Podemos não ser capazes de impedir o nascer e o pôr do sol, mas podemos influenciar como os humanos usam a tecnologia. Vamos apenas esperar que isso aconteça em breve.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *