Em 29 de janeiro, em testemunho perante o Comitê Judiciário do Senado da Geórgia, Hunt-Blackwell pediu aos legisladores que eliminassem as penalidades criminais do projeto de lei e adicionassem exceções para organizações de mídia de notícias que desejassem republicar deepfakes como parte de suas reportagens. A sessão legislativa da Geórgia terminou antes que o projeto de lei pudesse prosseguir.
Legislação federal sobre deepfake também está definido para encontrar resistência. Em janeiro, os legisladores no Congresso introduziram o No AI FRAUD Act, que concederia direitos de propriedade para a imagem e voz das pessoas. Isso permitiria que aqueles retratados em qualquer tipo de deepfake, bem como seus herdeiros, processassem aqueles que participaram da criação ou disseminação da falsificação. Essas regras visam proteger as pessoas de deepfakes pornográficos e imitação artística. Semanas depois, a ACLU, a Electronic Frontier Foundation e o Center for Democracy and Technology apresentaram uma oposição por escrito.
Junto com vários outros grupos, eles argumentaram que as leis poderiam ser usadas para suprimir muito mais do que apenas discurso ilegal. A mera perspectiva de enfrentar um processo, argumenta a carta, poderia assustar as pessoas de usar a tecnologia para atos constitucionalmente protegidos, como sátira, paródia ou opinião.
Em uma declaração à WIRED, a patrocinadora do projeto de lei, a deputada María Elvira Salazar, observou que “o No AI FRAUD Act contém reconhecimento explícito das proteções da Primeira Emenda para discurso e expressão no interesse público”. A deputada Yvette Clarke, que patrocinou um projeto de lei paralelo que exige que deepfakes retratando pessoas reais sejam rotulados, disse à WIRED que ele foi alterado para incluir exceções para sátira e paródia.
Em entrevistas com a WIRED, defensores de políticas e litigantes na ACLU observaram que não se opõem a regulamentações estritamente adaptadas voltadas para pornografia deepfake não consensual. Mas eles apontaram para as leis antiassédio existentes como uma estrutura robusta (mais ou menos) para abordar a questão. “É claro que pode haver problemas que você não pode regular com as leis existentes”, disse-me Jenna Leventoff, uma conselheira sênior de políticas da ACLU. “Mas acho que a regra geral é que a lei existente é suficiente para atingir muitos desses problemas.”
No entanto, isso está longe de ser uma visão consensual entre os estudiosos do direito. Como Mary Anne Franks, professora de direito da George Washington University e uma das principais defensoras de regras rígidas anti-deepfake, disse à WIRED em um e-mail: “A falha óbvia no argumento ‘Já temos leis para lidar com isso’ é que, se isso fosse verdade, não estaríamos testemunhando uma explosão desse abuso sem um aumento correspondente no registro de acusações criminais”. Em geral, disse Franks, os promotores em um caso de assédio devem mostrar, além de qualquer dúvida razoável, que o suposto perpetrador pretendia prejudicar uma vítima específica — um alto padrão a ser atingido quando esse perpetrador pode nem mesmo conhecer a vítima.
Franks acrescentou: “Um dos temas consistentes das vítimas que sofrem esse abuso é que não há soluções legais óbvias para elas — e elas são as únicas que saberiam.”
A ACLU tem ainda não processou nenhum governo sobre regulamentações de IA generativa. Os representantes da organização não disseram se estão preparando um caso, mas tanto o escritório nacional quanto vários afiliados disseram que estão mantendo um olhar atento sobre o pipeline legislativo. Leventoff me garantiu: “Nós tendemos a agir rapidamente quando algo surge.”