Os reguladores chineses provavelmente aprenderam com a Lei de IA da UE, diz Jeffrey Ding, professor assistente de Ciência Política na Universidade George Washington. “Os decisores políticos e académicos chineses disseram que se basearam nas Leis da UE como inspiração para coisas do passado.”
Mas, ao mesmo tempo, algumas das medidas tomadas pelos reguladores chineses não são realmente replicáveis noutros países. Por exemplo, o governo chinês está pedindo às plataformas sociais que analisem o conteúdo enviado pelos usuários para IA. “Isso parece algo muito novo e pode ser exclusivo do contexto da China”, diz Ding. “Isso nunca existiria no contexto dos EUA, porque os EUA são famosos por dizer que a plataforma não é responsável pelo conteúdo.”
Mas e quanto à liberdade de expressão online?
O projeto de regulamento sobre rotulagem de conteúdo de IA aguarda feedback do público até 14 de outubro e pode levar vários meses para ser modificado e aprovado. Mas há poucos motivos para as empresas chinesas adiarem a preparação para quando a medida entrar em vigor.
Sima Huapeng, fundador e CEO da empresa chinesa AIGC Silicon Intelligence, que usa tecnologias deepfake para gerar agentes de IA, influenciadores e replicar pessoas vivas e mortas, diz que seu produto agora permite que os usuários escolham voluntariamente se querem marcar o produto gerado como IA. Mas se a lei for aprovada, ele poderá ter que alterá-la para obrigatória.
“Se um recurso for opcional, provavelmente as empresas não o adicionarão aos seus produtos. Mas se se tornar obrigatório por lei, todos terão de implementá-lo”, afirma Sima. Não é tecnicamente difícil adicionar marcas d’água ou rótulos de metadados, mas aumentará os custos operacionais para empresas que estejam em conformidade.
Políticas como esta podem impedir que a IA seja utilizada para fraudes ou invasão de privacidade, diz ele, mas também podem desencadear o crescimento de um mercado negro de serviços de IA, onde as empresas tentam evitar a conformidade legal e poupar custos.
Há também uma linha tênue entre responsabilizar os produtores de conteúdo de IA e policiar o discurso individual por meio de rastreamento mais sofisticado.
“O grande desafio subjacente aos direitos humanos é garantir que estas abordagens não comprometam ainda mais a privacidade ou a liberdade de expressão”, afirma Gregory. Embora os rótulos e marcas de água implícitos possam ser utilizados para identificar fontes de desinformação e conteúdos inadequados, as mesmas ferramentas podem permitir que as plataformas e o governo tenham um controlo mais forte sobre o que os utilizadores publicam na Internet. Na verdade, as preocupações sobre a forma como as ferramentas de IA podem tornar-se desonestas têm sido um dos principais impulsionadores dos esforços proactivos de legislação sobre IA da China.
Ao mesmo tempo, a indústria chinesa de IA está a pressionar o governo para que tenha mais espaço para experimentar e crescer, uma vez que já está atrás dos seus pares ocidentais. Uma lei chinesa anterior sobre IA generativa foi consideravelmente diluída entre o primeiro projecto público e o projecto de lei final, eliminando os requisitos de verificação de identidade e reduzindo as sanções impostas às empresas.
“O que vimos é o governo chinês realmente tentando caminhar nesta corda bamba entre ‘garantir que mantemos o controle de conteúdo’, mas também ‘permitir que esses laboratórios de IA em um espaço estratégico tenham a liberdade de inovar’”, diz Ding. “Esta é outra tentativa de fazer isso.”