Centenas de pessoas na comunidade de inteligência artificial assinou uma carta aberta pedindo regulamentação estrita de personificações geradas por IA, ou deepfakes. Embora seja pouco provável que isto estimule uma verdadeira legislação (apesar do novo grupo de trabalho da Câmara), funciona como um indicador da forma como os especialistas se apoiam nesta questão controversa.

A carta, assinada por mais de 500 pessoas no campo da IA ​​e adjacentes a ela no momento da publicação, declara que “Deepfakes são uma ameaça crescente à sociedade e os governos devem impor obrigações em toda a cadeia de abastecimento para impedir a proliferação de deepfakes”.

Eles pedem a criminalização total de materiais falsos de abuso sexual infantil (CSAM, também conhecido como pornografia infantil), independentemente de as figuras retratadas serem reais ou fictícias. Penalidades criminais são necessárias em qualquer caso em que alguém crie ou espalhe deepfakes prejudiciais. E os desenvolvedores são chamados a evitar que deepfakes prejudiciais sejam feitos usando seus produtos, em primeiro lugar, com penalidades se suas medidas preventivas forem inadequadas.

Entre os signatários mais proeminentes da carta estão:

  • Jaron Lanier
  • Frances Haugen
  • Stuart Russel
  • André Yang
  • Marietje Schaake
  • Steven Pinker
  • Gary Marcos
  • Oren Etzioni
  • Genevieve Smith
  • Josué Bengio
  • E Hendrycks
  • Equipe Wu

Também estão presentes centenas de acadêmicos de todo o mundo e de muitas disciplinas. Caso você esteja curioso, uma pessoa da OpenAI assinou, algumas do Google Deepmind e nenhuma da Anthropic, Amazon, Apple ou Microsoft (exceto Lanier, cuja posição não é padrão). Curiosamente, eles são classificados na carta por “Notabilidade”.

Este está longe de ser o primeiro apelo a tais medidas; na verdade, têm sido debatidas na UE durante anos antes de serem formalmente propostas no início deste mês. Talvez tenha sido a vontade da UE de deliberar e seguir em frente que fez com que estes investigadores, criadores e executivos se manifestassem.

Ou talvez seja a lenta marcha da KOSA em direcção à aceitação – e a sua falta de protecção para este tipo de abuso.

Ou talvez seja a ameaça (como já vimos) de chamadas fraudulentas geradas por IA que poderiam influenciar as eleições ou roubar o dinheiro de pessoas ingénuas.

Ou talvez seja a força-tarefa de ontem sendo anunciada sem nenhuma agenda específica além de talvez escrever um relatório sobre o que poderiam ser algumas ameaças baseadas em IA e como elas poderiam ser restringidas legislativamente.

Como você pode ver, não faltam motivos para aqueles da comunidade de IA estarem aqui agitando os braços e dizendo “talvez devêssemos, você sabe, fazer alguma coisa?!”

Se alguém prestará atenção a esta carta, ninguém sabe – ninguém realmente prestou atenção ao infame apelo a todos para “pausarem” o desenvolvimento da IA, mas é claro que esta carta é um pouco mais prática. Se os legisladores decidirem abordar a questão, um evento improvável dado que se trata de um ano eleitoral com um congresso fortemente dividido, eles terão esta lista como base para medir a temperatura da comunidade académica e de desenvolvimento mundial da IA.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *