À medida que os legisladores da União Europeia avançam Mais de 20 horas de tempo de negociação em uma maratona de tentativa de chegar a um acordo sobre como regular a inteligência artificial, um acordo preliminar sobre como lidar com um elemento difícil – regras para modelos fundamentais/IAs de uso geral (GPAIs) – foi acordado, de acordo com uma proposta vazada que o TechCrunch revisou.

Nas últimas semanas, houve um esforço conjunto, liderado pela startup francesa de IA Mistral, para uma regulamentação total para modelos/GPAIs fundamentais. Mas os legisladores da UE parecem ter resistido ao impulso total para deixar o mercado acertar as coisas, uma vez que a proposta mantém elementos da abordagem escalonada para regular estas IA avançadas que o parlamento propôs no início deste ano.

Dito isto, há uma exclusão parcial de algumas obrigações para sistemas GPAI que são fornecidos sob licenças gratuitas e de código aberto (o que é estipulado para significar que seus pesos, informações sobre a arquitetura do modelo e sobre o uso do modelo disponibilizadas publicamente) — com algumas exceções, inclusive para modelos de “alto risco”.

Reuters também relatou exceções parciais para IAs avançadas de código aberto.

De acordo com a nossa fonte, a exceção de código aberto é ainda mais limitada pela implantação comercial – portanto, se/quando tal modelo de código aberto for disponibilizado no mercado ou colocado em serviço de outra forma, a exclusão não existiria mais. “Portanto, há uma possibilidade de a lei se aplicar ao Mistral, dependendo de como são interpretados ‘disponibilizar no mercado’ ou ‘colocar em serviço’”, sugeriu a nossa fonte.

O acordo preliminar que vimos mantém a classificação dos GPAIs com o chamado “risco sistêmico” – sendo que os critérios para um modelo receber essa designação são que ele tenha “capacidades de alto impacto”, inclusive quando a quantidade cumulativa de computação usada para seu treinamento for medida em operações de ponto flutuante (FLOPs) é maior que 10^25.

Nesse nível muito poucos modelos atuais parecem atingir o limite de risco sistêmico — sugerindo que poucos GPAIs de ponta teriam de cumprir obrigações iniciais para avaliar e mitigar proativamente os riscos sistémicos. Assim, o lobby de Mistral parece ter suavizado o golpe regulatório.

Nos termos do acordo preliminar, outras obrigações para fornecedores de GPAIs com risco sistêmico incluem a realização de avaliações com protocolos padronizados e ferramentas de última geração; documentar e relatar incidentes graves “sem demora injustificada”; conduzir e documentar testes adversários; garantir um nível adequado de cibersegurança; e relatar o consumo de energia real ou estimado do modelo.

Noutros locais, existem algumas obrigações gerais para os fornecedores de GPAI, incluindo testes e avaliação do modelo e elaboração e conservação de documentação técnica, que teria de ser fornecida às autoridades reguladoras e aos organismos de supervisão, mediante pedido.

Eles também precisariam fornecer aos implantadores downstream de seus modelos (também conhecidos como criadores de aplicativos de IA) uma visão geral das capacidades e limitações do modelo para apoiar sua capacidade de cumprir a Lei de IA.

O texto da proposta também exige que os criadores de modelos fundamentais implementem uma política para respeitar a legislação de direitos de autor da UE, incluindo no que diz respeito às limitações que os titulares de direitos de autor impuseram à prospeção de textos e dados. Além disso, devem fornecer um resumo “suficientemente detalhado” dos dados de formação utilizados para construir o modelo e torná-lo público – com um modelo para a divulgação a ser fornecido pelo AI Office, um órgão de governação da IA ​​que o regulamento se propõe criar.

Entendemos que este resumo de divulgação de direitos autorais ainda se aplicaria a modelos de código aberto – constituindo mais uma das exceções à sua exclusão das regras.

O texto que vimos contém uma referência a códigos de prática, nos quais a proposta diz que os GPAIs – e os GPAIs com risco sistémico – podem confiar para demonstrar conformidade, até que uma “norma harmonizada” seja publicada.

Prevê o envolvimento do Gabinete de IA na elaboração de tais códigos. Embora a Comissão preveja emitir pedidos de normalização a partir de seis meses após a entrada em vigor do regulamento sobre os GPAI — tais como solicitar resultados sobre relatórios e documentação sobre formas de melhorar a utilização de energia e recursos dos sistemas de IA — com relatórios regulares sobre os seus progressos em o desenvolvimento destes elementos normalizados também incluiu (dois anos após a data de aplicação; e depois de quatro em quatro anos).

O trílogo de hoje sobre a Lei da IA ​​começou ontem à tarde, mas a Comissão Europeia parece determinada que será a última batalha entre o Conselho Europeu, o Parlamento e os seus próprios funcionários neste dossiê contestado. (Caso contrário, como já reportámos anteriormente, existe o risco de o regulamento voltar a ser colocado na prateleira à medida que se aproximam as eleições da UE e novas nomeações para a Comissão no próximo ano.)

No momento em que este artigo foi escrito, as conversações para resolver vários outros elementos contestados do processo continuavam em curso e ainda havia muitas questões extremamente sensíveis sobre a mesa (como a vigilância biométrica para fins de aplicação da lei). Portanto, ainda não está claro se o arquivo ultrapassa a linha.

Sem acordo sobre todos os componentes, não pode haver acordo para garantir a lei, pelo que o destino da Lei da IA ​​permanece no ar. Mas para aqueles que desejam compreender onde chegaram os co-legisladores no que diz respeito às responsabilidades por modelos avançados de IA, como o grande modelo de linguagem que sustenta o chatbot viral de IA ChatGPT, o acordo preliminar oferece alguma orientação sobre o rumo que os legisladores pretendem tomar.

Nos últimos minutos, o comissário do mercado interno da UE, Thierry Breton, tuitou para confirmar que as negociações foram finalmente interrompidas – mas apenas até amanhã. O trílogo épico está programado para ser retomado às 9h, horário de Bruxelas, então a Comissão ainda parece decidida a ultrapassar o limite esta semana do livro de regras de IA baseado em risco que propôs em abril de 2021. É claro que isso dependerá da obtenção de compromissos que sejam aceitáveis ​​para os outros colegisladores, o Conselho e o Parlamento. E com riscos tão elevados e um arquivo tão sensível, o sucesso não é de forma alguma garantido.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *