Meta e Snap são as últimas empresas de tecnologia a receber pedidos formais de informações (RFI) da Comissão Europeia sobre as medidas que estão tomando para proteger menores em suas plataformas, de acordo com os requisitos estabelecidos na Lei de Serviços Digitais (DSA) do bloco.

Ontem, a Comissão enviou RFIs semelhantes ao TikTok e ao YouTube também com foco na proteção infantil. A segurança dos menores emergiu rapidamente como uma área prioritária para a supervisão da DSA da UE.

A Comissão designou 19 chamadas plataformas online muito grandes (VLOPs) e motores de busca online muito grandes (VLOSEs) em abril, entre elas as redes sociais Facebook e Instagram da Meta e o aplicativo de mensagens Snapchat da Snap.

Embora o regime completo só esteja em funcionamento em fevereiro do próximo ano, quando a conformidade entrar em vigor para serviços menores, espera-se que plataformas maiores já sejam compatíveis com DSA, no final de agosto.

A última RFI pede mais detalhes à Meta e à Snap sobre como estão a cumprir as obrigações relacionadas com avaliações de risco e medidas de mitigação para proteger menores online – com particular referência aos riscos para a saúde física e mental das crianças.

As duas empresas tiveram até 1º de dezembro para responder à última RFI.

Procurado para comentar, um porta-voz do Snap disse:

Recebemos o RFI e responderemos à Comissão oportunamente. Partilhamos os objetivos da UE e da DSA para ajudar a garantir que as plataformas digitais proporcionam uma experiência adequada à idade, segura e positiva aos seus utilizadores.

Meta também nos enviou um comunicado:

Estamos firmemente empenhados em proporcionar aos adolescentes experiências online seguras e positivas e já introduzimos mais de 30 ferramentas para apoiar os adolescentes e as suas famílias. Isso inclui ferramentas de supervisão para os pais decidirem quando e por quanto tempo seus filhos adolescentes usam o Instagram, tecnologia de verificação de idade que ajuda a garantir que os adolescentes tenham experiências adequadas à idade e ferramentas como o Modo Silencioso e o Take A Break, que ajudam os adolescentes a gerenciar o tempo de tela. Esperamos fornecer mais detalhes sobre este trabalho à Comissão Europeia.

Não é o primeiro DSA RFI Meta recebido; a Comissão também lhe pediu recentemente mais detalhes sobre o que está a fazer para mitigar conteúdos ilegais e riscos de desinformação relacionados com a guerra Israel-Hamas; e para obter mais detalhes sobre as medidas que está tomando para garantir a segurança eleitoral.

A guerra no Médio Oriente e a segurança eleitoral emergiram rapidamente como outras áreas prioritárias para a aplicação do ASD pela Comissão, juntamente com a protecção das crianças.

Nos últimos dias, a UE também emitiu uma RFI sobre o gigante chinês do comércio eletrônico, AliExpress — procurar mais informações sobre medidas para cumprir as obrigações relacionadas com a proteção do consumidor, especialmente em domínios como os produtos ilegais, como os medicamentos falsificados. Assim, os riscos relacionados com a venda online de mercadorias perigosas parecem ser outro foco inicial.

Áreas prioritárias

A Comissão afirma que o seu foco inicial na aplicação da DSA nos VLOPs/VLOSEs é “autoexplicativo” – concentrando-se nas áreas onde considera imperativo que o quadro emblemático de transparência e responsabilização produza resultados rapidamente.

“Quando se é um novo regulador digital, como nós somos, é necessário começar o seu trabalho identificando áreas prioritárias”, disse um funcionário da Comissão, durante uma reunião informativa com jornalistas. “Obviamente, no contexto do conflito Hamas-Israel – conteúdo ilegal, anti-semitismo, racismo – essa é uma área importante. Tínhamos que estar presentes para lembrar às plataformas o seu dever de estarem preparadas com os seus sistemas para serem capazes de eliminar rapidamente conteúdos ilegais.

“Imagine, você sabe, possíveis filmagens ao vivo do que poderia acontecer ou poderia ter acontecido com os reféns, então realmente tivemos que interagir com eles desde o início. Também para ser um parceiro no combate à desinformação.”

Embora outra “área importante”, onde a Comissão tem atuado particularmente esta semana, seja a proteção das crianças – dada a “grande promessa” do regulamento de melhorar a experiência online dos menores. As primeiras plataformas de avaliação de risco produziram em relação à segurança infantil espaço para melhorias, de acordo com a Comissão.

As divulgações no primeiro conjunto de relatórios de transparência que a DSA exige dos VLOPs e VLOSEs, que foram publicados nas últimas semanas antes do prazo final no início deste mês, são “uma mistura”, disse também um funcionário da UE.

A Comissão não criou um repositório centralizado onde as pessoas possam aceder facilmente a todos os relatórios. Mas estão disponíveis nos próprios sites das plataformas. (Os relatórios de transparência de DSA da Meta para Facebook e Instagram podem ser baixado daqui, por exemplo; enquanto O relatório do Snap está aqui.)

As divulgações incluem métricas importantes, como usuários ativos por Estado-Membro da UE. Os relatórios também contêm informações sobre os recursos de moderação de conteúdos das plataformas, incluindo detalhes sobre as capacidades linguísticas do pessoal de moderação de conteúdos.

O facto de as plataformas não terem um número adequado de moderadores de conteúdos fluentes em todas as línguas faladas na UE tem sido um pomo de discórdia de longa data para o bloco. E durante o briefing de hoje, um funcionário da Comissão descreveu-a como uma “luta constante” com as plataformas, incluindo aquelas que aderiram ao Código de Conduta sobre Desinformação da UE, que antecede o DSA em cerca de cinco anos.

O funcionário prosseguiu dizendo que é improvável que a UE acabe exigindo que um determinado número de moderadores sejam contratados por VLOPs/VLOSEs por idioma do Estado-Membro. Mas sugeriram que os relatórios de transparência deveriam funcionar para aplicar “pressão dos pares” – por exemplo, mostrando algumas “enormes” diferenças nos recursos relativos.

Durante o briefing, a Comissão destacou algumas comparações já extraídas dos primeiros conjuntos de relatórios, incluindo um gráfico que descreve o número de plataformas de moderadores de conteúdo da UE relatadas – o que coloca o YouTube na liderança (relatando 16.974); seguido pelo Google Play (7.319); e TikTok (6.125).

Considerando que o Meta relatou apenas 1.362 moderadores de conteúdo da UE – o que é menos do que o Snap (1.545); ou Elon Musk era dono do X/Twitter (2.294).

Ainda assim, funcionários da Comissão alertaram que os primeiros relatórios não são padronizados. (O relatório do Snap, por exemplo, observa que sua equipe de moderação de conteúdo “opera em todo o mundo” – e a distribuição dos recursos humanos de moderação indica “as especialidades linguísticas dos moderadores”. Mas alerta que, ao observar, alguns moderadores são especializados em vários idiomas. Portanto, , presumivelmente, alguns dos seus “moderadores da UE” podem não moderar exclusivamente conteúdo relacionado com utilizadores da UE.)

“Ainda há algum trabalho técnico a ser feito, apesar da transparência, porque queremos ter certeza de que todos têm o mesmo conceito do que é um moderador de conteúdo”, observou um funcionário da Comissão. “Não é necessariamente o mesmo para todas as plataformas. O que significa falar uma língua? Parece estúpido, mas na verdade é algo que temos que investigar com um pouco mais de detalhes.”

Outro elemento que eles disseram estar interessados ​​em entender é “qual é o estado estável dos moderadores de conteúdo” – se existe um nível permanente ou se, por exemplo, os recursos são mobilizados para uma eleição ou um evento de crise – acrescentando que isso é algo que a Comissão está a investigar neste momento.

No X, a Comissão também disse que é muito cedo para fazer qualquer declaração sobre a eficácia (ou não) da abordagem de crowdsourcing da plataforma para moderação de conteúdo (também conhecido como recurso de Notas da Comunidade do X).

Mas as autoridades da UE disseram que X ainda tem algumas equipas de integridade eleitoral com as quais estão a interagir para aprender mais sobre a sua abordagem para defender as suas políticas nesta área.

Transparência sem precedentes

O que está claro é que o primeiro conjunto de relatórios de transparência de DSA provenientes de plataformas abriu novas questões que, por sua vez, desencadearam uma onda de RFIs à medida que a UE procura marcar a resolução das divulgações que está a obter das Big Tech. Assim, a enxurrada de RFI reflecte lacunas nas primeiras divulgações à medida que o regime arranca.

Isto pode dever-se, em parte, ao facto de os relatórios de transparência ainda não estarem harmonizados. Mas isso irá mudar, uma vez que a Comissão confirmou que apresentará, provavelmente no início do próximo ano, um ato de execução (também conhecido como legislação secundária) que incluirá modelos de relatórios para estas divulgações.

Isto sugere que podemos – em última análise – esperar ver menos RFIs disparados contra plataformas no futuro, à medida que as informações que são obrigadas a fornecer se tornam mais padronizadas e os dados fluem de forma mais constante e previsível.

Mas, é claro, levará tempo até que o regime se instale e tenha o impacto que a UE deseja – de forçar as Big Tech a uma relação mais responsável e responsável com os utilizadores e a sociedade em geral.

Entretanto, os RFI são um sinal de que as rodas da DSA estão a girar.

A Comissão deseja ser vista flexibilizando ativamente os poderes para obter dados que afirma nunca terem sido divulgados publicamente pelas plataformas antes – como recursos de moderação de conteúdo por mercado; ou dados sobre a precisão das ferramentas de moderação de IA. Assim, as plataformas devem esperar receber muito mais pedidos deste tipo nos próximos meses (e anos), à medida que os reguladores aprofundam a sua supervisão e tentam verificar se os sistemas VLOPs/VLOSEs construídos em resposta ao novo risco regulatório são realmente “eficazes” ou não.

A esperança da Comissão para a DSA é que, com o tempo, abra uma janela “sem precedentes” sobre a forma como os gigantes da tecnologia estão a operar. Ou inaugurar uma “dimensão totalmente nova de transparência”, como disse hoje um dos responsáveis. E essa reinicialização reconfigurará para melhor a forma como as plataformas operam, gostem ou não.

“EUÉ importante notar que já há mudanças a acontecer”, sugeriu hoje um funcionário da Comissão. “Se você olhar para toda a área de moderação de conteúdo, agora você a verá em preto e branco, com os relatórios de transparência… e essa é a pressão dos pares que, é claro, continuaremos a aplicar. Mas também o público pode continuar a exercer pressão dos pares e perguntar, espere um minuto, por que X não tem a mesma quantidade de moderadores de conteúdo que outros, por exemplo?

Também hoje, as autoridades da UE confirmaram que ainda não foi aberta qualquer investigação formal da DSA. (Novamente, as RFIs também são uma etapa precedente sequencial e necessária para quaisquer possíveis investigações futuras que sejam abertas nas próximas semanas e meses.)

Embora a aplicação — em termos de multas ou outras sanções para infrações confirmadas — não possa entrar em vigor antes da próxima primavera, uma vez que todo o regime precisa de estar operacional antes que os procedimentos formais de execução possam ter lugar. Assim, os próximos meses da ASD serão dominados pela recolha de informação; e – espera a UE – começar a mostrar o poder da transparência para moldar uma narrativa nova e mais quantificada sobre a Big Tech.

Mais uma vez, sugere que já se estão a observar mudanças positivas nesta frente. Assim, em vez das habituais “respostas genéricas e números absolutos” rotineiramente apresentadas pelos gigantes da tecnologia em relatórios voluntários (como o já mencionado Código de Desinformação), as RFIs, ao abrigo da DSA juridicamente vinculativa, estão a extrair “muito mais dados e informações utilizáveis”, segundo um funcionário da Comissão.

“Se percebermos que não estamos obtendo as respostas certas, (podemos) abrir uma investigação, uma investigação formal; poderemos chegar a medidas provisórias; poderíamos chegar a acordos de conformidade”, observou outro responsável, descrevendo o processo como “uma avalanche de passos individuais – e só no final haveria a potencial decisão de sanções”. Mas também enfatizaram que a própria transparência pode ser um gatilho para a mudança, apontando para o poder da “pressão dos pares” e da ameaça do “risco reputacional” para impulsionar a reforma.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Políticas de privacidade

Este site usa cookies para que possamos oferecer a melhor experiência de usuário possível. As informações de cookies são armazenadas em seu navegador e executam funções como reconhecê-lo quando você retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.