O Conselho de Supervisão da Meta ampliou seu escopo para incluir a mais nova plataforma da empresa, Instagram Threads. Projetado como um conselho de apelação independente que ouve casos e depois toma decisões de moderação de conteúdo que estabelecem precedentes, o conselho até o momento decidiu casos como a proibição de Donald Trump pelo Facebook, desinformação sobre o COVID-19, remoção de fotos de câncer de mama e muito mais.

Agora o conselho começou a ouvir casos emergentes da Threads, concorrente do Twitter/X da Meta.

Este é um ponto importante de diferenciação entre Threads e rivais como X, onde Elon Musk e outros usuários dependem fortemente de verificações de fatos de crowdsourcing por meio de Community Notes para complementar sua moderação, de outra forma leve. Também é muito diferente de como soluções descentralizadas, como Mastodon e Bluesky, gerenciam tarefas de moderação em suas plataformas. A descentralização permite que os membros da comunidade estabeleçam seus próprios servidores com seu próprio conjunto de regras de moderação e lhes dá a opção de se desfederarem de outros servidores cujo conteúdo contraria suas diretrizes.

A startup Bluesky também está investindo em moderação empilhável, o que significa que os membros da comunidade podem criar e executar seus próprios serviços de moderação, que podem ser combinados com outros para criar uma experiência personalizada para cada usuário individual.

A decisão da Meta de transferir decisões difíceis para um conselho independente que poderia anular a empresa e seu CEO, Mark Zuckerberg, pretendia ser a solução para o problema da autoridade centralizada da Meta e do controle sobre a moderação de conteúdo. Mas, como essas startups mostraram, existem outras maneiras de fazer isso que permitem ao usuário ter mais controle sobre o que vê, sem pisar nos direitos de terceiros de fazerem o mesmo.

No entanto, o Conselho de Supervisão anunciou na quinta-feira que iria ouça seu primeiro caso de Tópicos.

O caso envolve a resposta de um usuário a uma postagem contendo uma captura de tela de uma notícia na qual o primeiro-ministro japonês, Fumio Kishida, fez uma declaração sobre a suposta subnotificação de receitas de arrecadação de fundos por seu partido. A postagem também incluía uma legenda criticando-o por evasão fiscal e continha linguagem depreciativa, bem como a frase “cair morto”. Também usou linguagem depreciativa para quem usa óculos. Por causa do componente “morrer” e das hashtags pedindo a morte, um revisor humano da Meta decidiu que a postagem violava a regra de Violência e Incitação da empresa – apesar de parecer muito com sua postagem X comum hoje em dia. Depois que seu recurso foi negado pela segunda vez, o usuário recorreu ao Conselho.

O Conselho afirma que selecionou este caso para examinar as políticas de moderação de conteúdo da Meta e a aplicação de práticas sobre conteúdo político em Threads. Essa é uma medida oportuna, considerando que é um ano eleitoral e que a Meta declarou que não recomendaria proativamente conteúdo político no Instagram ou no Threads.

O caso da Diretoria será o primeiro envolvendo Threads, mas não será o último. A organização já se prepara para anunciar amanhã outro conjunto de casos focados em alegações criminais baseadas na nacionalidade. Estes últimos casos foram encaminhados ao Conselho pela Meta, mas o Conselho também receberá e avaliará os recursos dos usuários do Threads, como fez com o caso do Primeiro Ministro Kishida.

As decisões tomadas pelo Conselho influenciarão como a Threads, como plataforma, escolherá defender a capacidade dos usuários de se expressarem livremente em sua plataforma, ou se a Threads moderará o conteúdo de forma mais rigorosa do que no Twitter/X. Em última análise, isso ajudará a moldar a opinião pública sobre as plataformas e a influenciar os utilizadores a escolher uma ou outra, ou talvez uma startup a experimentar novas formas de moderar o conteúdo de uma forma mais personalizada.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *