O painel no palco do evento Informed da Fundação Knight é de Elon Musk rotação contundente de pesadelo: Mike Masnick, editor do Techdirt, Yoel Roth, ex-líder de segurança do Twitter, e Jay Graber, CEO da Bluesky, que se reuniram para discutir a moderação de conteúdo no fediverse.

Já se passou mais de um ano desde que Musk apareceu na sede do Twitter com uma pia literal a reboque, mas muitos usuários de mídia social ainda são um pouco nômades, flutuando entre várias plataformas emergentes. E se um usuário optou por deixar o Twitter na era Musk, provavelmente está procurando uma plataforma com real políticas de moderaçãoo que significa ainda mais pressão para líderes como Graber para encontrarem o frágil equilíbrio entre a tediosa moderação excessiva e uma abordagem totalmente indiferente.

“Toda a filosofia é que isso precisa ter uma boa experiência do usuário e uma boa experiência”, disse Graber sobre sua abordagem para administrar o Bluesky. “As pessoas não estão nisso apenas pela descentralização e pelas ideias abstratas. Eles estão nisso para se divertir e se divertir aqui.”

E no início, os usuários estavam tendo uma experiência boa – muito boa.

“Tínhamos uma proporção muito alta de postadores e espreitadores. Em muitas plataformas sociais, há uma porcentagem muito pequena de pessoas que postam e uma porcentagem muito grande de pessoas que ficam à espreita”, disse Graber. “Tem sido uma cultura de postagem muito ativa, e continua sendo, embora o início tenha sido extremamente alto, como se 90-95% dos usuários estivessem postando.”

Mas Bluesky enfrentou alguns dores de crescimento em sua versão beta enquanto descobre qual abordagem adotar para questões delicadas de moderação de conteúdo. Em um incidente, sobre o qual Roth perguntou a Graber no painel, os usuários descobriram que Bluesky não tinha uma lista de palavras proibidas de aparecer em nomes de usuários. Como resultado, os usuários começaram a registrar nomes de contas com insultos raciais.

“Na época, no verão passado, éramos uma equipe muito pequena, com menos de dez engenheiros. Poderíamos todos caber em torno de uma mesa de conferência”, disse Graber. Quando os moderadores de conteúdo descobriram o problema com insultos em nomes de usuário, a equipe corrigiu o código, que é de código aberto, para que os usuários pudessem ver a implementação das listas de palavras acontecer em tempo real, o que gerou mais debate. “Aprendemos muito sobre transparência na comunicação e como ser realmente proativos…. Uma das razões pelas quais permanecemos na versão beta por tanto tempo é para nos dar algum espaço para acertar.”

Desde então, tanto a base de usuários da Bluesky quanto sua equipe cresceram. A Bluesky contratou mais engenheiros e moderadores de conteúdo, enquanto seu número total de usuários aumentou de cerca de 50.000 no final de abril de 2023 para mais de 3 milhões este mês. E a plataforma ainda não está aberta ao público.

“É justo dizer que cerca de metade do nosso trabalho técnico com produtos está relacionado de alguma forma à confiança e à segurança, porque a moderação é fundamental para como isso funciona em um ecossistema aberto”, disse Graber.

Para plataformas como Bluesky, Mastodon e Threads, os desafios de moderação de conteúdo tornam-se ainda mais complicados quando você adiciona a variável fediverse.

Assim que o protocolo AT estiver totalmente instalado e funcionando, qualquer pessoa poderá construir sua própria rede social sobre a infraestrutura do Bluesky – o Bluesky, como rede social, é apenas um aplicativo construído no protocolo. Mas isto significa que, à medida que novas redes surgem no Protocolo AT, a empresa terá de decidir como (ou se) deverá regular o que as pessoas fazem na plataforma. Por enquanto, isso significa que a Bluesky está construindo o que chama de “moderação combinável”.

“Nossa visão mais ampla aqui é a moderação combinável, e isso significa essencialmente que nos serviços que executamos, como o aplicativo, definimos uma linha de base para moderação”, disse Graber. “Mas queremos construir um ecossistema onde qualquer pessoa possa participar (com moderação), e os terceiros sejam realmente os primeiros.”

Graber explica mais detalhadamente o conceito complicado em um postagem no blog:

As plataformas sociais centralizadas delegam toda a moderação a um conjunto central de administradores cujas políticas são definidas por uma empresa. Isto é um pouco como resolver todas as disputas ao nível do Supremo Tribunal. As redes federadas delegam decisões de moderação aos administradores do servidor. Isto é mais como resolver disputas no nível do governo estadual, o que é melhor porque você pode mudar para um novo estado se não gostar das decisões do seu estado – mas a mudança geralmente é difícil e cara em outras redes. Melhoramos esta situação facilitando a troca de servidores e separando a moderação em serviços estruturalmente independentes.

Portanto, o Bluesky pode determinar que a violação de direitos autorais e o spam não sejam permitidos, mas um aplicativo individual construído no protocolo pode criar suas próprias regras, desde que não contradigam a linha de base do Bluesky. Por exemplo, Bluesky permite que os usuários postem conteúdo adulto, mas se alguém construísse um servidor mais familiar no protocolo AT, teria o direito de banir conteúdo adulto de seu servidor específico – e se alguém nesse servidor discordasse com Após essa decisão, eles poderiam facilmente transferir sua conta para um servidor diferente e reter todos os seus seguidores.

“Um dos problemas que temos agora é que, quando você tem apenas o que o Twitter ou Meta oferece, e talvez apenas algumas opções ou caixas de seleção, isso não é realmente uma escolha algorítmica”, disse Masnick. “Isso não é realmente uma moderação combinável. Isso não significa que você realmente permita que diferentes entidades experimentem coisas diferentes e vejam o que funciona melhor.”

Os usuários também podem optar por usar feeds de terceiros para visualizar o conteúdo, em vez de apenas escolher entre as guias “recomendado” e “seguir”.

“Em vez de dizer às pessoas que a descentralização tem todos esses benefícios em abstrato (…) é muito mais poderoso apenas dizer que aqui há 25 mil feeds personalizados que desenvolvedores terceirizados criaram e você pode simplesmente escolher entre eles”, disse Graber. .

Mas como ainda é cedo para Bluesky, essa filosofia de moderação combinável ainda não foi testada. Enquanto isso, empresas de nuvemflarepara Substack, para Mastodonte já calculamos o que fazer quando comunidades perigosas se organizam em sua plataforma.

“Digamos que alguém pegue todo esse código que você está publicando e o protocolo AT e construa uma nova rede. Vamos chamá-lo de NaziSky”, disse Roth a Graber. “O que você faz?”

O Mastodon enfrentou esse problema em 2019, quando a rede social Gab, de extrema direita e amiga dos nazistas, migrou para seus servidores após ser expulsa do GoDaddy. O fundador do Mastodon condenou Gab, mas disse na época que a descentralização o impedia de realmente agir – então, os usuários tinham que resolver o problema por conta própria. Servidores individuais do Mastodon bloquearam o servidor do Gab em massa, impossibilitando a interação dos membros do Gab com outras pessoas no site. Mas ainda assim, o Mastodon tem que contar com o fato de seu código-fonte aberto ser usado para alimentar o que ele chamadas uma “plataforma de supremacia branca velada (se é que existe)”.

“Essa é uma das vantagens do código aberto, que traz muitos benefícios – o material é aberto, qualquer um pode colaborar, qualquer um pode contribuir, qualquer um pode usar o código”, disse Graber. “Isso também significa que pessoas cujos valores divergem drasticamente dos seus podem usar o código, pegá-lo e executá-lo.”

Assim como aconteceu no Mastodon, Graber acredita que a base de usuários acabará por definir o tom para o que é considerado um comportamento aceitável na plataforma.

“É um ecossistema pluralista. Há muitos partidos por aí, e quando eles decidem por unanimidade que algo está fora da janela Overton das normas de comunicação, então isso se torna uma espécie de consenso social”, disse Graber. “Se surgir todo um universo paralelo, isso será possível com software de código aberto, mas essas comunidades não necessariamente falam se as normas são tão drasticamente divergentes.”

Mais uma vez, plataformas sociais dominantes e centralizadas como o Facebook e o X mostraram os perigos que podem surgir quando apenas algumas pessoas estão encarregadas destas decisões de moderação, em vez de comunidades inteiras.

“Infelizmente, você não pode transformar um nazista em não nazista. Mas podemos limitar o impacto dos nazistas”, disse Masnick. “Vamos limitar a capacidade deles de causar estragos. Acho que isso leva a um lugar melhor no longo prazo.”

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *