Meta anunciou na quarta-feira a criação de um Conselho Consultivo de IA com apenas homens brancos nele. O que mais esperaríamos? Mulheres e pessoas de cor têm falado há décadas sobre serem ignoradas e excluídas do mundo da inteligência artificial, apesar de serem qualificadas e desempenharem um papel fundamental na evolução deste espaço.
A Meta não respondeu imediatamente ao nosso pedido para comentar sobre a diversidade do conselho consultivo.
Este novo conselho consultivo difere do atual conselho de administração da Meta e do seu Conselho de Supervisão, que é mais diverso na representação de gênero e racial. Os acionistas não elegeram este conselho da AI, que também não tem dever fiduciário. Meta disse à Bloomberg que o conselho ofereceria “insights e recomendações sobre avanços tecnológicos, inovação e oportunidades estratégicas de crescimento”. Reunir-se-ia “periodicamente”.
É revelador que o conselho consultivo de IA seja composto inteiramente por empresários e empreendedores, e não por especialistas em ética ou qualquer pessoa com formação acadêmica ou de pesquisa profunda. Embora se possa argumentar que os executivos atuais e antigos do Stripe, Shopify e Microsoft estão bem posicionados para supervisionar o roteiro de produtos de IA da Meta, dado o imenso número de produtos que trouxeram ao mercado entre eles, foi provado repetidamente que a IA não é como outros produtos. É um negócio arriscado e as consequências de errar podem ser de longo alcance, especialmente para grupos marginalizados.
Numa entrevista recente ao TechCrunch, Sarah Myers West, diretora-gerente do AI Now Institute, uma organização sem fins lucrativos que estuda as implicações sociais da IA, disse que é crucial “examinar criticamente” as instituições que produzem IA para “garantir que as necessidades do público ( são servidos.”
“Esta é uma tecnologia propensa a erros e sabemos, através de pesquisas independentes, que esses erros não são distribuídos igualmente e prejudicam desproporcionalmente as comunidades que há muito suportam o peso da discriminação”, disse ela. “Deveríamos estabelecer um padrão muito, muito mais alto.”
As mulheres têm muito mais probabilidade do que os homens de experimentar o lado negro da IA. A Sensity AI descobriu em 2019 que 96% dos vídeos deepfake online de IA eram vídeos não consensuais e sexualmente explícitos. A IA generativa tornou-se muito mais prevalente desde então, e as mulheres ainda são alvos deste comportamento violador.
Em um incidente de grande repercussão em janeiro, deepfakes pornográficos e não consensuais de Taylor Swift se tornaram virais no X, com uma das postagens mais difundidas recebendo centenas de milhares de curtidas e 45 milhões de visualizações. Plataformas sociais como X falharam historicamente em proteger as mulheres dessas circunstâncias – mas como Taylor Swift é uma das mulheres mais poderosas do mundo, X interveio proibindo termos de pesquisa como “taylor swift ai” e taylor swift deepfake.”
Mas se isso acontecer com você e você não for uma sensação pop global, então você pode estar sem sorte. Existem numerosos relatórios de alunos do ensino fundamental e médio fazendo deepfakes explícitos de seus colegas de classe. Embora essa tecnologia já exista há algum tempo, nunca foi tão fácil acessá-la – você não precisa ser tecnologicamente experiente para baixar aplicativos que são anunciados especificamente para “despir” fotos de mulheres ou trocar seus rostos por pornografia. Na verdade, de acordo com reportagem de Kat Tenbarge da NBC, Anúncios hospedados no Facebook e Instagram para um aplicativo chamado Perky AI, que se descreve como uma ferramenta para criar imagens explícitas.
Dois dos anúncios, que supostamente escaparam da detecção do Meta até que Tenbarge alertou a empresa sobre o problema, mostravam fotos das celebridades Sabrina Carpenter e Jenna Ortega com seus corpos desfocados, pedindo aos clientes que solicitassem que o aplicativo tirasse suas roupas. Os anúncios usavam uma imagem de Ortega de quando ela tinha apenas 16 anos.
O erro de permitir que a Perky AI anunciasse não foi um incidente isolado. O Conselho de Supervisão da Meta abriu recentemente investigações sobre a falha da empresa em lidar com denúncias de conteúdo sexualmente explícito gerado por IA.
É imperativo que as vozes das mulheres e das pessoas de cor sejam incluídas na inovação dos produtos de inteligência artificial. Durante muito tempo, esses grupos marginalizados foram excluídos do desenvolvimento de tecnologias e investigação que mudam o mundo, e os resultados foram desastrosos.
Um exemplo fácil é o facto de, até à década de 1970, as mulheres terem sido excluídas dos ensaios clínicos, o que significa que campos inteiros de investigação foram desenvolvidos sem a compreensão de como isso iria impactar as mulheres. Os negros, em particular, veem os impactos da tecnologia construída sem eles em mente – por exemplo, os carros autónomos têm maior probabilidade de os atingir porque os seus sensores podem ter mais dificuldade detecção de pele negra, de acordo com um estudo de 2019 feito pelo Instituto de Tecnologia da Geórgia.
Algoritmos treinados com base em dados já discriminatórios apenas regurgitam os mesmos preconceitos que os humanos os treinaram para adotar. Em termos gerais, já vemos sistemas de IA perpetuando e amplificando a discriminação racial em emprego, habitação e justiça criminal. Os assistentes de voz lutam para entender diversos sotaques e muitas vezes sinalizar o trabalho por falantes não nativos de inglês como sendo gerados por IA desde então, como Axios observou, O inglês é a língua nativa da IA. Sistemas de reconhecimento facial sinalizar os negros como possíveis combinações para suspeitos de crimes com mais frequência do que os brancos.
O actual desenvolvimento da IA incorpora as mesmas estruturas de poder existentes em relação a classe, raça, género e eurocentrismo que vemos noutros lugares, e parece que não há líderes suficientes a abordar esta questão. Em vez disso, eles estão reforçando isso. Investidores, fundadores e líderes tecnológicos estão tão concentrados em avançar rapidamente e quebrar coisas que parecem não conseguir compreender que a IA generativa – a tecnologia de IA em alta do momento – pode piorar os problemas, e não melhorá-los. De acordo com um relatório da McKinsey, a IA poderia automatizar cerca de metade de todos os empregos que não exigem um diploma de quatro anos e que pagam mais de 42 mil dólares anuais, empregos em que os trabalhadores minoritários estão sobrerrepresentados.
Há motivos para preocupação sobre como uma equipe de homens brancos em uma das empresas de tecnologia mais proeminentes do mundo, engajada nesta corrida para salvar o mundo usando IA, poderia aconselhar sobre produtos para todas as pessoas quando apenas um grupo demográfico restrito é representado. Será necessário um esforço enorme para construir uma tecnologia que todos – na verdade todos – possam usar. Na verdade, as camadas necessárias para construir uma IA segura e inclusiva – desde a investigação até à compreensão a nível social interseccional – são tão complexas que é quase óbvio que este conselho consultivo não ajudará a Meta a acertar. Pelo menos onde o Meta falhar, outra startup poderá surgir.
Estamos lançando um boletim informativo sobre IA! Inscrever-se aqui para começar a recebê-lo em suas caixas de entrada em 5 de junho.