Se 2022 foi o ano em que o boom da IA generativa começou, 2023 foi o ano do pânico da IA generativa. Pouco mais de 12 meses desde que a OpenAI lançou o ChatGPT e estabeleceu um registro para o produto de consumo de crescimento mais rápido, parece também ter ajudado a estabelecer um recorde de intervenção governamental mais rápida numa nova tecnologia. Os EUA Comissão Eleitoral Federal está investigando anúncios de campanha enganosos, o Congresso está pedindo supervisão sobre como as empresas de IA desenvolvem e rotulam dados de treinamento para seus algoritmos, e a União Europeia aprovou sua nova Lei de IA com ajustes de última hora para responder à IA generativa.
Mas apesar de toda a novidade e velocidade, os problemas da IA generativa também são dolorosamente familiares. A OpenAI e seus rivais que correm para lançar novos modelos de IA estão enfrentando problemas que têm perseguido as plataformas sociais, aquela nova tecnologia que moldou a era anterior, por quase duas décadas. Empresas como a Meta nunca conseguiram vencer a desinformação e a desinformação, as práticas laborais incompletas e a pornografia não consensual, para citar apenas algumas das suas consequências não intencionais. Agora, essas questões estão ganhando uma nova vida desafiadora, com um toque de IA.
“Esses são problemas completamente previsíveis”, diz Hany Farid, professor da Escola de Informação da UC Berkeley, sobre as dores de cabeça enfrentadas pela OpenAI e outros. “Acho que eles eram evitáveis.”
Caminho bem trilhado
Em alguns casos, as empresas de IA generativa baseiam-se diretamente em infraestruturas problemáticas implementadas por empresas de redes sociais. O Facebook e outros passaram a contar com trabalhadores terceirizados e mal pagos de moderação de conteúdo – muitas vezes no Sul Global – para manter sob controle conteúdos como discurso de ódio ou imagens com nudez ou violência.
Essa mesma força de trabalho está agora sendo aproveitada para ajude a treinar modelos generativos de IA, muitas vezes com salários igualmente baixos e condições de trabalho difíceis. Como a terceirização coloca funções cruciais de uma plataforma social ou empresa de IA administrativamente distantes de sua sede, e muitas vezes em outro continente, os pesquisadores e reguladores podem ter dificuldade para obter uma visão completa de como um sistema de IA ou rede social está sendo construído e governado.
A terceirização também pode obscurecer onde realmente reside a verdadeira inteligência dentro de um produto. Quando um conteúdo desaparece, ele foi removido por um algoritmo ou por um dos muitos milhares de moderadores humanos? Quando um chatbot de atendimento ao cliente ajuda um cliente, quanto crédito é devido à IA e quanto ao trabalhador em um centro de terceirização superaquecido?
Existem também semelhanças na forma como as empresas de IA e as plataformas sociais respondem às críticas sobre os seus efeitos nocivos ou não intencionais. As empresas de IA falam em implementar políticas de “salvaguardas” e “uso aceitável” em certos modelos generativos de IA, assim como as plataformas têm seus termos de serviço em torno de quais conteúdos são ou não permitidos. Tal como acontece com as regras das redes sociais, as políticas e proteções de IA provaram ser relativamente fáceis de contornar.