Uma nova era horrível de imagens ultrarrealistas de abuso sexual infantil geradas por IA está em andamento, alertam os especialistas. Os infratores estão usando modelos de IA generativos de código aberto para download, que podem produzir imagens, com efeitos devastadores. A tecnologia está sendo usada para criar centenas de novas imagens de crianças que já sofreram abusos. Os infratores estão compartilhando conjuntos de dados de imagens de abuso que podem ser usados para personalizar modelos de IA e estão começando a vender assinaturas mensais de material de abuso sexual infantil (CSAM) gerado por IA.
Os detalhes de como a tecnologia está sendo abusada estão incluídos em um novo, amplo relatório divulgado pela Internet Watch Foundation (IWF), uma organização sem fins lucrativos com sede no Reino Unido que vasculha e remove conteúdo abusivo da web. Em junho, a IWF disse ter encontrado sete URLs na web aberta contendo material suspeito de ser produzido por IA. Agora, a sua investigação num fórum CSAM da dark web, que fornece um retrato de como a IA está a ser usada, encontrou quase 3.000 imagens geradas por IA que a IWF considera ilegais ao abrigo da lei do Reino Unido.
As imagens geradas por IA incluem estupro de bebês e crianças pequenas, crianças pré-adolescentes famosas sendo abusadas, bem como conteúdo BDSM com adolescentes, de acordo com a pesquisa da IWF. “Temos visto demandas, discussões e exemplos reais de material de abuso sexual infantil com celebridades”, diz Dan Sexton, diretor de tecnologia da IWF. Às vezes, diz Sexton, as celebridades envelhecem para se parecerem com crianças. Em outros casos, celebridades adultas são retratadas como pessoas que abusam de crianças.
Embora os relatos de CSAM gerados por IA ainda sejam ofuscados pelo número de imagens e vídeos reais de abuso encontrados online, Sexton diz que está alarmado com a velocidade do desenvolvimento e o potencial que ele cria para novos tipos de imagens abusivas. As descobertas são consistentes com outras grupos que investigam a disseminação de CSAM online. Em um banco de dados compartilhado, investigadores de todo o mundo sinalizaram 13.500 imagens de abuso e exploração sexual de crianças geradas por IA, disse Lloyd Richardson, diretor de tecnologia da informação do Centro Canadense de Proteção à Criança, à WIRED. “Essa é apenas a ponta do iceberg”, diz Richardson.
Um pesadelo realista
A atual safra de geradores de imagens de IA – capazes de produzir arte atraente, fotografias realistas e designs estranhos – oferece um novo tipo de criatividade e uma promessa de mudar a arte para sempre. Eles também foram usados para criar falsificações convincentes, como Balenciaga Pope e uma versão inicial da prisão de Donald Trump. Os sistemas são treinados em grandes volumes de imagens existentes, muitas vezes extraídas da web sem permissão, e permitem que imagens sejam criadas a partir de simples prompts de texto. Pedir um “elefante de chapéu” resultará exatamente nisso.
Não é surpresa que os infratores que criam CSAM tenham adotado ferramentas de geração de imagens. “A forma como essas imagens são geradas é, normalmente, usando software disponível abertamente”, diz Sexton. Os infratores que a IWF viu frequentemente fazem referência ao Stable Diffusion, um modelo de IA disponibilizado pela empresa Stability AI, sediada no Reino Unido. A empresa não respondeu ao pedido de comentários da WIRED. Na segunda versão do seu software, lançada no final do ano passado, a empresa mudou seu modelo para tornar mais difícil para as pessoas criarem CSAM e outras imagens de nudez.
Sexton diz que os criminosos estão usando versões mais antigas de modelos de IA e os aperfeiçoando para criar material ilegal de crianças. Isso envolve alimentar um modelo com imagens de abuso existentes ou fotos de rostos de pessoas, permitindo que a IA crie imagens de indivíduos específicos. “Estamos vendo modelos aperfeiçoados que criam novas imagens de vítimas existentes”, diz Sexton. Os perpetradores estão “trocando centenas de novas imagens de vítimas existentes” e fazendo perguntas sobre indivíduos, diz ele. Alguns tópicos em fóruns da dark web compartilham conjuntos de rostos de vítimas, diz a pesquisa, e um tópico se chamava: “Recursos fotográficos para IA e meninas específicas de deepfaking”.