Na esteira das questões atuais sobre como as grandes tecnologias estão se apropriando de dados de indivíduos e negócios no treinamento de serviços de IA, uma tempestade está se formando entre os usuários do Slack, preocupados com a forma como a plataforma de bate-papo de propriedade da Salesforce está avançando com sua visão de IA.
A empresa, como muitas outras, está utilizando seus próprios dados de usuários para treinar alguns de seus novos serviços de IA. Mas acontece que se você não quiser que o Slack use seus dados, você terá que enviar um e-mail para a empresa para cancelar.
E os termos desse compromisso estão escondidos no que parece ser uma política de privacidade confusa e desatualizada, à qual ninguém estava prestando atenção. Esse foi o caso do Slack, até que uma pessoa irritada postou sobre eles em um site da comunidade extremamente popular entre os desenvolvedores, e então a postagem se tornou viral… e foi o que aconteceu aqui.
Tudo começou ontem à noite, quando uma nota sobre Hacker News levantou a questão de como o Slack treina seus serviços de IA, por meio de um link direto para seu princípios de privacidade – nenhum comentário adicional foi necessário. Essa postagem deu início a uma conversa mais longa – e o que parecia ser uma novidade para os usuários atuais do Slack – que o Slack aceita os usuários por padrão em seu treinamento de IA e que você precisa enviar um e-mail para um endereço específico para cancelar.
Aquele tópico do Hacker News então estimulou múltiplo conversas e perguntas sobre outras plataformas: Existe um produto novo e de nome genérico chamado “IA folgada”que permite aos usuários procurar respostas e resumir tópicos de conversas, entre outras coisas, mas por que isso não é mencionado uma vez pelo nome na página de princípios de privacidade de alguma forma, mesmo para deixar claro se a política de privacidade se aplica a ela? E por que o Slack faz referência tanto a “modelos globais” quanto a “modelos de IA”?
Entre as pessoas confusas sobre onde o Slack está aplicando seus princípios de privacidade de IA e as pessoas surpresas e irritadas com a ideia de enviar um e-mail para cancelar a participação – em uma empresa que faz questão de alardear que “Você controla seus dados” – o Slack faz não saiu bem.
O choque pode ser novo, mas os termos não o são. De acordo com páginas do Arquivo da Internetos termos são aplicáveis pelo menos desde setembro de 2023. (Pedimos confirmação à empresa.)
De acordo com a política de privacidade, o Slack está usando dados de clientes especificamente para treinar “modelos globais”, que o Slack usa para potencializar recomendações de canais e emojis e resultados de pesquisa. O Slack nos diz que o uso dos dados tem limites específicos.
“O Slack tem modelos de aprendizado de máquina em nível de plataforma para coisas como recomendações de canais e emojis e resultados de pesquisa. Não construímos ou treinamos esses modelos de forma que eles possam aprender, memorizar ou reproduzir alguma parte dos dados do cliente”, disse um porta-voz da empresa ao TechCrunch. No entanto, a política não parece abordar o âmbito geral e os planos mais amplos da empresa para a formação de modelos de IA.
Em seus termos, Slack diz que se os clientes optarem por não receber treinamento em dados, eles ainda se beneficiarão dos “modelos de IA/ML treinados globalmente” da empresa. Mas, novamente, nesse caso, não está claro por que a empresa está usando os dados do cliente para potencializar recursos como recomendações de emojis.
A empresa também disse que não usa dados de clientes para treinar Slack AI.
“O Slack AI é um complemento adquirido separadamente que usa modelos de linguagem grandes (LLMs), mas não treina esses LLMs nos dados do cliente. O Slack AI usa LLMs hospedados diretamente na infraestrutura AWS do Slack, para que os dados do cliente permaneçam internamente e não sejam compartilhados com nenhum provedor de LLM. Isso garante que os dados do cliente permaneçam sob o controle da organização e exclusivamente para uso dela”, disse um porta-voz.
É provável que parte da confusão seja resolvida mais cedo ou mais tarde. Em resposta a uma crítica sobre Threads do engenheiro e escritor Gergely Orosz, o engenheiro do Slack Aaron Maurer concedido que a empresa precisa atualizar a página para refletir “como esses princípios de privacidade funcionam com o Slack AI”.
Maurer acrescentou que esses termos foram escritos numa época em que a empresa não tinha Slack AI, e essas regras refletem o trabalho da empresa em torno de pesquisas e recomendações. Valerá a pena examinar os termos das atualizações futuras, dada a confusão em torno do que o Slack está fazendo atualmente com sua IA.
Os problemas no Slack são um lembrete claro de que, no mundo em rápida evolução do desenvolvimento da IA, a privacidade do utilizador não deve ser uma reflexão tardia e os termos de serviço de uma empresa devem definir claramente como e quando os dados são utilizados ou se não o são.
Tem alguma dica de novidade? Entre em contato com Ingrid com segurança no Signal via ingrid.101 ou aqui. (Sem propostas de relações públicas, por favor.)
Estamos lançando um boletim informativo sobre IA! Inscrever-se aqui para começar a recebê-lo em suas caixas de entrada em 5 de junho.