O órgão de fiscalização da proteção de dados do Reino Unido encerrou uma investigação de quase um ano sobre o chatbot de IA do Snap, My AI – dizendo estar satisfeito com a empresa de mídia social ter abordado as preocupações sobre os riscos à privacidade das crianças. Ao mesmo tempo, o Gabinete do Comissário de Informação (ICO) emitiu um alerta geral à indústria para ser proativa na avaliação dos riscos para os direitos das pessoas antes de lançar no mercado ferramentas generativas de IA.
GenAI refere-se a um tipo de IA que muitas vezes coloca em primeiro plano a criação de conteúdo. No caso do Snap, a tecnologia alimenta um chatbot que pode responder aos usuários de maneira humana, como enviando mensagens de texto e snaps, permitindo que a plataforma forneça interação automatizada.
O chatbot AI do Snap é alimentado pelo ChatGPT da OpenAI, mas a empresa de mídia social diz que aplica várias salvaguardas ao aplicativo, incluindo programação de diretrizes e consideração de idade por padrão, que visam evitar que crianças vejam conteúdo impróprio para a idade. Ele também funciona no controle dos pais.
“Nossa investigação sobre ‘My AI’ deve servir como um alerta para a indústria”, escreveu Stephen Almond, diretor executivo de risco regulatório da ICO, em um comunicado. declaração Terça-feira. “As organizações que desenvolvem ou utilizam IA generativa devem considerar a proteção de dados desde o início, incluindo avaliar e mitigar rigorosamente os riscos para os direitos e liberdades das pessoas antes de colocar produtos no mercado.”
“Continuaremos a monitorizar as avaliações de risco das organizações e a utilizar toda a gama dos nossos poderes de aplicação – incluindo multas – para proteger o público de danos”, acrescentou.
Em outubro, a ICO enviou ao Snap um aviso preliminar de aplicação sobre o que descreveu como uma “potencial falha em avaliar adequadamente os riscos de privacidade apresentados por seu chatbot de IA generativo ‘My AI’”.
Esse aviso preliminar no outono passado parece ser a única repreensão pública ao Snap. Em teoria, o regime pode aplicar multas de até 4% do volume de negócios anual de uma empresa em casos de violações de dados confirmadas.
Ao anunciar a conclusão da sua investigação na terça-feira, a ICO sugeriu que a empresa tomou “medidas significativas para realizar uma revisão mais completa dos riscos representados pela ‘My AI’”, após a sua intervenção. A ICO também disse que a Snap foi capaz de demonstrar que implementou “mitigações apropriadas” em resposta às preocupações levantadas – sem especificar quais medidas adicionais (se houver) a empresa tomou (perguntamos).
Mais detalhes poderão ser divulgados quando a decisão final do regulador for publicada nas próximas semanas.
“A ICO está satisfeita com o fato de a Snap ter realizado uma avaliação de risco relacionada ao ‘My AI’ que está em conformidade com a lei de proteção de dados. A OIC continuará monitorando a implementação do ‘My AI’ e como os riscos emergentes são abordados”, acrescentou o regulador.
Procurado para obter uma resposta à conclusão da investigação, um porta-voz do Snap nos enviou uma declaração – escrevendo: “Estamos satisfeitos que a ICO tenha aceitado que implementamos medidas apropriadas para proteger nossa comunidade ao usar o My AI. Embora tenhamos avaliado cuidadosamente os riscos apresentados pela My AI, aceitamos que nossa avaliação poderia ter sido documentada de forma mais clara e ter feito alterações em nossos procedimentos globais para refletir o feedback construtivo da OIC. Acolhemos com satisfação a conclusão da OIC de que a nossa avaliação de riscos está em total conformidade com as leis de proteção de dados do Reino Unido e esperamos continuar a nossa parceria construtiva.”
A Snap recusou-se a especificar quaisquer mitigações que implementou em resposta à intervenção da OIC.
O regulador do Reino Unido disse que a IA generativa continua a ser uma prioridade de aplicação. Ele aponta os desenvolvedores para orientação é produzido com base em regras de IA e proteção de dados. Também tem um consulta aberta pedindo informações sobre como a lei de privacidade deve ser aplicada ao desenvolvimento e uso de modelos generativos de IA.
Embora o Reino Unido ainda não tenha introduzido legislação formal para IA, porque o governo optou por confiar em reguladores como o ICO para determinar como as várias regras existentes se aplicam, os legisladores da União Europeia acabaram de aprovar uma estrutura baseada em risco para IA – que será aplicada em nos próximos meses e anos – o que inclui obrigações de transparência para chatbots de IA.