Um sistema movido a IA poderá em breve assumir a responsabilidade de avaliar os possíveis danos e riscos de privacidade de até 90% das atualizações feitas em meta aplicativos como Instagram e WhatsApp, de acordo com documentos internos supostamente visto por NPR.
NPR diz um acordo de 2012 Entre o Facebook (agora meta) e a Federal Trade Commission, exige que a Companhia realize revisões de privacidade de seus produtos, avaliando os riscos de possíveis atualizações. Até agora, essas revisões foram amplamente conduzidas por avaliadores humanos.
Sob o novo sistema, a Meta disse que as equipes de produtos serão solicitadas a preencher um questionário sobre seu trabalho, então geralmente receberá uma “decisão instantânea” com riscos identificados pela AI-I-Identificada, juntamente com os requisitos que uma atualização ou recurso deve atender antes de lançar.
Essa abordagem centrada na IA permitiria que a Meta atualizasse seus produtos mais rapidamente, mas um ex-executivo disse à NPR que também cria “riscos mais altos”, pois “as externalidades negativas das mudanças de produto têm menos probabilidade de serem evitadas antes de começarem a causar problemas no mundo”.
Em um comunicado, a Meta parecia confirmar que está mudando seu sistema de revisão, mas insistiu que apenas “decisões de baixo risco” serão automatizadas, enquanto “experiência humana” ainda será usada para examinar “questões novas e complexas”.