O Centro Nacional de Segurança Cibernética (NCSC) do Reino Unido está alertando as organizações para serem cautelosas com os riscos cibernéticos iminentes associados à integração de Large Language Models (LLMs) – como ChatGPT – em seus negócios, produtos ou serviços.

Em um conjunto de postagens no blog, o NCSC enfatizou que a comunidade tecnológica global ainda não compreende totalmente as capacidades, fraquezas e (o mais importante) vulnerabilidades dos LLMs. “Você poderia dizer que nosso entendimento dos LLMs ainda está ‘em beta”’, disse a autoridade.

Uma das fraquezas de segurança mais amplamente relatadas dos LLMs existentes é a sua suscetibilidade a ataques maliciosos de “injeção imediata”. Isso ocorre quando um usuário cria uma entrada com o objetivo de fazer com que o modelo de IA se comporte de maneira não intencional – como gerar conteúdo ofensivo ou divulgar informações confidenciais.

Além disso, os dados nos quais os LLMs são treinados representam um risco duplo. Em primeiro lugar, uma grande quantidade destes dados é recolhida na Internet aberta, o que significa que pode incluir conteúdo impreciso, controverso ou tendencioso.

Em segundo lugar, os cibercriminosos podem não só distorcer os dados disponíveis para práticas maliciosas (também conhecidas como “envenenamento de dados”), mas também utilizá-los para ocultar ataques de injeção imediata. Dessa forma, por exemplo, o assistente de IA de um banco para titulares de contas pode ser induzido a transferir dinheiro para os invasores.

“O surgimento dos LLMs é, sem dúvida, um momento muito emocionante na tecnologia – e muitas pessoas e organizações (incluindo o NCSC) querem explorar e beneficiar dele”, disse a autoridade.

“No entanto, as organizações que criam serviços que usam LLMs precisam ter cuidado, da mesma forma que teriam se estivessem usando um produto ou biblioteca de código que estivesse em beta”, acrescentou o NCSC. Isto é, com cautela.

A autoridade do Reino Unido está a apelar às organizações para que estabeleçam princípios de segurança cibernética e garantam que mesmo o “pior cenário” de tudo o que as suas aplicações com tecnologia LLM possam fazer seja algo com que possam lidar.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *