Embora essa atividade até agora não pareça ser a norma no ecossistema de ransomware, as descobertas representam um aviso gritante.

“Definitivamente, existem alguns grupos que estão usando a IA para ajudar no desenvolvimento de módulos de ransomware e malware, mas na medida em que o futuro registrado pode dizer, maioria Não é ”, diz Allan Liska, analista da empresa de segurança registrou o Future, especializado em ransomware.” Onde vemos mais IA sendo amplamente utilizado está no acesso inicial “.

Separadamente, pesquisadores da empresa de segurança cibernética ESET esta semana reivindicado ter descoberto o “primeiro ransomware de IA conhecido”, apelidado de prompt. Os pesquisadores dizem que o malware, que funciona amplamente localmente em uma máquina e usa um modelo de IA de código aberto do OpenAI, pode “gerar scripts maliciosos da LUA em tempo” e os usa para inspecionar arquivos que os hackers podem estar segmentando, roubar dados e implantar criptografia. O ESET acredita que o código é uma prova de conceito que aparentemente não foi implantada contra as vítimas, mas os pesquisadores enfatizam que ilustra como os cibercriminosos estão começando a usar o LLMS como parte de seus conjuntos de ferramentas.

“A implantação de Ransomware assistida pela AI apresenta certos desafios, principalmente devido ao grande tamanho dos modelos de IA e seus altos requisitos computacionais. No entanto, é possível que os cibercriminosos encontrem maneiras de ignorar essas limitações”, os pesquisadores de malware da ESET, Anton Cherepanov e Peter Stryk, que descobriram o novo Ransomware, escreveu um email em um e-mail. “Quanto ao desenvolvimento, é quase certo que os atores de ameaças estão explorando ativamente essa área, e é provável que vejamos mais tentativas de criar ameaças cada vez mais sofisticadas”.

Embora o Promptlock não tenha sido usado no mundo real, as descobertas da Anthrópica enfatizam ainda mais a velocidade com que os cibercriminosos estão se movendo para a construção de LLMs em suas operações e infraestrutura. A empresa de IA também viu outro grupo cibercriminal, que rastreia como GTG-2002, usando o código Claude para encontrar automaticamente alvos para atacar, obter acesso às redes de vítimas, desenvolver malware e depois exfiltrar dados, analisar o que havia sido roubado e desenvolver uma nota de resgate.

No último mês, esse ataque impactou “pelo menos” 17 organizações em governo, assistência médica, serviços de emergência e instituições religiosas, diz Anthrópio, sem nomear nenhuma das organizações impactadas. “A operação demonstra uma evolução preocupante no cibercrime assistido pela AI”, escreveu os pesquisadores da Anthrópica em seu relatório, “onde a IA serve como consultor técnico e operador ativo, permitindo ataques que seriam mais difíceis e demorados para os atores individuais executarem manualmente”.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Políticas de privacidade

Este site usa cookies para que possamos oferecer a melhor experiência de usuário possível. As informações de cookies são armazenadas em seu navegador e executam funções como reconhecê-lo quando você retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.