Pesquisadores armam modelos de aprendizado de máquina com ransomware

Como se os defensores das cadeias de suprimentos de software não tivessem vetores de ataque suficientes para se preocupar, eles agora têm um novo: modelos de aprendizado de máquina.

Os modelos de ML estão no centro de tecnologias como reconhecimento facial e chatbots. Como os repositórios de software de código aberto, os modelos geralmente são baixados e compartilhados por desenvolvedores e cientistas de dados, portanto, um modelo comprometido pode ter um impacto esmagador em muitas organizações simultaneamente.

Pesquisadores da HiddenLayer, uma empresa de segurança de linguagem de máquina, revelaram em um blog na terça-feira como um invasor pode usar um modelo popular de ML para implantar ransomware.

O método descrito pelos pesquisadores é semelhante ao modo como os hackers usam a esteganografia para ocultar cargas maliciosas em imagens. No caso do modelo ML, o código malicioso fica oculto nos dados do modelo.

Segundo os pesquisadores, o processo de esteganografia é bastante genérico e pode ser aplicado à maioria das bibliotecas de ML. Eles acrescentaram que o processo não precisa se limitar a incorporar código malicioso no modelo e também pode ser usado para filtrar dados de uma organização.




Plantar malware em um modelo de linguagem de máquina permite contornar as defesas antimalware tradicionais. (Imagem cortesia de HiddenLayer)
Os ataques também podem ser independentes do sistema operacional. Os pesquisadores explicaram que as cargas específicas do sistema operacional e da arquitetura podem ser incorporadas ao modelo, onde podem ser carregadas dinamicamente em tempo de execução, dependendo da plataforma.

Voando Sob o Radar
A incorporação de malware em um modelo de ML oferece alguns benefícios para um adversário, observou Tom Bonner, diretor sênior de pesquisa de ameaças contraditórias da HiddenLayer, com sede em Austin, Texas.

“Isso permite que eles voem sob o radar”, disse Bonner ao TechNewsWorld. “Não é uma técnica detectada pelo antivírus atual ou pelo software EDR.”

“Também abre novos alvos para eles”, disse ele. “É uma rota direta para os sistemas de cientistas de dados. É possível subverter um modelo de aprendizado de máquina hospedado em um repositório público. Os cientistas de dados irão desligá-lo e carregá-lo, e então ficarão comprometidos.”

“Esses modelos também são baixados para várias plataformas de operações de aprendizado de máquina, o que pode ser bastante assustador porque eles podem ter acesso a baldes do Amazon S3 e roubar dados de treinamento”, continuou ele.

“A maioria das máquinas que executam modelos de aprendizado de máquina têm GPUs grandes e gordas, então os mineradores de bitcoin também podem ser muito eficazes nesses sistemas”, acrescentou.
Vantagem do pioneirismo
Atores de ameaças geralmente gostam de explorar vulnerabilidades imprevistas em novas tecnologias, observou Chris Clements, vice-presidente de arquitetura de soluções da Cerberus Sentinel, uma empresa de consultoria em segurança cibernética e testes de penetração em Scottsdale, Arizona.

“Os invasores que buscam uma vantagem pioneira nessas fronteiras podem desfrutar de menos preparação e proteção proativa contra a exploração de novas tecnologias, disse Clements ao TechNewsWorld.

“Esse ataque a modelos de linguagem de máquina parece ser o próximo passo no jogo de gato e rato entre atacantes e defensores”, disse ele.

Mike Parkin, engenheiro técnico sênior da Vulcan Cyber, fornecedora de SaaS para remediação de riscos cibernéticos corporativos em Tel Aviv, Israel, destacou que os agentes de ameaças aproveitarão todos os vetores que puderem para executar seus ataques.

“Este é um vetor incomum que pode passar despercebido por algumas ferramentas comuns se for feito com cuidado”, disse Parkin ao TechNewsWorld.
As soluções tradicionais de detecção e resposta antimalware e endpoint são projetadas para detectar ransomware com base em comportamentos baseados em padrões, incluindo assinaturas de vírus e monitoramento de API chave, arquivo e solicitações de registro no Windows para possíveis atividades maliciosas, explicou Morey Haber, diretor de segurança da A BeyondTrust, fabricante de soluções de gerenciamento de contas privilegiadas e gerenciamento de vulnerabilidades em Carlsbad, Califórnia.

“Se o aprendizado de máquina for aplicado à entrega de malware como ransomware, os vetores de ataque tradicionais e até os métodos de detecção podem ser alterados para parecerem não maliciosos”, disse Haber ao TechNewsWorld.

Potencial para dano generalizado
Os ataques a modelos de linguagem de máquina estão aumentando, observou Karen Crowley, diretora de soluções de produtos da Deep Instinct, uma empresa de segurança cibernética de aprendizagem profunda na cidade de Nova York.

“Ainda não é significativo, mas existe o potencial de danos generalizados”, disse Crowley ao TechNewsWorld.

“Na cadeia de suprimentos, se os dados são envenenados de forma que, quando os modelos são treinados, o sistema também é envenenado, esse modelo pode estar tomando decisões que reduzem a segurança em vez de fortalecê-la”, explicou ela.

“Nos casos de Log4j e SolarWinds, vimos o impacto não apenas na organização proprietária do software, mas em todos os usuários dessa cadeia”, disse ela. “Uma vez que o ML é introduzido, esse dano pode se multiplicar rapidamente.”

Casey Ellis, CTO e fundador da Bugcrowd, que opera uma plataforma de recompensas de bugs de crowdsourcing, observou que os ataques a modelos de ML podem fazer parte de uma tendência maior de ataques a cadeias de suprimentos de software.

“Da mesma forma que os adversários podem tentar comprometer a cadeia de suprimentos de aplicativos de software para inserir códigos maliciosos ou vulnerabilidades, eles também podem direcionar a cadeia de suprimentos de modelos de aprendizado de máquina para inserir dados ou algoritmos maliciosos ou tendenciosos”, disse Ellis ao TechNewsWorld.

“Isso pode ter impactos significativos na confiabilidade e integridade dos sistemas de IA e pode ser usado para minar a confiança na tecnologia”, disse ele.

Pablum para Script Kiddies
Os agentes de ameaças podem estar demonstrando um interesse maior em modelos de máquinas porque são mais vulneráveis ​​do que as pessoas pensavam.

“As pessoas sabem há algum tempo que isso é possível, mas não imaginam como é fácil”, disse Bonner. “É bastante trivial encadear um ataque com alguns scripts simples.”

“Agora que as pessoas percebem como é fácil, está no reino dos script kiddies fazer isso”, acrescentou.

Clements concordou que os pesquisadores mostraram que não é necessário conhecimento em ciência de dados de ML/IA hardcore para inserir comandos maliciosos em dados de treinamento que podem ser acionados por modelos de ML em tempo de execução.

No entanto, ele continuou, requer mais sofisticação do que ataques de ransomware comuns que dependem principalmente de preenchimento de credenciais simples ou phishing para serem lançados.

“No momento, acho que a popularidade do vetor de ataque específico provavelmente será baixa no futuro previsível”, disse ele.

“Explorar isso requer que um invasor comprometa um projeto de modelo ML upstream usado por desenvolvedores downstream, induzindo a vítima a baixar um modelo ML pré-treinado com os comandos maliciosos incorporados de uma fonte não oficial ou comprometendo o conjunto de dados privado usado pelos desenvolvedores ML para inserir o façanhas”, explicou.

“Em cada um desses cenários”, continuou ele, “parece que haveria maneiras muito mais fáceis e diretas de comprometer o alvo, além de inserir explorações ofuscadas nos dados de treinamento”.

Fonte: https://www.technewsworld.com/story/researchers-weaponize-machine-learning-models-with-ransomware-177489.html

nielle

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *