Tecnologia Científica

FoolChecker: Uma plataforma para verificar o quão robusta é uma imagem contra ataques adversários
Essa nova plataforma, chamada FoolChecker, foi apresentada em um artigo publicado na revista Neurocomputing da Elsevier .
Por Ingrid Fadelli - 29/06/2020

Crédito: Markus Spiske, Unsplash

Até agora, as redes neurais profundas (DNNs) provaram ser altamente promissoras para uma ampla gama de aplicações, incluindo classificação de imagem e áudio. No entanto, seu desempenho depende muito da quantidade de dados usada para treiná-los, e grandes conjuntos de dados nem sempre estão disponíveis.

Quando os DNNs não são treinados adequadamente, eles são mais propensos a classificar dados incorretamente. Isso os torna vulneráveis ​​a uma classe específica de ataques cibernéticos, conhecidos como ataques adversários . Em um ataque adversário, um invasor cria réplicas de dados reais projetados para enganar um DNN (ou seja, dados adversários), enganando-o para classificar dados incorretamente e, assim, prejudicar sua função.

Nos últimos anos, cientistas e desenvolvedores de computadores propuseram uma variedade de ferramentas que poderiam proteger arquiteturas neurais profundas desses ataques, detectando as diferenças entre os dados originais e os adversários. No entanto, até agora, nenhuma dessas soluções se mostrou universalmente eficaz.

"Primeiro, a evolução diferencial é aplicada para gerar unidades de perturbação candidatas com alta prioridade de perturbação", escreveram os pesquisadores. "Então, o algoritmo ganancioso tenta adicionar o pixel com a maior prioridade de perturbação atual nas unidades de perturbação até que o modelo DNN seja enganado. Finalmente, a distância perceptiva das unidades de perturbação é calculada como um índice para avaliar a robustez das imagens contra ataques adversos. "


Pesquisadores da Universidade de Wuhan e da Escola Profissional de Engenharia e Software de Wuhan introduziram recentemente uma plataforma que pode avaliar a robustez das imagens a ataques adversários, calculando a facilidade com que eles são replicados de uma maneira que enganaria um DNN. Essa nova plataforma, chamada FoolChecker, foi apresentada em um artigo publicado na revista Neurocomputing da Elsevier .

"Nosso artigo apresenta uma plataforma chamada FoolChecker para avaliar a robustez da imagem contra ataques adversários da perspectiva da própria imagem, e não dos modelos DNN", escreveram os pesquisadores em seu artigo. "Definimos a distância perceptiva mínima entre os exemplos originais e os adversários para quantificar a robustez contra ataques adversários".

O FoolChecker é um dos primeiros métodos para quantificar a robustez das imagens contra ataques adversários. Na simulação, essa técnica obteve resultados notáveis, completando seus cálculos em um período de tempo relativamente curto.

Ao desenvolver sua plataforma, os pesquisadores compararam várias métricas para quantificar as distâncias entre imagens originais e imagens adversas. A métrica que se mostrou mais eficaz foi a distância de sensibilidade à perturbação (PSD) entre amostras originais e adversárias.

O FoolChecker funciona calculando o PSD mínimo necessário para enganar um classificador DNN com êxito. Enquanto o cálculo manual levaria muito tempo, os pesquisadores desenvolveram uma abordagem que combina uma técnica conhecida como evolução diferencial (DE) e um algoritmo ganancioso, uma arquitetura intuitiva que é frequentemente usada para resolver problemas de otimização.

"Primeiro, a evolução diferencial é aplicada para gerar unidades de perturbação candidatas com alta prioridade de perturbação", escreveram os pesquisadores. "Então, o algoritmo ganancioso tenta adicionar o pixel com a maior prioridade de perturbação atual nas unidades de perturbação até que o modelo DNN seja enganado. Finalmente, a distância perceptiva das unidades de perturbação é calculada como um índice para avaliar a robustez das imagens contra ataques adversos. "

Os pesquisadores avaliaram o FoolChecker em uma série de testes e descobriram que ele pode efetivamente calcular a robustez de uma determinada imagem para ataques adversos quando processada por vários DNNs. O estudo deles oferece evidências de que a vulnerabilidade adversa de um modelo DNN também pode ser devida a fatores externos (ou seja, que não estão vinculados ao desempenho do modelo), como os recursos das imagens que ele está processando.

Em outras palavras, a equipe descobriu que as próprias imagens podem variar em termos da extensão em que são fáceis de modificar, de maneira a induzir DNNs a classificar dados incorretamente. No futuro, a plataforma que eles desenvolveram poderá ser usada para avaliar a robustez dos dados fornecidos às DNNs, o que pode impedir que os invasores criem dados adversários e, assim, realizem seus ataques.

 

.
.

Leia mais a seguir