Por sua capacidade de classificação de dados, entre outras vantagens, modelos de machine learning vêm sendo utilizados em diferentes aplicações, de comunicação wireless, biometria a tantas outras abarcadas pelo setor empresarial. No entanto, estudos recentes mostram que esses modelos também possuem vulnerabilidades do ponto de vista da segurança digital.
Segundo estudo conduzido por Paulo Freitas, especialista em cibersegurança da Tempest, é possível comprometer modelos de machine learning a partir da introdução de “ruídos imperceptíveis” no dado usando uma técnica conhecida como Ataque Adversarial.
Para minimizar os riscos inerentes aos modelos, Freitas aponta algumas recomendações para empresas que estão inovando no uso de tecnologias.
Alargar as fronteiras que dividem as categorias de dados
Fronteira é o limite que determina se um dado está classificado da maneira certa ou errada. Adicionar dados que contenham ruídos e utilizar técnicas que gerem perturbação são formas de modificar o treinamento da rede, dificultando a adulteração por tornar os dados do sistema mais complexos.
Remover os ruídos
Criar uma caixa preta de algoritmos e redes neurais de forma que o ruído seja removido antes de fornecer a imagem para o alvo do ataque adversarial.
Detectar a presença de ruídos
Ao invés de remover o ruído, uma solução é simplesmente detectá-lo, pois quando isso é feito já há uma sinalização de um possível problema. Mesmo que não se apresente a solução de imediato, a técnica serve para colocar as equipes de segurança em prontidão.
Ampliar o número de classificadores
Classificadores são os possíveis alvos dos atacantes. Quando se amplia o número, o atacante terá de forçar a maioria dos classificadores a cometerem erro, o que torna menos provável o ataque ter sucesso.