黑盒攻击深度学习模型paper5篇总结

2018-08-16  本文已影响482人  zhenglisec

layout: post
title: 黑盒攻击深度学习模型paper5篇总结
categories: [deep learning]
description: 截止201804几种黑盒攻击方法
keywords: deeplearning, , black box attack, model


Transferability in ML: 需要少量input 和 label(例如预测数字为label=2)

  1. 模型的训练
Traning of the substitute model
  1. 对抗样本的生成(利用白盒攻击的方法)

GENERATING NATURAL ADVERSARIAL EXAMPLES: 需要input 和 label(例如预测数字为label=2)

1.模型的训练(获得generator和inverter):

Traning Architecture with a GAN and an Inverter

和普通GAN的学习基本一致,只不过多了一个反向转换器inverter

损失函数如上,实现的效果是:

以上保证了输入z或者对z的轻微修改,G依旧能够生成真实图片

2.对抗样本的生成

Natural Adversary Generation

迭代随机寻找,对z=z’+θ,其中θ是对z的修改,是循环尝试、随机生成、符合一定分布的,所以说尽可能尝试。

ZOO: Zeroth Order Optimization Based Black-box Attacks:需要input+每一个类别的概率

1.模型的训练

optimization problem

损失函数如上,左边保证对抗样本与真实input的相似,右边保证对抗样本能导致目标模型出错,具体如下:

target attack untargeted attack loss functions loss function ZOO-ADAM ZOO-Newton

DECISION-BASED ADVERSARIAL ATTACKS:需要input和 label(例如预测数字为label=2)

  1. 模型的训练

① 初始化一张对抗input’ ~ U(0,1)

② 获取扰动

,之后对其进行修剪符合下列:


③ 对扰动修剪后,会符合

④ 修改ε,满足下列损失函数

此损失函数会导致上图的箭头↓(#2),即与等距线垂直的方向,靠近原input

⑤重复②③④,即重复←↓(#1 #2),越贴近原input时,会修改ε变小。

⑤ 当ε非常小的时候(收敛至0,如0.001),则保存此input’

说明:上述②③④一直循环时,input’是一致导致目标model出错的,只不过是越来越接近原input,即图片越来越真实。当ε非常小的时候,则表明此时input’已经很贴切原input,同时已经保持着让目标model出错的性质。

Machine Learning as an Adversarial Service: Learning Black-Box Adversarial Examples:需要input和每一个类别的概率

  1. 模型的训练
    OverView of the attack
Attack model Architecture Loss function
上一篇 下一篇

猜你喜欢

热点阅读