Defending Adversarial Attacks by

2020-09-10  本文已影响0人  馒头and花卷

Li Y., Xie L., Zhang Y., Zhang R., Wang Y., Tian Q., Defending Adversarial Attacks by Correcting logits[J]. arXiv: Learning, 2019.

作者认为, adversarial samples 和 natural samples的分布是不同, 结果二者的输出logits的分布也是不同的, 那么能否通过此来还原正确的类别呢?

在这里插入图片描述

主要内容

在这里插入图片描述

思路是这样子的, 假设原本的网络为f(\cdot), natural样本x和adversarial样本x'分别得到zz', 根据假设(发现)二者的分布是不同的. 构建一个新的判别器g(\cdot), 将zz'作为新的输入, 自然我们希望natrual样本的z的输出还是g(z)=z, 而adversarial样本的z'被转换为g(z')=z. 如果能够做到, 那么g(\cdot)就成为了一个防御手段.

实验发现, 这种想法是有效的, 且效率非常高, 甚至能够提高clean accuracy !

实验

论文没有开放代码, 个人的实验结果不是很理想, 当然可能和在小数据集上跑有关系. 另外论文没有说清楚adversarial samples是如何构造的. 因为如果是单纯通过原有的网络构造对抗样本再利用g(\cdot)恢复是不可靠的, 应该在g \circ f的基础上构造.

上一篇 下一篇

猜你喜欢

热点阅读