EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES 论文笔记
EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES 论文笔记
原论文链接
摘要
包括神经网络在内的许多机器学习模型都很容易受到对抗样本(adversarial examples)的攻击导致误分类,对抗性样本指通过刻意的给输入增加一些轻微的恶意扰动,从而使系统以高置信度对样本进行错误的分类。之前的一些观点认为这种现象是由于非线性性质和过拟合导致的,但是本文认...
原创
2019-09-25 12:00:56 ·
4714 阅读 ·
0 评论