- 博客(1)
- 收藏
- 关注
原创 对抗攻击(3)The Limitations of Deep Learning in Adversarial Settings(2015)
1.论文中心思想 摘要: 在这项工作中,我们形式化了对抗深度神经网络(DNNs)的对手空间,并引入了一种新的算法,基于对DNNs输入和输出之间映射的精确理解来制作对手样本。在计算机视觉的应用中,我们表明我们的算法可以可靠地产生被人类受试者正确分类但被DNN在特定目标上错误分类的样本,对抗成功率为97%,而每个样本平均只修改4.02%的输入特征。然后,我们通过定义一个硬度测量来评估不同样本类对敌对性扰动的脆弱性。最后,我们通过定义良性输入和目标分类之间的距离的预测度量来描述概述对抗样本防御的初步工作。 本文主
2021-03-10 19:34:38 640
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人