DECISION-BASED ADVERSARIAL ATTACKS:RELIABLE ATTACKS AGAINST BLACK-BOX MACHINE LEARNING MODELS(ICLR2018)
1、摘要/背景
目前用于生成对抗扰动的大多数方法要么依赖于详细的模型信息(基于梯度的攻击),要么依赖于置信度分数,例如类概率(基于分数的攻击),这两种能力在大多数现实世界场景中都不可用。在许多此类情况下,人们目前需要退回到基于迁移的攻击,这些攻击依赖于繁琐的替代模型,而且需要访问训练数据并且可以防御。在这里,我们强调完全依赖于最终模型决策的攻击的重要性。这种基于决策的攻击是 (1) 适用于现实世界的黑盒模型,例如自动驾驶汽车;(2) 需要更少的知识,并且比基于迁移的攻击更容易应用; (3) 对于一些简单的防御来说,