论文那些事—DECISION-BASED ADVERSARIAL ATTACKS:RELIABLE ATTACKS AGAINST BLACK-BOX MACHINE LEARNING MODELS

这篇论文提出了边界攻击,这是一种适用于黑盒机器学习模型的决策基对抗攻击方法。该方法不需要模型的梯度信息或类概率,而是依赖于模型的决策边界进行随机游走来生成对抗样本。边界攻击具有概念简单、灵活性高、需要较少超参数调整的特点,且能有效打破已有的防御机制。在计算机视觉任务中,其表现与基于梯度的攻击相当。论文还展示了在实际黑盒模型(如Clarifai的品牌和名人识别模型)上的应用效果。
摘要由CSDN通过智能技术生成

DECISION-BASED ADVERSARIAL ATTACKS:RELIABLE  ATTACKS AGAINST BLACK-BOX MACHINE LEARNING MODELS(ICLR2018)

1、摘要/背景

目前用于生成对抗扰动的大多数方法要么依赖于详细的模型信息(基于梯度的攻击),要么依赖于置信度分数,例如类概率(基于分数的攻击),这两种能力在大多数现实世界场景中都不可用在许多此类情况下,人们目前需要退回到基于迁移的攻击,这些攻击依赖于繁琐的替代模型,而且需要访问训练数据并且可以防御在这里,我们强调完全依赖于最终模型决策的攻击的重要性这种基于决策的攻击是 (1) 适用于现实世界的黑盒模型,例如自动驾驶汽车(2) 需要更少的知识,并且比基于移的攻击更容易应用 (3) 对于一些简单防御来说,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值