对抗攻击不同方法特点比较

攻击方法特点攻击目标适用模型主要优点
PGD 攻击- 迭代型攻击方法误分类深度神经网络通用性高,适用于不同模型
- 旨在找到最小程度的扰动
- 梯度方向决定扰动方向
- 扰动大小受限制
- 通常需要较多计算资源
CW 攻击- 优化型攻击方法最小化扰动大小深度神经网络灵活,可定制攻击目标
- 旨在最小化扰动大小并欺骗模型通常需要较少迭代
- 损失函数同时考虑分类错误和扰动大小
- 可选择不同扰动范数(如L2、L∞)
FGSM 攻击- 单次迭代攻击方法误分类深度神经网络快速生成对抗样本
- 扰动大小直接与梯度成正比
- 通常使用L∞范数
JSMA 攻击- 单次迭代攻击方法误分类规则型模型(例如图像分类)改变像素值的颠倒性攻击
- 针对规则型模型有效需要目标标签
- 通常需要目标标签
DeepFool 攻击- 迭代型攻击方法误分类深度神经网络基于线性化模型的快速攻击方法
- 寻找最小的扰动以欺骗模型可适用于线性模型和非线性模型
- 可以应用于不同范数的扰动需要较少的迭代次数
Boundary 攻击- 优化型攻击方法穿越决策边界深度神经网络突破模型的决策边界
- 旨在欺骗模型,使其在决策边界上变化可定制攻击目标
- 可以选择不同的目标类别进行攻击需要较多的计算资源
Universal 攻击- 迭代型攻击方法误分类深度神经网络可生成适用于多个样本的扰动
- 寻找最小的扰动以欺骗多个样本高度通用性
- 攻击目标为多个样本需要更多计算资源
Saliency Map 攻击- 单次迭代攻击方法误分类深度神经网络利用输入的显著性信息
- 通过显著性地扰动输入非常高效
- 可以改变输入的显著性需要更多的领域知识
Momentum 攻击- 迭代型攻击方法误分类深度神经网络结合动量的迭代攻击方法
- 结合了梯度方向和历史梯度信息收敛速度相对较快
- 有助于跳出局部极小值
- 可以使用不同的扰动范数
Sparse 攻击- 迭代型攻击方法误分类深度神经网络利用稀疏扰动进行攻击
- 扰动被限制为少量非零元素在稀疏性问题中表现良好
- 可以选择L0范数或L1范数的扰动
Transferability- 从一个模型到另一个模型的攻击误分类多个深度神经网络攻击成功率高
Attack- 利用对抗样本在不同模型之间的转移性可跨多个模型进行攻击
- 可以攻击具有相似结构的模型
  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值