#今日论文推荐#ICLR 2022:超越源域的攻击,面向黑盒域制作对抗样本丨AI Drive

该研究关注深度学习模型的安全性,提出BeyondImageNetAttack(BIA)框架,旨在创建对抗样本以跨未知分类任务进行攻击。此方法利用生成模型破坏图像的低级特征,即使在没有目标模型信息的情况下也能实现高转移性。实验表明,该方法在黑盒威胁模型中表现出有效性。
摘要由CSDN通过智能技术生成

#今日论文推荐#ICLR 2022:超越源域的攻击,面向黑盒域制作对抗样本丨AI Drive

由于可转移性质,对抗样本对深度神经网络构成了严重的安全威胁。

目前,大量工作都为提高对抗样本跨模型的可转移性付出了巨大努力。通常来说,这些工作大多假设替代模型与目标模型在同一域训练。然而,在现实中,所部署模型的相关信息不太可能泄露。因此,建立一个更实用的黑盒威胁模型来克服这一局限性并评估部署模型的脆弱性是至关重要的。

ICLR 2022的一项研究,则仅凭ImageNet领域的知识,提出了一个Beyond ImageNet Attack(BIA)来研究对抗样本跨域(未知分类任务)的可转移性。具体来说,利用生成模型来学习对抗扰动生成函数,以破坏输入图像的低级特征。基于这个框架,这项研究进一步提出两个变体,分别从数据和模型的角度缩小源域和目标域之间的差距。大量的实验结果证明了这种方法的有效性。

本期 AI Drive,电子科技大学三年级在读硕士生-章琪泷,解读其团队的这项上述研究:超越源域的攻击:面向黑盒域制作对抗样本。

论文题目:Beyond ImageNet Attack: Towards Crafting Adversarial Examples for Black-box Domains
详细解读:https://www.aminer.cn/research_report/62788ede7cb68b460fb37b64?download=falseicon-default.png?t=M3K6https://www.aminer.cn/research_report/62788ede7cb68b460fb37b64?download=false
AMiner链接:https://www.aminer.cn/?f=cs

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值