#今日论文推荐#ICLR 2022:超越源域的攻击,面向黑盒域制作对抗样本丨AI Drive
由于可转移性质,对抗样本对深度神经网络构成了严重的安全威胁。
目前,大量工作都为提高对抗样本跨模型的可转移性付出了巨大努力。通常来说,这些工作大多假设替代模型与目标模型在同一域训练。然而,在现实中,所部署模型的相关信息不太可能泄露。因此,建立一个更实用的黑盒威胁模型来克服这一局限性并评估部署模型的脆弱性是至关重要的。
ICLR 2022的一项研究,则仅凭ImageNet领域的知识,提出了一个Beyond ImageNet Attack(BIA)来研究对抗样本跨域(未知分类任务)的可转移性。具体来说,利用生成模型来学习对抗扰动生成函数,以破坏输入图像的低级特征。基于这个框架,这项研究进一步提出两个变体,分别从数据和模型的角度缩小源域和目标域之间的差距。大量的实验结果证明了这种方法的有效性。
本期 AI Drive,电子科技大学三年级在读硕士生-章琪泷,解读其团队的这项上述研究:超越源域的攻击:面向黑盒域制作对抗样本。
论文题目:Beyond ImageNet Attack: Towards Crafting Adversarial Examples for Black-box Domains
详细解读:https://www.aminer.cn/research_report/62788ede7cb68b460fb37b64?download=falsehttps://www.aminer.cn/research_report/62788ede7cb68b460fb37b64?download=false
AMiner链接:https://www.aminer.cn/?f=cs