【CVPR2024】《Boosting Adversarial Transferability by Block Shuffle and Rotation》译读笔记

《Boosting Adversarial Transferability by Block Shuffle and Rotation》

摘要

对抗性样本通过微小的扰动就能误导深度神经网络,给深度学习带来了严重的威胁。其中一个重要的方面是它们的可迁移性,即它们能够欺骗其他模型,从而在黑盒攻击中发挥作用。尽管已经提出了各种方法来提高可迁移性,但性能仍然远不及白盒攻击。本文观察到现有的基于输入变换的攻击方法在不同模型上产生的注意力热力图不同,这可能限制了可迁移性。本文还发现,打破图像的内在关系能够干扰原始图像的注意力热力图。基于这一发现,本文提出了一种新的基于输入变换的攻击方法,称为块随机打乱和旋转(Block Shuffle and Rotation, BSR)。具体来说,BSR将输入图像划分为多个块,然后随机打乱和旋转这些块来构造一组新图像用于梯度计算。在ImageNet数据集上的实验评估表明,与现有的基于输入变换的方法相比,BSR能够显著提高可迁移性,无论是在单一模型还是集成模型的设置下。将BSR与目前的输入变换方法相结合,可以进一步提高可迁移性,大幅超越当前最先进的方法。代码位于https://github.com/Trustworthy-AI-Group/BSR

1 引言

深度神经网络(Deep Neural Network, DNN)在众多任务中都表现出了卓越的性能,例如图像分类[12_ResNet, 13_DenseNet]、分割[21_FCN]、目标检测 [26_YOLOv1, 27_FasterRCNN]、人脸识别 [39_CosFace] 等。尽管取得了这些成就,但研究发现,DNN对对抗样本仍然表现出显著的脆弱性 [8_Adversarial_Examples, 34_Properties_of_NN, 41_ATGAN],这些对抗样本与合法样本非常相似,却能够故意误导深度学习模型,导致其产生不合理的预测。这种脆弱性的存在引发了严重的关切,特别是在安全敏感的应用中,比如自动驾驶 [5_RP2] 和人脸验证 [30_Face_Recognition]
  对抗攻击通常可以分为两类:白盒攻击和黑盒攻击。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值