IJCV 2022 | 逆转特征让Re-ID模型从88.54%降至0.15%

d61495209cc5f65a2a85b5c19b608f92.png

来源:PaperWeekly
本文约2000字,建议阅读5分钟
本文加入了很多新的 related works讨论,加入了多尺度Query攻击 / 黑盒攻击 / 防御三个不同角度的实验。

其实这篇文章初版 2018 年 5 月就写好了,最近 2022 年 12 月才中。四年中得到了老板们的很多支持和理解。这段经历也希望给在投稿的同学们一点鼓舞,paper 写好肯定能中的,不要轻易放弃。 

与早期版本相比,我们在公式上做了一些调整,加入了很多新的 related works讨论,加入了多尺度Query攻击 / 黑盒攻击 / 防御三个不同角度的实验。加入 Food256, Market-1501CUB, Oxford, Paris等数据集上的新方法和较新的可视化方式。攻击了 Re-ID 中的 PCB 结构,攻击了 Cifar10 中的 WiderResNet。

91eeb9fbc4d314b31a63a137981c24e1.png

论文标题:

U-Turn: Crafting Adversarial Queries with Opposite-Direction Features

论文链接:

https://link.springer.com/article/10.1007/s11263-022-01737-y

https://zdzheng.xyz/files/IJCV_Retrieval_Robustness_CameraReady.pdf

代码链接:

https://github.com/layumi/U_turn

arXiv早期版本:

https://arxiv.org/abs/1809.02681

1、实际案例

实际使用的话。举个例子,比如我们要攻击 google 或者百度的图像检索系统,搞大新闻(大雾)。我们可以下载一张狗的图像,通过 imagenet 模型(也可以是其他模型,最好是接近检索系统的模型)计算特征,通过把特征调头(本文的方法),来计算对抗噪声(adversarial noise)加回到狗上。再把攻击过后的狗 使用以图搜图,可以看到 百度谷歌的系统就不能返回狗相关的内容了。虽然我们人还能识别出这是狗的图像。 

P.S. 我当时也试过攻击 google 以图搜图,人还能识别出这是狗的图像,但谷歌往往会返回 “马赛克” 相关图像。我估计谷歌也不全是用深度特征,或者和 imagenet 模型有较大差异,导致攻击后,往往趋向于“马赛克”,而不是其他实体类别(飞机啊之类的)。当然马赛克也算某种程度的成功!

2、What

本文的初衷其实特别简单,现有 Re-ID 模型,或者风景检索模型已经达到了 95% 以上的 Recall-1 召回率,那么我们是不是可以设计一种方式来攻击检索模型?一方面探探 Re-ID 模型的老底, 一方面攻击是为了更好的防御,研究一下防御异常 case。 

检索模型与传统的分类模型的差异在于检索模型是用提取出来的特征来比较结果(排序),这与传统的 分类模型有较大的差异,如下表。

c3c7ee4d8ec29038aefc34e2ec5dda7d.png

检索问题还有一个特点就是 open set 也就是说 测试的时候类别往往是训练时没见过的。如果大家熟悉 cub 数据集,在检索设置下,训练的时候训练集合 100 多种鸟,和测试时测试 100 多种鸟,这两个 100 种是没有 overlapp 种类的。纯靠提取的视觉特征来匹配和排序。所以一些分类攻击方法 不适合攻击检索模型,因为攻击时基于类别预测的 gradient 往往是不准的。

检索模型在测试时,有两部分数据:一部分是查询图像 query,一部分是图像库 gallery(数据量较大,而且一般不能 access)。考虑到实际可行性,我们方法将主要瞄准攻击 query 的图像来导致错误的检索结果。

3、How

很自然的一个想法就是攻击特征。那么怎么攻击特征?基于我们之前对于 cross entropy loss 的观察(可以参考 large-margin softmax loss 这篇文章)。往往我们使用分类 loss 的时候,特征 f 会存在一个放射形的分布。这是由于特征在学习的时候与最后一层分类层权重 W 计算的是 cos similarity。如下图,导致我们学完模型,同一类的样本会分布在该类 W 附近,这样 f*W 才能到达最大值。

1c81612c3f3762e16f406d4ff7e11d3d.png

所以我们提出了一个特别简单的方法,就是让特征调头。如下图,其实有两种常见的分类攻击方法也可以一起可视化出来。如(a)这种就是把分类概率最大的类别给压下去(如 Fast Gradient),通过给-Wmax,所以有红色的梯度传播方向沿着反 Wmax;如(b)还有一种就是把最不可能的类别的特征给拉上来(如 Least-likely),所以红色的梯度沿着 Wmin。

3c9a9cc79b7658149d8c4cc9a9a9a6d3.png

这两种分类攻击方法在传统分类问题上当然是很直接有效的。但由于检索问题中测试集都是没见过的类别(没见过的鸟种),所以自然 f 的分布没有那么紧密贴合 Wmax 或者 Wmin,因此我们的策略很简单,既然有了 f,那我们直接把 f 往 -f 去移动就好了,如图 (c)。 

这样在特征匹配阶段,原来排名高的结果,理想情况下,与-f 算 cos similarity,从接近 1 变到接近 -1,反而会排到最低。达成了我们攻击检索排序的效果。 

一个小 extension。在检索问题中,我们还常用 multi-scale 来做 query augmentation,所以我们也研究了一下怎么在这种情况下维持攻击效果(主要难点在于 resize 操作,可能把一些小却关键的抖动给 smooth 了)。 

其实我们应对的方法也很简单,就如 model ensemble 一样,我们把多个尺度的 adversarial gradient 做个 ensemble 平均就好。

4、实验分析

在三个数据集三个指标下,我们固定了抖动幅度也就是横坐标的 epsilon,比较在同样抖动幅度下哪一种方法能使检索模型犯更多错。我们的方法是黄色线都处在最下面,也就是攻击效果更好。

58906002e5d4044368c4d1e7ac6375fc.png

同时我们也提供了在 5 个数据集上(Food,CUB,Market,Oxford,Paris)的定量实验结果。

29799b58d6f4250f2e1925ed15edf5f0.png

b805ce030b984c26067ed08f4b20e6cc.png

为了展示模型的机制,我们也尝试攻击了 Cifar10 上的分类模型。可以看到我们改变最后一层特征的策略,对于 top-5 也有很强的压制力。对于 top-1,由于没有拉一个候选类别上来,所以会比 least-likely 略低一些,但也差不多。

474a432b3f1a27164c0321726f85de57.png

黑盒攻击:我们也尝试了使用 ResNet50 生成的攻击样本去攻击一个黑盒的 DenseNet 模型(这个模型的参数我们是不可获取的)。发现也能取得比较好的迁移攻击能力。

ebf510367f9b6a14c591d22fca71332b.png

对抗防御:我们采用 online adversarial training 的方式来训练一个防御模型。我们发现他在接受新的白盒攻击的时候依然是不行的,但是比完全没有防御的模型在小抖动上会更稳定一些(掉点少一些)。

e7c25cbe2498692cdd5fa6826332caa3.png

特征移动的可视化:这也是我觉得最喜欢的一个实验。我们利用 Cifar10,把最后分类层的维度改为 2,来 plot 分类层的 feature 的变化。如下图,随着抖动幅度 epsilon 的变大,我们可以看到样本的特征慢慢 “调头”了。比如大部分橙色的特征就移动到对面去了。

6cb0c37e69faf6e7c97c3c389636cd29.png

编辑:于腾凯

校对:林亦霖

8b17bed2c925819cbfb2527c928c3fe8.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值