Scalable Person Re-id:A Benchmark
快捷键
- 加粗
Ctrl + B
- 斜体
Ctrl + I
- 引用
Ctrl + Q
- 插入链接
Ctrl + L
- 插入代码
Ctrl + K
- 插入图片
Ctrl + G
- 提升标题
Ctrl + H
- 有序列表
Ctrl + O
- 无序列表
Ctrl + U
- 横线
Ctrl + R
- 撤销
Ctrl + Z
- 重做
Ctrl + Y
数据集介绍:
有1501个不同的人,而且总共有32668个bbox,这些总的照片是由6个不同的照相机拍下来的,其中,有5个是高像素的相机,一个低像素的相机,并且能够保证每个人至少有2张不同的照片,而且每个id在每一个相机下也可能有多张照片。
不仅如此,这个数据集还添加了额外的干扰选项(也就是这个行人并不属于1501个人里面或者junk的)
词袋模型介绍:
(1)特征提取:本文使用的是CN描述子,在每个小区域提取出他们的CN特征描述子,且patch大小是4*4,取样的step也是4
(2)codebook生成:对于之前提取出的每个区域的算子,利用k-means进行聚类(本文中k取的350),用聚类的中心构建成为码本,使得相似的单词(聚类于同一类)能用同一个单词表示
(3)直方图向量构造:对于输入进来的每个东西,先对于每个小块对比之前的codebook判断它是属于哪一个聚类中心,那对应的那个bin数目就加1,最后得出来的东西也就自然是一个k维的向量(本文中k等于350)
(4)对于训练集,我们计算出平均特征向量,然后对于的所有的测试向量,我们在原有的基础上减去这个算出来的平均特征向量得到最终的测试向量(这样做是为了方便点乘运算,我也不知为啥?)
(5)对于query图像Q和gallery图像G,我们计算他们的特长向量之间的点乘,需要注意的是:在经过L2正则化以后,点乘等效于欧氏距离,在large-scale中,最近邻算法中最常用的就是欧氏距离。
本文的实验贡献:
(1)弱几何约束:
ACS能有效解决合并空间约束的问题,但是存在着计算量过大的缺陷。因此本篇论文提出一种方案,将ACS整合到BOW模型中去,也就是说将图像在水平方向分成很多的条纹,对于每一个条纹部分,能够表示成:d
m
=(d
1
m
,d
2
m
,d
3
m
……d
k
m
)
T
其中,k是codebook的大小,m则代表是第几个条纹,因此,总的图像的特征向量就可以表示成 f=(d
1
, d
2
, d
3
…… d
M
)
T
(2)背景抑制:
我们要尽可能的让每张图片的北京队行人的识别造成尽可能小的影响,而对于每一幅图片生成一个掩膜耗时而且不稳定,因此本论文提出了一种方法:运用2D高斯样板,N(
μ
x
,
δ
x
,
μ
y
,
δ
y
).其中
μ
x
,
μ
y
代表的是图像的中心,而
δ
x
和
δ
y
都是1,这种方法假设人都在正中心而且被背景环绕。
(3)multiple queries:
query图片可能对于同一个人有多张照片,为了计算方便,我们可以将这多张图片的特征向量合成一个,有两种方法:average pooling 和 max pooling
(4)reranking:
对于求出来的距离矩阵进行重排序,从而得到更加精准的结果。
对于每一张query,能够求出他的gallery中的distance排序,我们取出gallery中的top T(本文中T取的1,因为实验表明取1效果最好,噪声更小)作为辅助的query,然后再分别又在gallery中求距离。而且对于每个query根据他们的排序给出一个权重为1/(1+i),
从而对于每一个Q,Gpair,有如下公式,从而修正了原有的distance矩阵: