Natural Supervised Hashing
IJCAI 2016
要点:
- 将标签向量视为二进制码,并学习与标签向量结构相似的目标码。
- 为了避免对大型n⇥n Gram矩阵的直接优化,确定了一种内积保持变换,并使用它在不改变结构的情况下获得接近的标签向量和哈希码。
- 为最终目标提出了交替优化方法,每一步都有一个解析解。训练过程非常快,规模也很好。
目标函数:
- 优化目标:使目标码和标签向量尽可能近。
目标函数:
引入矩阵R,
将显式的YY(T)与XP(XP)T的距离转换为隐式的Y与(XP)的距离
迭代优化P和R - 核化
从训练集随机取m个锚点,使用RBF核,将原始数据x转换到k(x),核化后的数据矩阵为K,φ(XP)被φ(KP)取代
测评
-
数据集:
NUS-WIDE(每个样本平均1.87个标签)
IAPRTC12(291个标签 每个样本平均5.72个标签)
ESPGAME (268个标签 每个样本平均4.69个标签)
MIRFLICKR25K(38个标签 平均每个样本4.72个标签) -
特征:
对监督哈希的数据都进行了核化 -
指标:
汉明排序与哈希查找 -
对比算法:
原始特征的直接线性搜索L2
SVM
SDH
LSH
PCA_ITQ
BREs
KSH
CCA_ITQ -
实验内容:
在NUS-WIDE数据集上,NSH的训练时间显著少于BREs,KSH;NSH的mAP、precision和recall最优
在LAPRTC12和ESPGAME数据集上,NSH的mAP最高
在MIRFLICKR25K数据集上,(至少3个标签相同才认为相似,上面两个都是1个标签相同就认为相似)NSH的mAP、precision和recall最优