Natural Supervised Hashing

Natural Supervised Hashing

IJCAI 2016

要点:

  • 将标签向量视为二进制码,并学习与标签向量结构相似的目标码。
  • 为了避免对大型n⇥n Gram矩阵的直接优化,确定了一种内积保持变换,并使用它在不改变结构的情况下获得接近的标签向量和哈希码。
  • 为最终目标提出了交替优化方法,每一步都有一个解析解。训练过程非常快,规模也很好。

目标函数:

  • 优化目标:使目标码和标签向量尽可能近。
    目标函数:
    在这里插入图片描述
    引入矩阵R,
    在这里插入图片描述
    将显式的YY(T)与XP(XP)T的距离转换为隐式的Y与(XP)的距离
    在这里插入图片描述
    迭代优化P和R
  • 核化
    从训练集随机取m个锚点,使用RBF核,将原始数据x转换到k(x),核化后的数据矩阵为K,φ(XP)被φ(KP)取代

测评

  • 数据集:
    NUS-WIDE(每个样本平均1.87个标签)
    IAPRTC12(291个标签 每个样本平均5.72个标签)
    ESPGAME (268个标签 每个样本平均4.69个标签)
    MIRFLICKR25K(38个标签 平均每个样本4.72个标签)

  • 特征:
    对监督哈希的数据都进行了核化

  • 指标:
    汉明排序与哈希查找

  • 对比算法:
    原始特征的直接线性搜索L2
    SVM
    SDH
    LSH
    PCA_ITQ
    BREs
    KSH
    CCA_ITQ

  • 实验内容:
    在NUS-WIDE数据集上,NSH的训练时间显著少于BREs,KSH;NSH的mAP、precision和recall最优
    在LAPRTC12和ESPGAME数据集上,NSH的mAP最高
    在MIRFLICKR25K数据集上,(至少3个标签相同才认为相似,上面两个都是1个标签相同就认为相似)NSH的mAP、precision和recall最优

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值