Simultaneous Feature Learning and Hash Coding with Deep Neural Networks

Simultaneous Feature Learning and Hash Coding with Deep Neural Networks

论文下载地址
自从2014年中山大学潘炎老师讲deep hash搬上舞台以来,关于deep hash的paper如雨后春笋般喷薄而出。本文也是潘炎老师15年参与发表的一篇paper,和之前的deep hash方法相比,本篇论文还是和先前的论文有着明显的改进。首先对于deep hash之前的方法主要是采用手工特征,这些特征最明显的缺点就是不能保证语义的相关性,即相同语义的图片应该具有比较接近的hash code。对于deep hash 方法主要是这样的思路,输入图像二元组和他们之间的label信息,从卷积层获取图像特征,从全连接层得到hash code,针对目标函数进行求导迭代。本文主要作了以下工作:

  • 网络输入为图片三元组,分别代表查询图片,与查询图片近似图片,与查询图片不近似的图片
  • 输入三元组通过共享的网络结构得到特征
  • 使用divide-and-module的模块切分图像的特征为q个branch,每一个branch对应1bit
  • 使用三元组损失函数,即查询图片与相似图片之间的距离小于查询图片与不相似图片之间的距离

    网络的整体模型如下图1所示:


    图1
    图1

Proposed Approach

Notation And Problem Definition

假定 L 是原始的图像空间,hash learning的目标就是学到一组hash function F:L{0,1}q ,经过hash function以后,图像 I 就变成了q长度的bit数组,并且保持图像之间的语义特征。网络的输入是一个三元组,包括原始图像 I ,和原图相近的图像 I+ ,和原图不相近的图像 I 。对于这样的三元组 (I,I+,I) ,网络的目标就是保证输出的hash code F(I) F(I+) 的距离小于 F(I) F(I) 的距离。作者引入了hinge loss当做网络的损失函数:

ι^triplet(F(I),F(I+),F(I))=max(0,1(||F(I)F(I)|
  • 3
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值