Simultaneous Feature Learning and Hash Coding with Deep Neural Networks
论文下载地址
自从2014年中山大学潘炎老师讲deep hash搬上舞台以来,关于deep hash的paper如雨后春笋般喷薄而出。本文也是潘炎老师15年参与发表的一篇paper,和之前的deep hash方法相比,本篇论文还是和先前的论文有着明显的改进。首先对于deep hash之前的方法主要是采用手工特征,这些特征最明显的缺点就是不能保证语义的相关性,即相同语义的图片应该具有比较接近的hash code。对于deep hash 方法主要是这样的思路,输入图像二元组和他们之间的label信息,从卷积层获取图像特征,从全连接层得到hash code,针对目标函数进行求导迭代。本文主要作了以下工作:
- 网络输入为图片三元组,分别代表查询图片,与查询图片近似图片,与查询图片不近似的图片
- 输入三元组通过共享的网络结构得到特征
- 使用divide-and-module的模块切分图像的特征为q个branch,每一个branch对应1bit
使用三元组损失函数,即查询图片与相似图片之间的距离小于查询图片与不相似图片之间的距离
网络的整体模型如下图1所示:
图1
Proposed Approach
Notation And Problem Definition
假定 L 是原始的图像空间,hash learning的目标就是学到一组hash function