神经网络hash码论文笔记

  1. Deep Learning of Binary Hash Codes for Fast Image Retrieval
    这里写图片描述
    首先通过ImageNet进行训练,通过迁移学习的方法,保留包括F7之前的参数,在F7之后添加一层hash编码层,最后是分类层。Hash编码层通过sigmoid,映射到0~1,最后通过0.5阈值二值化为{0,1}。

思想是,通过hash编码层得到每张图像的hash码,然后通过LSH将得到的hash码进行映射,最后每类都有一个hash码。检索分为两级:1,使用Hamming距离,通过上得到的hash码定位到属于哪一类;2,使用Euclidean距离,然后通过F7学到的图像特征做进一步的精确检索。

  1. Deep Supervised Hashing for Fast Image Retrieval
    这里写图片描述
    通过图像对来进行训练网络。没对图像相似标记为0,否则标记为1。图像是否相似是通过这两张图片是否属于同一类,因为数据库有类别标签。
    训练时,首先将两张图片通过具有相同参数的网络,根据损失函数计算损失,然后进行反向传播。与第一篇论文不同,这篇论文将hash编码为{-1,1},也没有分类层。测试时将输出进行二值化,得到该图像的hash码,然后进行检索。
    损失函数分为3部分:
    这里写图片描述
    如果俩夫图片相似,使用第一个式子;如果两幅图片不相似,使用第二个式子;通过第三个式子将输出拉向-1,1。结果是相似的图像编码相似,不相似的图像编码不相似,而且最后输出趋于-1,1。
    M设为2k,k为组后一层编码长度。
  2. Feature Learning based Deep Supervised Hashing with Pairwise Labels
    作者给deep pairwise-supervised hashing取名DPSH。
    网络结构不复杂:
    这里写图片描述
    这里写图片描述
    也是迁移学习,不过迁移过来后所有参数是要跟新的。其实,说的再复杂,还是再full7后边又加了一层全连接层。
    训练方法和论文2差不多,损失函数不一样。
    损失函数推理过程:
    1.
    这里写图片描述
    2.
    这里写图片描述
    3.
    这里写图片描述
    4.其实就是指,最后边加了一个全连接层
    这里写图片描述
    5.
    这里写图片描述
    Sij表示相似为1,不相似为0。这里写图片描述u为网络的输出。b为u二值化后的值,大于0为1,小于0为-1。
    最后也是相似的图像编码相似,不相似的图像编码不相似。损失函数第二项通过将输出二值化然后与输出进行正则话很机智。详细推导见论文。

第一篇文章通过类别来学习hash码,后两篇通过将类别信息隐藏于图像对进行学习hash码。

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值