[京哥读论文]之From Hashing to CNNs: Training Binary Weight Networks via Hashing

该文提出了一种新的训练二值权重网络(BWN)的方法,将其与哈希方法关联起来,通过交替更新策略优化二值编码而非权重,改善了在Cifar10、Cifar100和ImageNet上的性能。文章揭示了保持内积的哈希方法与BWN之间的关系,并在实践中证明了所提方法的有效性和收敛性。
摘要由CSDN通过智能技术生成

Abstract

本文在二值化权重(BWN)方面做出了创新,发表在AAAI2018上,作者是自动化所程建团队。本文的主要贡献是提出了一个新的训练BWN的方法,揭示了哈希与BW(Binary Weights)之间的关联,表明训练BWN的方法在本质上可以当做一个哈希问题。基于这个方法,本文还提出了一种交替更新的方法来有效的学习hash codes而不是直接学习Weights。在小数据和大数据集上表现的比之前的方法要好。

主要贡献

  • 本文揭示了保持内积哈希与BWN之间的紧密关联。
  • 为了减轻用哈希方法所带来的loss,本文将binary codes乘以了一个scaling factor并用交替优化的策略来更新binary codes以及factor。
  • 在Cifar10,Cifar100以及ImageNet上实验,本文提出的BWNH方法比之前方法要好。

Inner-product preserving hashing

保留内积哈希方法是沈老师团队在15年ICCV上提出的,方法是给定两个点集 X ∈ R S × M X\in \mathbb R^{S\times M} XRS×M W ∈ R S × N W\in \mathbb R^{S\times N} WRS×N X i ∈ R S × 1 X_i\in \mathbb R^{S\times 1} XiRS×1以及 W i ∈ R S × 1 W_i\in \mathbb R^{S\times 1} WiRS×1分别代表向量 X X X W W W的第 i i i个点,记作向量 X X X W W W的内积相似性(inner-product similarity)为 S ∈ R M × N S\in \mathbb R^{M\times N} SRM×N。则目标函数变为:
m i n ∥ S − h ( X ) T g ( W ) ∥ F 2 ( 1 ) min\quad \Vert S-h(X)^Tg(W)\Vert^2_F \quad (1) minSh(X)Tg(W)F2(1)
h ( ⋅ ) h(\cdot) h() g ( ⋅ ) g(\cdot) g()表示的是向量 X X X W W W的哈希函数。

哈希与BWN之间的关联

假设有一个L层pre-trained CNN model, X ∈ R S × M X\in \mathbb R^{S\times M} XRS×M是第 L L L层的input feature map.记作第 L L L层的权重的真实值为 W ∈ R S × N W\in \mathbb R^{S\times N} WRS×N,目标是得到二进制的weighs B ∈ { − 1 , + 1 } S × N B\in \{-1,+1\}^{S\times N} B{ 1,+1}S×N,天真的想法可能就是直接优化二者的差:
m i n L ( B ) = ∥ W − B ∥ F 2 s . t .    B ∈ { + 1 , − 1 } S × N ( 2 ) min \quad L(B)=\Vert W-B\Vert^2_F \quad s.t.\;B\in\{+1,-1\}^{S\times N} \quad (2) minL(B)=WBF2

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值