Quantization Papers

Quantization Papers1. Beyond Product Quantization: Deep Progressive Quantization for Image Retrieval2. End-to-End Supervised Product Quantization for Image Search and Retrieval3. Collective Deep Quantization for Efficient Cross-Modal Retrieval1. Beyond Pr
摘要由CSDN通过智能技术生成

1. Beyond Product Quantization: Deep Progressive Quantization for Image Retrieval

DPQ

  • 流程
    首先AlextNet提取特征,用LS和LC,分别用来训练feature,LS将同类feature拉近,LC将不同 类feature拉远;接着将feature送进码本进行量化,接着重构,重构分为两种,硬重构和软重构。其中应重构是基于argmin得到哈希码b,在利用b将码字累加得到硬重构feature, 软重构则是用feature对码子做attention,用码子和attention的权重来得到软重构feature。在这些重构的feature得到之后有了计算Lquant, LquantH, Lmatch。Lquant是软重构损失,LquantH是硬重构损失,Lmatch是用软重构逼近硬重构。

  • 创新点

    • 0
      点赞
    • 0
      收藏
      觉得还不错? 一键收藏
    • 0
      评论

    “相关推荐”对你有帮助么?

    • 非常没帮助
    • 没帮助
    • 一般
    • 有帮助
    • 非常有帮助
    提交
    评论
    添加红包

    请填写红包祝福语或标题

    红包个数最小为10个

    红包金额最低5元

    当前余额3.43前往充值 >
    需支付:10.00
    成就一亿技术人!
    领取后你会自动成为博主和红包主的粉丝 规则
    hope_wisdom
    发出的红包
    实付
    使用余额支付
    点击重新获取
    扫码支付
    钱包余额 0

    抵扣说明:

    1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
    2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

    余额充值