Quantization Papers
1. Beyond Product Quantization: Deep Progressive Quantization for Image Retrieval
-
流程
首先AlextNet提取特征,用LS和LC,分别用来训练feature,LS将同类feature拉近,LC将不同 类feature拉远;接着将feature送进码本进行量化,接着重构,重构分为两种,硬重构和软重构。其中应重构是基于argmin得到哈希码b,在利用b将码字累加得到硬重构feature, 软重构则是用feature对码子做attention,用码子和attention的权重来得到软重构feature。在这些重构的feature得到之后有了计算Lquant, LquantH, Lmatch。Lquant是软重构损失,LquantH是硬重构损失,Lmatch是用软重构逼近硬重构。 -
创新点