论文阅读笔记-TRAINED TERNARY QUANTIZATION

        提出了一种对网络模型的三元素量化的策略,即(W_{l}^{n},0,W_{l}^{p}),与其他的方法相比,这个方法的W_{l}^{n},W_{l}^{p}不是固定的,并且绝对值不一定相等。于是:W_{l}^{n}W_{l}^{p}也是模型两个训练参数之一。于是网络的训练模型也需要对这两个参数进行训练。于是作者对后向传播函数也进行了修改。作者对模型的压缩效果进行了分析。分析的结果如下:

                                                     Tabel 1:Error rates of full-precision and ternary ResNets on Cifar-10
 

ModeFull resolutionTenary(Ours)Improvement
ResNet-208.238.87-0.64
ResNet-327.677.630.04
ResNet-447.187.020.16
ResNet-566.806.440.36

                                                           Table 2: Top1 and Top5 error rate of AlexNet on ImageNet
 

ErrorFull precision

1-bit

(DoReFa

2-bit

(TWN)

2-bit

(Ours)

Top142.8%46.1%45.5%42.5%
Top519.7%23.7%23.2%20.3%

                                                        Table 3: Top1 and Top5 error rate of ResNet-18 on ImageNet

ErrorFull precision

1-bit

(DoReFa

2-bit

(TWN)

2-bit

(Ours)

Top130.4%39.2%34.7%33.4%
Top510.8%17.0%13.8%12.8%

 

算法中的关键步骤如下:

量化策略:


后向传播函数:

作者给出了Alexnet的详细模型以及密度情况如下:

                                                                                Table 4: Alexnet layer-wise sparsity
 

Layer

Full precision

Density  

Full precision

Width

Pruing(NIPS’ 15)

Density

Pruing(NIPS’ 15)

Width

Ours

Density

Ours

Wisth

conv1100%32 bit84%8 bit100%32bit
conv2100%32 bit38%8 bit23%2 bit
conv3100%32 bit35%8 bit24%2 bit
conv4100%32 bit37%8 bit40%2 bit
conv5100%32 bit37%8 bit43%2 bit
conv toal100%-37% 33% 
fc1100%32 bit9%5 bit30%2 bit
fc2100%32 bit9%5 bit36%2 bit
fc3100%32 bit25%5 bit100%32bit
fc total100%-10% 37% 
All total100% 11% 37% 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值