pytorch模型compression-prune,sparsity,quantization

pytorch模型compression-prune,sparsity,quantization

sparsity

Pruning individual weight elements is called element-wise pruning, and it is also sometimes referred to as fine-grained pruning

在这里插入图片描述

Filter Pruner

相连卷积层变换
Filter Pruner
conv + bn + conv 变换
在这里插入图片描述
non-serial data-dependencies
在这里插入图片描述
element-wise-summed and fed into a third Convolution
在这里插入图片描述
在这里插入图片描述

channel pruner

在这里插入图片描述

mobile_net quantization 实验数据

图片大小 27 x 33 pixel

modelsizetop1(accuracy)inference time
未量化模型9.2M99.17.46 ms(cpu) / 4.85 ms(gpu)
量化后模型3.1M98.91.75 ms(gpu)
半精度模型4.7M99.15.28 ms(gpu)

图片大小 136 x 91 pixel

modelsizetop1(accuracy)inference time
未量化模型9.2M99.116 ms(cpu) / 4.83 ms(gpu)
量化后模型3.1M98.95.99 ms(gpu)
半精度模型4.7M99.15.13 ms(gpu)

图片大小 620 x 827 pixel

modelsizetop1(accuracy)inference time
未量化模型9.2M99.1480 ms(cpu) / 21.2 ms(gpu)
量化后模型3.1M98.9123 ms(gpu)
半精度模型4.7M99.117.6 ms(gpu)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值