目录
量化的开源工具很多,本文使用ncnn进行量化,关于ncnn模型部署的参考链接1。
由于移动端的算力和内存通常较小,因此我们在部署的时候往往需要进一步压缩模型,以降低内存占用和计算量。
1. 优化模型
在生成model.param和model.bin模型后,可以在ncnn路径下(我的路径G:\NCNN\build-vs2017\tools)找到ncnnoptimize/ncnnoptimize.exe,然后很简单,打开shell(终端,使用命令直接生成优化后的模型,模型大小将压缩一半)
// 0表示float32, 1表示float16
// 优化过程会合并卷积层和激活层
./ncnnoptimize.exe model.param model.bin bettermodel.param bettermodel.bin 1
2. 量化模型
2.1 生成imagelist.txt
在ncnn路径(我的路径G:\NCNN\build-vs2017\tools\quantize)下找到ncnn2table/ncnn2table.exe
// 在ncnn2table路径下准备图片文件(train的数据即可)放在新建文件夹images里面
// 右