模型压缩
文章平均质量分 90
justld
努力努力再努力
展开
-
【Matting】MODNet:实时人像抠图模型-NCNN C++量化部署
MODNet是一个轻量级Matting模型,之前已经使用python部署MODNet的onnx模型,本章节将使用NCNN部署MODNet,除此之外,对模型进行静态量化,使其存储空间降低为1/4。Matting效果如下:原创 2022-04-01 17:51:40 · 5991 阅读 · 18 评论 -
【深度学习】模型量化-笔记/实验
深度学习的模型参数类型为FP32,每个数值在存储时需要32bit存储空间,若是将其转换为int8或者uint8来保存,那么模型的大小将会降低为1/4。下表为不同精度的数值计算成本,可以看出8bit数值的计算成本远低于32bit计算成本。原创 2022-03-31 11:35:06 · 5127 阅读 · 5 评论 -
深度学习模型压缩-卷积裁剪
深度学习模型压缩,卷积裁剪原理及实现方法,包括L1Norm裁剪,L2Norm裁剪,FPGM裁剪。原创 2022-03-08 21:31:48 · 1841 阅读 · 0 评论