onnx转ncnn
完整实现:
def onnx2ncnn(self):
assert os.path.isfile(simplified_onnx_path)
os.system('onnx2ncnn {} {} {}'.format(simplified_onnx_path, param_path, bin_path))
print('\n param has been save to {}'.format(param_path))
print(' bin has been save to {}\n'.format(bin_path))
os.system('ncnnoptimize {} {} {} {} fp32'.format(param_path, bin_path, param_path, bin_path))
print('\n param has been ncnnoptimized')
print(' bin has been ncnnoptimized\n')
1. 简化onnx
如果省略此步,会导致模型耗时增加约一半,模型大小增加约一半。且利用网站在线转换时容易报错:Unsupported unsqueeze axes !
如果没安装过 onnx-simplifie,安装一下:
pip install onnx-simplifier==0.2.4 -i https://pypi.tuna.tsinghua.edu.cn/simple
Note:经过simplify的onnx并不会有精度损失!
python -m onnxsim .\2task.aiyou.0.0.onnx 2task.0.0.onnx
2. onnx2ncnn
2.1.指令转ncnn
安装:
- 参照 Build for MacOSX 进行安装。
- 把ncnn/build/tools/下的 onnx2ncnn 和 ncnnoptimize(其他地方会用到) 移到全局环境下:
cp onnx2ncnn /usr/local/bin/ cp ncnnoptimize /usr/local/bin/
- 即可到任意目录下执行 onnx 到 ncnn 的转换:
- 记得要先写 .param ,再写 .bin
onnx2ncnn A.onnx A.param A.bin
- 记得要先写 .param ,再写 .bin
2.2.网站在线转ncnn
进入 convertmodel.com 进行在线转换:
3. 优化ncnn
Note:如果不优化的话,pnn下loadModel时可能会fail。
ncnnoptimize A.param A.bin A.param A.bin fp32
优化后的param只剩卷积结构: