onnx模型转caffe模型以及onnx bn和卷积层融合

onnx模型转caffe模型以及onnx bn和卷积层融合

目前文章主要在语雀上编写,有需要移步语雀

1. onnx模型转caffe模型

工具:https://github.com/MTlab/onnx2caffe
以MobileNetV2.onnx为例,执行

python convertCaffe.py ./model/MobileNetV2.onnx ./model/MobileNetV2.prototxt ./model/MobileNetV2.caffemodel

此时会报如下错误:

F0620 09:23:46.248489 198559 cudnn_conv_layer.cpp:53] Check failed: status == CUDNN_STATUS_SUCCESS (4 vs. 0)  CUDNN_STATUS_INTERNAL_ERROR

主要是由于MobileNet depthwise层引发的,在caffe使用depthwise层prototxt中需要添加engine: CAFFE,否则会报cudnn错误。在自动转换模型时onnx2caffe中没有添加engine: CAFFE,需要自己将所有group > 1Convolution层添加该参数,如果有Deconvolution层的depthwise也要加上。举个例子

layer {
  name: "362"
  type: "Convolution"
  bottom: "361"
  top: "362"
  convolution_param {
    num_output: 32
    bias_term: false
    group: 32
    pad_h: 1
    pad_w: 1
    kernel_h: 3
    kernel_w: 3
    stride_h: 1
    stride_w: 1
    dilation: 1
    engine: CAFFE
  }
}

然后注释掉convertCaffe.py中70和71行代码

    #with open(prototxt_save_path, 'w') as f:
        #print(net,file=f)

重新执行上面的脚本即可。


ps:以下错误不一定会有
下面是网络层中存在Deconvolution层可能遇到的错误

F0620 09:41:51.688936 205946 base_conv_layer.cpp:123] Check failed: num_output_ % group_ == 0 (1 vs. 0) Number of output should be multiples of group.

主要是num_output输出推导错误,修改

layer {
  name: "508"
  type: "Deconvolution"
  bottom: "507"
  top: "508"
  convolution_param {
    num_output: 64	# 修改为64,onnx2caffe转的为1
    bias_term: false
    group: 64
    pad_h: 0
    pad_w: 0
    kernel_h: 2
    kernel_w: 2
    stride_h: 2
    stride_w: 2
    engine: CAFFE # 添加
  }
}

2. onnx bn和卷积层融合

import onnx
from onnx import optimizer

ori_model = onnx.load("resnet18.onnx") # 加载原始模型
#all_passes = optimizer.get_available_passes()  # 查看所有可以优化的项
#passes = ['fuse_add_bias_into_conv', 'fuse_bn_into_conv']
passes = ['fuse_bn_into_conv'] # 只将bn融合conv
optim_model = optimizer.optimize(ori_model, passes)
onnx.save(optim_model, "resnet18-sim.onnx")

ps: PyTorch转onnx模型不同版本可能导致上述代码执行出现问题,推荐以下转模型

# pytorch <= 1.1 
torch.onnx.export(model, input, "resnet18.onnx", verbose=False, input_names=input_names, output_names=output_names)
# pytorch >= 1.2    
torch.onnx.export(model, input, "resnet18.onnx", verbose=False, input_names=input_names, output_names=output_names, keep_initializers_as_inputs=True)

References

https://blog.csdn.net/m0_37192554/article/details/103363571
https://www.cnblogs.com/wanggangtao/p/11388835.html

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值