概述
本文主要解决Mxnet 转onnx,以及onnx模型caffe2推理中遇到的两个可能的报错。
(1)Don’t know how to map unexprected argument spatial(from operator SpatialBN)
(2)onnx.onnx_cpp2py_export.checker.ValidationError: Unrecognized attribute:spatial for operator BatchNormalization
问题:
(1)mxnet<=1.4 版本,对于batchnorm 可以转换成功,但是在使用caffe2.python.onnx.backend.prepare() 加载onnx模型时出现 报错:
Don’t know how to map unexprected argument spatial(from operator SpatialBN)
再使用netron 查看onnx模型,选择batchnormlization 模块,发现Attributes属性多了spatial:0项,从而导致再caffe2 推理时不支持/不识别spatial参数。
填坑尝试:
一顿查找后发现这是mxnet的bug,官方给出的说法是新版本已经修正了
链接参考
决定升级下mxnet 及onnx版本到1.5.0,一顿操作pip install,转换模型时 竟然会报错,也就是说升级mxnet竟然连转换都失败了,我了个去。网友们感觉要被坑死了。
提示:
onnx.onnx_cpp2py_export.checker.ValidationError: Unrecognized attribute:spatial for operator BatchNormalization
然后继续顺藤摸瓜。有热心网络给出了踏过这个坑:
参考链接
解释了一大堆我反应半天才明白是让我去改mxnet的安装文件(本能的以为安装文件即使改了也要百编译才能生效,好在是python文件,只要你有root权限立即生效,docker里操作就不受此限制)
解决方案
修改文件_op_translations.py , 然后注释该死的 spatial=0
再运行mxnet2onnx 无报错。
再运行caffe2.python.onnx.backend.prepare() 加载onnx模型,无报错。运行输出结果。
但是提示 model 使用的的onnx operator version =12, 而onnx-caffe2 version= 9,这是因为mxnet.onnxconvert函数没有向用户提供 onnx operator version 的版本选择参数,使用了默认的version=12. 如果没用到特殊的Op, 一般能兼容
总结
已经有很长时间没使用mxnet了,这次是需要在python环境中对别人的onnx模型测试精度。结果onnx模型在caffe2推理就是个坑,好在同时还有模型的mxnet版本,重新在mxnet环境中转换了个bugfix的onnx模型,顺利完成推理测试。
有读者可能好奇,为啥要用caffe2,而不是onnxruntime。可参见我的另外一篇博客:
onnx 模型转换与 onnxruntime 和caffe2 推理速度比较